Čo vlastne dnes dokáže umelá inteligencia
Čo vlastne dnes dokáže umelá inteligencia
Anonim

Spoiler alert: Do povstania strojov je ešte veľa času.

Čo vlastne dnes dokáže umelá inteligencia
Čo vlastne dnes dokáže umelá inteligencia

Keď Elon Musk predstaví humanoidného robota Tesla Bota, zdá sa, že nová vedecká revolúcia je hneď za rohom. O niečo viac – a umelá inteligencia (AI) prekoná človeka a v práci nás nahradia stroje. Profesorov Garyho Marcusa a Ernesta Davisa, oboch renomovaných odborníkov na AI, však žiadame, aby sa s takýmito závermi neunáhlili.

V Reboot umelej inteligencie výskumníci vysvetľujú, prečo sú moderné technológie ďaleko od ideálu. S povolením vydavateľstva "Alpina PRO" Lifehacker zverejňuje úryvok z prvej kapitoly.

V tomto bode existuje obrovská priepasť – skutočná priepasť – medzi našou ambíciou a realitou umelej inteligencie. Táto priepasť vznikla v dôsledku nevyriešenia troch konkrétnych problémov, z ktorých každý sa musí poctivo vysporiadať.

Prvým z nich je to, čo nazývame dôverčivosť, ktorá je založená na skutočnosti, že my ľudia sme sa v skutočnosti nenaučili rozlišovať medzi ľuďmi a strojmi, a preto je ľahké nás oklamať. Inteligenciu pripisujeme počítačom, pretože my sami sme sa vyvinuli a žili medzi ľuďmi, ktorí vo veľkej miere zakladajú svoje činy na abstrakciách, ako sú nápady, presvedčenia a túžby. Správanie strojov je často povrchne podobné správaniu ľudí, preto strojom rýchlo priradíme rovnaký typ základných mechanizmov, aj keď ich stroje nemajú.

Nemôžeme si pomôcť, ale myslíme na stroje v kognitívnych pojmoch („Môj počítač si myslí, že som vymazal svoj súbor“), bez ohľadu na to, aké jednoduché pravidlá tieto stroje skutočne dodržiavajú. Ale závery, ktoré sa ospravedlňujú, keď sa aplikujú na ľudí, môžu byť úplne nesprávne, keď sa aplikujú na programy umelej inteligencie. V súlade so základným princípom sociálnej psychológie to nazývame základná chyba platnosti.

Jeden z prvých prípadov tejto chyby sa vyskytol v polovici 60. rokov, keď chatbot menom Eliza presvedčil niektorých ľudí, že skutočne rozumie veciam, ktoré mu hovoria. V skutočnosti Eliza len pochytila kľúčové slová, zopakovala poslednú vec, ktorú jej daná osoba povedala, a v slepej situácii sa uchýlila k štandardným konverzačným trikom typu „Povedz mi o svojom detstve“. Ak by ste spomenuli svoju mamu, spýtala by sa vás na vašu rodinu, hoci netušila, čo rodina vlastne je a prečo je pre ľudí dôležitá. Bol to len súbor trikov, nie demonštrácia skutočnej inteligencie.

Napriek tomu, že Eliza ľuďom vôbec nerozumela, mnohí používatelia sa nechali dialógmi s ňou oklamať. Niektorí strávili hodiny písaním fráz na klávesnici, rozprávali sa týmto spôsobom s Elizou, ale nesprávne si vysvetľovali triky chatbotov, pričom si reč papagája mýlili s užitočnou, úprimnou radou alebo sympatiou.

Joseph Weisenbaum Tvorca Elizy.

Ľudia, ktorí veľmi dobre vedeli, že sa rozprávajú so strojom, na túto skutočnosť čoskoro zabudli, rovnako ako milovníci divadla na chvíľu odhodia neveru a zabudnú, že čin, ktorého sú svedkami, nemá právo byť nazývaný skutočným.

Elizini partneri často požadovali povolenie na súkromný rozhovor so systémom a po rozhovore napriek všetkým mojim vysvetleniam trvali na tom, že stroj im skutočne rozumie.

V iných prípadoch môže byť chyba pri posudzovaní pravosti fatálna v prenesenom zmysle slova. V roku 2016 sa jeden majiteľ automatizovaného auta Tesla natoľko spoliehal na zdanlivú bezpečnosť režimu autopilota, že sa (podľa príbehov) úplne ponoril do sledovania filmov o Harrym Potterovi a nechal auto, aby všetko robilo samo.

Všetko išlo dobre – až sa to v určitom momente zhoršilo. Po najazdení stoviek alebo dokonca tisícok kilometrov bez nehody sa auto zrazilo (v každom zmysle slova) s nečakanou prekážkou: cez diaľnicu prešiel biely kamión a Tesla sa vrútila priamo pod príves a na mieste zabila majiteľa auta.. (Zdalo sa, že auto niekoľkokrát varovalo vodiča, aby prevzal kontrolu, ale vodič sa zdal byť príliš uvoľnený na to, aby rýchlo zareagoval.)

Morálka tohto príbehu je jasná: to, že sa zariadenie môže na chvíľu alebo dva (a dokonca šesť mesiacov) zdať „inteligentné“, vôbec neznamená, že to tak naozaj je alebo že si dokáže poradiť so všetkými okolnosťami, za ktorých človek by reagoval adekvátne.

Druhý problém nazývame ilúzia rýchleho pokroku: zamieňanie pokroku v umelej inteligencii, spojeného s riešením ľahkých problémov, za pokrok, spojené s riešením skutočne zložitých problémov. To sa napríklad stalo so systémom IBM Watson: jeho pokrok v hre Jeopardy! sa zdalo veľmi sľubné, ale v skutočnosti sa ukázalo, že systém je oveľa ďalej od porozumenia ľudskej reči, než vývojári predpokladali.

Je možné, že program AlphaGo od DeepMind pôjde rovnakou cestou. Hra go, podobne ako šach, je idealizovaná informačná hra, kde obaja hráči môžu kedykoľvek vidieť celú šachovnicu a vypočítať následky ťahov hrubou silou.

Vo väčšine prípadov v reálnom živote nikto nič nevie s úplnou istotou; naše údaje sú často neúplné alebo skreslené.

Aj v tých najjednoduchších prípadoch je veľa neistoty. Keď sa rozhodujeme, či pôjdeme k lekárovi pešo, alebo pôjdeme metrom (keďže deň je zamračené), nevieme presne, ako dlho budeme čakať na vlak metra, či sa vlak nezasekne na ceste, či natlačíme sa do vozňa ako sleď v sude alebo zmokneme vonku v daždi, neodvážime sa ísť metrom a ako na naše meškanie zareaguje lekár.

Vždy pracujeme s informáciami, ktoré máme. Systém DeepMind AlphaGo, ktorý sa miliónkrát hrá sám so sebou, sa nikdy nevysporiadal s neistotou, jednoducho nevie, aký je nedostatok informácií alebo ich neúplnosť a nekonzistentnosť, nehovoriac o zložitosti ľudskej interakcie.

Je tu ďalší parameter, vďaka ktorému sa hry mysle veľmi líšia od skutočného sveta, a to opäť súvisí s údajmi. Dokonca aj zložité hry (ak sú pravidlá dostatočne prísne) sa dajú modelovať takmer dokonale, takže systémy umelej inteligencie, ktoré ich hrajú, môžu ľahko zbierať obrovské množstvo údajov, ktoré potrebujú na trénovanie. V prípade Go teda môže stroj simulovať hru s ľuďmi jednoduchým hraním proti sebe; aj keď systém potrebuje terabajty dát, vytvorí si ich sám.

Programátori tak môžu získať úplne čisté simulačné dáta s malými alebo žiadnymi nákladmi. Naopak, v reálnom svete dokonale čisté dáta neexistujú, nie je možné ich simulovať (keďže pravidlá hry sa neustále menia) a o to ťažšie je skúšobne nazbierať veľa gigabajtov relevantných dát. a chyba.

V skutočnosti máme len niekoľko pokusov otestovať rôzne stratégie.

Nie sme schopní napríklad 10-miliónkrát zopakovať návštevu lekára s postupným upravovaním parametrov rozhodnutí pred každou návštevou, aby sme dramaticky zlepšili naše správanie pri výbere dopravy.

Ak chcú programátori vycvičiť robota, aby pomáhal starším ľuďom (povedzme, aby pomáhal ukladať chorých ľudí do postele), každý kúsok údajov bude stáť za skutočné peniaze a skutočný ľudský čas; neexistuje spôsob, ako zhromaždiť všetky požadované údaje pomocou simulačných hier. Ani figuríny z nárazových testov nedokážu nahradiť skutočných ľudí.

Je potrebné zbierať údaje o skutočných starších ľuďoch s rôznymi charakteristikami senilných pohybov, o rôznych typoch postelí, rôznych typoch pyžám, rôznych typoch domov a tu sa nemôžete pomýliť, pretože pád človeka aj na vzdialenosť niekoľkých centimetre od postele by bola katastrofa. V tomto prípade ide o určitý pokrok (zatiaľ najzákladnejší), ktorý sa v tejto oblasti podarilo dosiahnuť pomocou metód úzkej umelej inteligencie. Boli vyvinuté počítačové systémy, ktoré hrajú takmer na úrovni najlepších ľudských hráčov vo videohrách Dota 2 a Starcraft 2, kde sa v danom čase účastníkom ukáže len časť herného sveta, a teda každý hráč bude čeliť problém nedostatku informácií – ktorý sa Clausewitzovou ľahkou rukou nazýva „hmla neznáma“. Vyvinuté systémy však stále zostávajú veľmi úzko zamerané a nestabilné v prevádzke. Napríklad program AlphaStar, ktorý hrá v Starcraft 2, sa naučil iba jednu konkrétnu rasu od širokej škály postáv a takmer žiadny z týchto vývojov sa nedá hrať ako ktorákoľvek iná rasa. A, samozrejme, nie je dôvod sa domnievať, že metódy používané v týchto programoch sú vhodné na úspešné zovšeobecnenia v oveľa zložitejších situáciách skutočného života. skutočné životy. Ako IBM zistilo nie raz, ale už dvakrát (najskôr v šachu a potom v Jeopardy!), Úspech v problémoch z uzavretého sveta vôbec nezaručuje úspech v otvorenom svete.

Tretím kruhom opísanej priepasti je precenenie spoľahlivosti. Znovu a znovu vidíme, že akonáhle ľudia s pomocou umelej inteligencie nájdu riešenie nejakého problému, ktoré môže chvíľu fungovať bez porúch, automaticky predpokladajú, že s revíziou (a s trochu väčším množstvom dát) bude fungovať spoľahlivo.čas. Ale nemusí to tak byť.

Opäť berieme autá bez vodičov. Je pomerne jednoduché vytvoriť demo autonómneho vozidla, ktoré bude správne jazdiť po jasne vyznačenom pruhu na pokojnej ceste; ľudia to však dokázali už viac ako storočie. Je však oveľa ťažšie prinútiť tieto systémy fungovať za zložitých alebo neočakávaných okolností.

Ako nám v e-maile povedala Missy Cummingsová, riaditeľka Humans and Autonomy Laboratory na Duke University (a bývalá pilotka stíhačky amerického námorníctva), otázkou nie je, koľko kilometrov dokáže prejsť auto bez vodiča bez nehody. ktorým sa tieto autá dokážu prispôsobiť meniacim sa situáciám. Podľa jej Missy Cummings odošlite e-mail autorom 22. septembra 2018., moderné poloautonómne vozidlá "zvyčajne fungujú len vo veľmi úzkom rozsahu podmienok, ktoré nehovoria nič o tom, ako môžu fungovať za menej ako ideálnych podmienok."

Vyzerať úplne spoľahlivo na miliónoch testovacích míľ vo Phoenixe ešte neznamená, že budete mať dobrý výkon počas monzúnu v Bombaji.

Tento zásadný rozdiel medzi tým, ako sa autonómne vozidlá správajú v ideálnych podmienkach (ako sú slnečné dni na prímestských viacprúdových cestách) a tým, čo môžu robiť v extrémnych podmienkach, sa môže ľahko stať otázkou úspechu a neúspechu celého odvetvia.

S tak malým dôrazom na autonómne riadenie v extrémnych podmienkach a s tým, že súčasná metodika sa nevyvinula smerom k zabezpečeniu správneho fungovania autopilota v podmienkach, ktoré sa len začínajú považovať za skutočné, môže byť čoskoro jasné, že miliardy dolárov boli vynaložené na metódy výroby samoriadiacich áut, ktoré jednoducho nedokážu zabezpečiť spoľahlivosť jazdy ako u ľudí. Je možné, že na dosiahnutie úrovne technickej istoty, ktorú potrebujeme, sú potrebné prístupy, ktoré sa zásadne líšia od súčasných.

A autá sú len jedným príkladom z mnohých podobných. V modernom výskume umelej inteligencie bola jej spoľahlivosť celosvetovo podceňovaná. Je to čiastočne preto, že väčšina súčasného vývoja v tejto oblasti zahŕňa problémy, ktoré sú vysoko odolné voči chybám, ako napríklad odporúčanie reklamy alebo propagácia nových produktov.

Ak vám totiž odporučíme päť druhov produktov a obľúbite si len tri z nich, nestane sa nič zlé. Ale v mnohých kritických aplikáciách AI pre budúcnosť, vrátane áut bez vodiča, starostlivosti o starších ľudí a plánovania zdravotnej starostlivosti, bude kritická spoľahlivosť podobná ľuďom.

Nikto si nekúpi domáceho robota, ktorý bezpečne odnesie vášho starého dedka do postele, len štyrikrát z piatich.

Aj v tých úlohách, kde by sa moderná umelá inteligencia mala teoreticky ukázať v čo najlepšom svetle, pravidelne dochádza k vážnym zlyhaniam, ktoré niekedy vyzerajú veľmi vtipne. Typický príklad: počítače sa už v princípe celkom dobre naučili rozpoznať, čo je (alebo sa deje) na tom či onom obrázku.

Niekedy tieto algoritmy fungujú skvele, ale často vytvárajú úplne neuveriteľné chyby. Ak ukážete obrázok automatizovanému systému, ktorý generuje popisky k fotografiám každodenných scén, často dostanete odpoveď, ktorá je nápadne podobná tomu, čo by napísal človek; napríklad pre scénu nižšie, kde skupina ľudí hrá frisbee, vysoko propagovaný systém generovania titulkov od Googlu tomu dáva presne ten správny názov.

Obr. 1.1. Skupina mladých ľudí hrajúcich frisbee (pravdepodobný popis fotografie, automaticky generovaný AI)
Obr. 1.1. Skupina mladých ľudí hrajúcich frisbee (pravdepodobný popis fotografie, automaticky generovaný AI)

Ale o päť minút neskôr môžete ľahko dostať absolútne absurdnú odpoveď od rovnakého systému, ako sa to stalo napríklad pri tejto dopravnej značke, na ktorú niekto nalepil nálepky: počítač s názvom Tvorcovia systému nevysvetlil, prečo k tejto chybe došlo, no takéto prípady nie sú ojedinelé. Môžeme predpokladať, že systém v tomto konkrétnom prípade klasifikoval (možno z hľadiska farby a textúry) fotografiu ako podobnú ostatným obrázkom (z ktorých sa dozvedel) označenú ako „chladnička naplnená množstvom jedla a nápojov“. Počítač prirodzene nepochopil (čo človek ľahko pochopil), že takýto nápis by sa hodil iba v prípade veľkej obdĺžnikovej kovovej škatule s rôznymi (a aj tak nie všetkými) predmetmi vo vnútri. táto scéna je „chladnička s množstvom jedla a nápojov“.

Ryža. 1.2. Chladnička naplnená množstvom jedla a nápojov (úplne nepravdepodobný nadpis, vytvorený rovnakým systémom ako vyššie)
Ryža. 1.2. Chladnička naplnená množstvom jedla a nápojov (úplne nepravdepodobný nadpis, vytvorený rovnakým systémom ako vyššie)

Podobne aj autá bez vodiča často správne identifikujú to, čo „vidia“, no niekedy sa zdá, že prehliadajú samozrejmé veci, ako v prípade Tesly, ktorá pravidelne narážala do zaparkovaných hasičských áut alebo sanitiek na autopilota. Slepé uhly, ako sú tieto, môžu byť ešte nebezpečnejšie, ak sa nachádzajú v systémoch, ktoré kontrolujú energetické siete alebo sú zodpovedné za monitorovanie verejného zdravia.

Na preklenutie priepasti medzi ambíciami a realitou umelej inteligencie potrebujeme tri veci: jasné povedomie o hodnotách, ktoré sú v tejto hre v stávke, jasné pochopenie toho, prečo moderné systémy AI neplnia svoje funkcie dostatočne spoľahlivo a, konečne, nová stratégia rozvoja strojové myslenie.

Keďže stávky na umelú inteligenciu sú skutočne vysoké, pokiaľ ide o pracovné miesta, bezpečnosť a štruktúru spoločnosti, existuje naliehavá potreba, aby sme my všetci – profesionáli v oblasti AI, príbuzné profesie, bežní občania a politici – pochopili skutočný stav vecí. v tejto oblasti s cieľom naučiť sa kriticky posudzovať úroveň a charakter rozvoja dnešnej umelej inteligencie.

Tak ako je dôležité, aby občania, ktorí sa zaujímajú o správy a štatistiky, pochopili, aké ľahké je zavádzať ľudí slovami a číslami, aj tu je čoraz významnejší aspekt pochopenia, aby sme zistili, kde je umelá inteligencia.len reklama, ale kde je to skutočné; čo teraz dokáže a čo nevie a možno sa ani nenaučí.

Najdôležitejšie je uvedomiť si, že umelá inteligencia nie je mágia, ale len súbor techník a algoritmov, z ktorých každý má svoje silné a slabé stránky, je vhodný pre niektoré úlohy a nie je vhodný pre iné. Jedným z hlavných dôvodov, prečo sme sa rozhodli napísať túto knihu, je to, že veľa z toho, čo čítame o umelej inteligencii, sa nám zdá byť absolútnou fantáziou, ktorá vyrastá z nepodloženej dôvery v takmer magickú silu umelej inteligencie.

Medzitým táto fikcia nemá nič spoločné s modernými technologickými možnosťami. Bohužiaľ, diskusia o AI medzi širokou verejnosťou bola a je silne ovplyvnená špekuláciami a zveličovaním: väčšina ľudí ani netuší, aké ťažké je vytvoriť univerzálnu umelú inteligenciu.

Ujasnime si ďalšiu diskusiu. Aj keď si objasnenie reálií spojených s AI od nás vyžiada vážnu kritiku, my sami v žiadnom prípade nie sme odporcami umelej inteligencie, táto stránka technologického pokroku sa nám veľmi páči. Významnú časť nášho života sme prežili ako profesionáli v tejto oblasti a chceme, aby sa rozvíjala čo najrýchlejšie.

Americký filozof Hubert Dreyfus raz napísal knihu o tom, aké výšky podľa neho umelá inteligencia nikdy nemôže dosiahnuť. O tom táto kniha nie je. Čiastočne sa zameriava na to, čo AI v súčasnosti nedokáže a prečo je dôležité tomu porozumieť, ale značná časť hovorí o tom, čo by sa dalo urobiť na zlepšenie počítačového myslenia a jeho rozšírenie na oblasti, v ktorých má teraz problém robiť ako prvé.

Nechceme, aby umelá inteligencia zanikla; chceme, aby sa zlepšil, navyše radikálne, aby sme s ním mohli naozaj počítať a riešiť s jeho pomocou mnohé problémy ľudstva. Máme veľa kritiky na súčasný stav umelej inteligencie, ale naša kritika je prejavom lásky k vede, ktorú robíme, nie výzvou, aby sme sa vzdali a všetko opustili.

Stručne povedané, veríme, že umelá inteligencia môže skutočne vážne zmeniť náš svet; ale tiež veríme, že mnohé zo základných predpokladov o AI sa musia zmeniť, aby sme mohli hovoriť o skutočnom pokroku. Nami navrhovaný „reset“umelej inteligencie nie je vôbec dôvodom na ukončenie výskumu (hoci niektorí môžu našu knihu chápať presne v tomto duchu), ale skôr diagnózou: kde sme sa teraz zasekli a ako sa z toho dostaneme? dnešná situácia.

Veríme, že najlepším spôsobom, ako sa pohnúť vpred, môže byť pohľad dovnútra, čeliť štruktúre našej vlastnej mysle.

Skutočne inteligentné stroje nemusia byť presnými kópiami ľudí, ale každý, kto sa na umelú inteligenciu pozrie úprimne, uvidí, že od ľudí sa ešte stále má čo učiť, najmä od malých detí, ktoré sú v mnohých ohľadoch oveľa lepšie ako stroje v ich schopnosť absorbovať a porozumieť novým konceptom.

Lekárski vedci často charakterizujú počítače ako „nadľudské“(tak či onak) systémy, ale ľudský mozog je stále výrazne lepší ako jeho kremíkové náprotivky najmenej v piatich aspektoch: rozumieme jazyku, rozumieme svetu, vieme flexibilne. prispôsobiť sa novým okolnostiam, dokážeme sa rýchlo naučiť nové veci (aj bez veľkého množstva údajov) a dokážeme uvažovať pri neúplných a dokonca protichodných informáciách. Na všetkých týchto frontoch sú moderné systémy umelej inteligencie beznádejne za ľuďmi.

Reštart umelej inteligencie
Reštart umelej inteligencie

Umelá inteligencia: Reboot zaujme ľudí, ktorí chcú porozumieť moderným technológiám a pochopiť, ako a kedy môže nová generácia AI zlepšiť náš život.

Odporúča: