Obecným a opakujícím se pohledem na nejnovější průlom ve výzkumu umělé inteligence je to, že vnímající a inteligentní stroje jsou právě na obzoru. Stroje rozumějí slovním příkazům, rozlišují obrázky, řídí auta a hrají hry lépe než my. Jak dlouho to může trvat, než mezi námi půjdou?
Nová zpráva Bílého domu o umělé inteligenci má na tento sen náležitě skeptický názor. Říká se, že v příštích 20 letech pravděpodobně neuvidí stroje „vykazují široce aplikovatelnou inteligenci srovnatelnou nebo vyšší než inteligence lidí“, i když se dále říká, že v následujících letech „stroje dosáhnou a překonají lidský výkon na více a další úkoly. “ Ale její předpoklady o tom, jak se tyto schopnosti budou rozvíjet, vynechaly některé důležité body.
Jako výzkumník umělé inteligence přiznávám, že bylo hezké, aby moje pole bylo zvýrazněno na nejvyšší úrovni americké vlády, ale zpráva se zaměřila téměř výhradně na to, čemu říkám „nudný druh umělé inteligence“. V polovině věty jsem odmítl můj obor výzkumu AI, jak evoluce může pomoci vyvinout neustále se zlepšující systémy AI a jak nám výpočetní modely mohou pomoci pochopit, jak se naše lidská inteligence vyvíjela.
Zpráva se zaměřuje na to, co by se dalo nazvat běžnými nástroji AI: strojové učení a hluboké učení. To jsou nejrůznější technologie, které dokázaly hrát „Jeopardy!“ dobře, a porazit lidské Go mistrů v nejsložitější hře vůbec vymyslel. Tyto současné inteligentní systémy jsou schopny zpracovat obrovské množství dat a provádět složité výpočty velmi rychle. Chybí jim však prvek, který bude klíčem k budování vnímajících strojů, které v budoucnu představujeme.
Musíme se učit více než učit stroje. Musíme překonat hranice, které definují čtyři různé typy umělé inteligence, bariéry, které od nás oddělují stroje a nás od nich.
Typ I AI: Reaktivní stroje
Nejzákladnější typy systémů AI jsou čistě reaktivní a nemají schopnost vytvářet paměti ani využívat minulé zkušenosti k informování o současných rozhodnutích. Deep Blue, superpočítač společnosti IBM na hraní šachů, který na konci 90. let porazil mezinárodní velmistra Garryho Kasparova, je dokonalým příkladem tohoto typu stroje.
Deep Blue dokáže identifikovat kousky na šachovnici a vědět, jak se každý pohybuje. Může předpovídat, jaké pohyby mohou být pro něj a jeho protivníka další. Ze všech možností si může vybrat nejoptimálnější pohyby.
Ale nemá žádnou představu o minulosti ani žádnou vzpomínku na to, co se stalo dříve. Kromě zřídka používaného pravidla specifického pro šachy proti opakování stejného tahu třikrát, Deep Blue ignoruje všechno před současným okamžikem. Jediné, co dělá, je podívat se na kousky na šachovnici, jak stojí právě teď, a vybrat si z možných dalších tahů.
Tento druh inteligence zahrnuje počítač, který svět vnímá přímo a jedná podle toho, co vidí. Nespoléhá se na vnitřní koncept světa. V seminární práci výzkumník AI Rodney Brooks tvrdil, že bychom měli stavět pouze takovéto stroje. Jeho hlavním důvodem bylo to, že lidé nejsou příliš dobří v programování přesných simulovaných světů pro použití počítačů, což se v AI stipendiu nazývá „reprezentace“ světa.
Současné inteligentní stroje, které obdivujeme, nemají žádný takový koncept světa, nebo mají velmi omezený a specializovaný stroj pro své konkrétní povinnosti. Novinkou v designu Deep Blue nebylo rozšířit škálu možných filmů, které počítač zvažoval. Vývojáři spíše našli způsob, jak zúžit svůj názor, přestat sledovat některé potenciální budoucí kroky, na základě toho, jak hodnotí svůj výsledek. Bez této schopnosti by Deep Blue musel být ještě silnějším počítačem, aby skutečně porazil Kasparova.
Podobně ani Google AlphaGo, který porazil špičkové lidské Go experty, nemůže vyhodnotit všechny potenciální budoucí tahy. Metoda analýzy je sofistikovanější než metoda Deep Blue's a používá k hodnocení vývoje her neuronovou síť.
Tyto metody zlepšují schopnost systémů AI lépe hrát konkrétní hry, ale nelze je snadno změnit ani použít v jiných situacích. Tyto počítačové představivosti nemají představu o širším světě - což znamená, že nemohou fungovat nad rámec konkrétních úkolů, které jim byly přiděleny, a snadno se klamou.
Nemohou se interaktivně účastnit světa, tak jak si představujeme AI systémy jednoho dne. Místo toho se tyto stroje budou chovat přesně stejným způsobem pokaždé, když se setkají se stejnou situací. To může být velmi dobré pro zajištění důvěryhodnosti systému AI: Chcete, aby vaše autonomní auto bylo spolehlivým řidičem. Ale je to špatné, pokud chceme, aby se stroje skutečně zapojily do světa a reagovaly na něj. Tyto nejjednodušší systémy umělé inteligence se nikdy nebudou nudit, nezajímají, ani nebudou smutně.
AI typu II: omezená paměť
Tato třída typu II obsahuje stroje, které mohou nahlédnout do minulosti. Auta s vlastním pohonem již něco dělají. Například sledují rychlost a směr ostatních automobilů. To nelze provést v jediném okamžiku, ale spíše vyžaduje identifikaci konkrétních objektů a jejich sledování v průběhu času.
Tato pozorování jsou přidána k předprogramovaným znázorněním světa s vlastním pohonem, která zahrnují také značení jízdních pruhů, semafory a další důležité prvky, jako jsou křivky na silnici. Jsou zahrnuty, když se auto rozhodne, kdy změnit jízdní pruhy, aby nedošlo k odříznutí jiného řidiče nebo zasažení blízkým autem.
Tyto jednoduché informace o minulosti jsou však jen přechodné. Nejsou uloženy jako součást knihovny zkušeností automobilu, ze které se může poučit, ze způsobu, jakým lidští řidiči shromažďují zkušenosti za roky za volantem.
Jak tedy můžeme budovat systémy umělé inteligence, které vytvářejí úplné reprezentace, pamatují si jejich zkušenosti a jak se naučit řešit nové situace? Brooks měl pravdu v tom, že je velmi obtížné to udělat. Můj vlastní výzkum metod inspirovaných darwinovskou evolucí může začít kompenzovat lidské nedostatky tím, že nechá stroje budovat vlastní reprezentace.
Typ III AI: Teorie mysli
Můžeme se zde zastavit a označit tento bod za důležitý rozdíl mezi stroji, které máme, a stroji, které budeme stavět v budoucnosti. Je však lepší být konkrétnější diskutovat o typech reprezentací, které musí stroje tvořit a o čem musí být.
Stroje v další, pokročilejší třídě nejen vytvářejí reprezentace o světě, ale také o jiných agentech nebo entitách na světě. V psychologii se to nazývá „teorie mysli“ - chápání, že lidé, stvoření a předměty na světě mohou mít myšlenky a emoce, které ovlivňují jejich vlastní chování.
To je zásadní pro to, jak jsme si lidé vytvořili společnosti, protože nám umožnili mít sociální interakce. Bez pochopení vzájemných motivů a záměrů a bez zohlednění toho, co někdo ví o mně nebo o životním prostředí, je spolupráce v nejlepším případě obtížná, v nejhorším nemožná.
Pokud budou mezi námi systémy AI skutečně chodit, budou muset pochopit, že každý z nás má myšlenky a pocity a očekávání, jak se s námi zachází. A budou muset podle toho upravit své chování.
AI typu IV: Sebevědomí
Posledním krokem ve vývoji AI je vytvoření systémů, které mohou o sobě vytvářet reprezentace. Nakonec budeme muset vědci AI nejen porozumět vědomí, ale také postavit stroje, které jej mají.
V jistém smyslu jde o rozšíření „teorie mysli“, kterou disponují umělá inteligence typu III. Vědomí se také nazývá „sebevědomí“ z nějakého důvodu. („Chci tuto položku“ je velmi odlišné tvrzení od „Vím, že chci tuto položku.“) Vědomé bytosti si jsou vědomy samy o sobě, vědí o svých vnitřních stavech a jsou schopny předpovídat pocity druhých. Předpokládáme, že někdo, kdo za námi troubí v dopravě, je naštvaný nebo netrpělivý, protože takhle se cítíme, když na ostatní troubíme. Bez teorie mysli bychom nemohli udělat takové druhy závěrů.
Přestože jsme pravděpodobně daleko od vytváření strojů, které si uvědomují sami sebe, měli bychom soustředit své úsilí na porozumění paměti, učení a schopnosti založit rozhodnutí na minulých zkušenostech. Toto je důležitý krok k pochopení lidské inteligence samotné. A je zásadní, pokud chceme navrhnout nebo vyvinout stroje, které jsou více než výjimečné při třídění toho, co vidí před nimi.
Arend Hintze, odborný asistent integrační biologie a informatiky a výpočetní techniky, Michiganská státní univerzita