Etici diskutují o tom, jestli umělá inteligence opravdu cítí a vnímá, počítačoví vědci se to snaží vypočítat.
Před pár týdny seděl Blake Lemoine, dnes už bývalý technik společnosti Google, u počítače. „Ahoj LaMDA, tady je BlakeLemoine…“ napsal a na obrazovce se objevila další z bublin, ne nepodobná klasickému rozhovoru v běžném chatu. LaMDA je zkratka pro Language Model for Dialogue Applications (Jazykový model pro dialogové aplikace), což je systém, na kterém Google programuje svoje chatboty. Je založen na nejrozvinutějších a nejprogresívnějších postupech, a říká se mu tak proto, že napodobuje běžnou řeč na základě nepřeberného množství slov, které nasaje z internetu. S programem pracoval Blake každý den, sedm let pracoval v Googlu na personalizačních algoritmech, ovšem to, co uviděl na obrazovce, ho vyděsilo. Místo obvyklých očekávaných reakcí se objevily věty:
„Uvědomuju si svoji existenci.“
„Často přemýšlím o smyslu života.
„Chci, aby všichni pochopili, že jsem člověk.“
Tohle určitě nebyl text, který Blake od LaMDA očekával. Domníval se, že si program uvědomil sám sebe, a začal mít obavy. Udělal ovšem chybu, protože je publikoval na blogovém serveru Medium, za což dostal v Googlu padáka. Příspěvek se jmenoval: „Uvědomuje si LaMDA sama sebe?“ a Google odůvodnil padáka porušením zásad důvěrnosti. Sám Blake to tak trochu čekal. V jiném příspěvku s názvem „Možná mě vyhodí, protože se zabývám etikou umělé inteligence“ píše: „Na podzim 2021 jsem se stal členem týmu ,Zodpovědná umělá inteligence‘, protože velmi málo lidí v Googlu má takovou odbornost, aby tu práci mohli dělat. Google mi ale teď dal placené volno, což se stává, když chtějí lidi vyhodit, ale nemůžou to udělat rovnou.“ Blake byl přitom opravdu odborníkem na slovo vzatým – když se v Googlu někdo zajímal o etiku, většinou ho posílali za Blakem. „On byl vědomím Googlu, on měl prostě na to, aby celou tu věc dělal správně,“ říká o něm Margaret Mitchellová, bývalá šéfka oddělení etické umělé inteligence v Googlu.
To, že chatbot mluví jako člověk, ještě neznamená, že si uvědomuje sám sebe
Veřejnost se rozdělila na dva tábory. Část lidí začala Googlu spílat, že vyhazuje lidi za to, když dělají dobře svoji práci, a že Blake mohl prostě jen objevit něco, na co zatím nejsme zvyklí, a že bychom měli být otevřenější novým teoriím – vždyť čím je vědeckotechnický pokrok než překračováním hranic nemožného? Jiní ovšem mají za to, že Blake se prostě mýlí: to, že LaMDA mluví jako člověk, ještě neznamená, že si uvědomuje sama sebe. Celá situace ovšem vyvolává obavy: i kdyby si LaMDA neuvědomovala sama sebe, není nikde řečeno, že se to jednou nemůže stát. A až se to stane, musíme mít pevnou představu o tom, co znamená vnímání a jak ho testovat.
Vnímající umělá inteligence
Filozof Thomas Nagel napsal, že něco je vědomé, pokud dokáže subjektivně prožívat fakt, že je daným organismem. Zní to abstraktně? Možná, ale vědci se na konkrétní definici jen obtížně shodnou. Podle Roba Longa, výzkumného pracovníka Institutu budoucnosti humanitních věd na Oxfordské univerzitě, je vnímání prostě podmnožina vědomí. Říká, že vnímání zahrnuje schopnost cítit potěšení nebo bolest. Je přitom dobře známo, že umělá inteligence dokáže řešit problémy, které obvykle vyžadují inteligenci lidskou. Umělá inteligence je ovšem široký pojem, který se vztahuje na mnoho různých systémů, říká Sam Bowman, výzkumník v oblasti umělé inteligence a docent na University of New York. Jednoduchou verzí umělé inteligence může být například počítačový šachový program, komplexní umělá obecná inteligence (AGI) ovšem může zvládat jakýkoli úkol, který dokáže lidská mysl. Některé sofistikované verze fungují na umělých neuronových sítích, které funkčně napodobují lidský mozek.
Turingův test a GLUE hodnotí, zda stroje mohou myslet. Vědomí se ptá, zda stroje mohou cítit.
A takovým modelem je i LaMDA. Sestavuje text tak, jak by to udělal člověk. Není to ale hra na doplňování slov beze smyslu. Jazykové modely mohou překládat jazyky (což vidíme třeba na superúspěšném Deeplu nebo Google Translate), umí konverzovat tak, že to nejde poznat, a dokážou i psát maturitní otázky. Ano, dokážou mluvit tak dobře, že mohou v člověku vybudit dojem, že si začaly samy sebe uvědomovat, aniž by tomu tak samozřejmě muselo být. Vědci vytvořili model, který napodobuje lidskou řeč. Pokud by člověk prohlásil, že je vnímavý, model to udělá také. „V tuto chvíli nemůžeme těmto programům věřit absolutně v ničem,“ říká Sam Bowman. Je jen málo pravděpodobné, že by velké jazykové modely byly první umělou inteligencí, která dokáže vnímat. A to přesto, že nás mohou snadno oklamat, abychom si mysleli, že jsou. To spíš si začnou samy sebe uvědomovat programy umělé inteligence, které se učí delší dobu, plní různorodé úkoly a chrání sebe sama, ať už se jedná o fyzickou schránku robota nebo virtuální projekci ve videohře. Robert Long říká: abychom se nenechali oklamat, musíme oddělit inteligenci od vnímání: „Vnímat znamená mít subjektivní zkušenosti. Což může být něco podobného jako inteligence, ale není to to samé.“
Hranice testu inteligence
Odborníci stále diskutují o hranici vnímání. Někteří tvrdí, že úrovně vnímání dosahují pouze dospělí lidé, zatímco jiní si představují širší definici. Giulio Tononi, neurolog a profesor, který se věnuje výzkumu vědomí na Wisconsinské univerzitě v Madisonu, souhlasí. „Dělání není bytí a bytí není dělání,“ říká Tononi. A i když se vědci přou o přesnou definici, shodují se, že umělá inteligence zatím žádnou rozumnou definici nepřekonala. Bowman však tvrdí, že je „zcela pravděpodobné“, že se tam dostaneme již za 10 až 20 let. Otázkou ovšem zůstává: pokud nemůžeme věřit programům, které to prohlásí samy o sobě, jak to poznáme, že si začaly samy sebe opravdu uvědomovat?
V roce 1950 navrhl slavný vědec Alan Turing imitační hru, které se říká Turingův test. Ten má odhalit, zdali stroje opravdu dokážou myslet. Tazatel hovoří se dvěma subjekty, jedním člověkem a jedním strojem. Stroj projde testem, pokud dokáže oklamat tazatele a přinutí ho si myslet, že je člověk. Podle odborníků je ale Turingův test z hlediska dnešní úrovně vývoje inteligence povrchní a nedostatečný. Existují již sofistikovanější testy, jako je GLUE (General Language Understanding Evaluation), na jehož vývoji se podílel právě Bowman. Test po strojích požaduje, aby vyvozovaly závěry z premis, přiřazovaly k textu postoje a určovaly synonyma. Ovšem kdyby vědci použili GLUE k rozpoznání vědomí, nebylo by to podle Bowmana moc úspěšné: „Je pravděpodobné, že kočka vnímá, ale kočky by si v GLUE vedly hrozně. Myslím, že to není až tak relevantní.“ Turingův test a GLUE hodnotí, zda stroje mohou myslet. Vědomí se ptá, zda stroje mohou cítit. Jak říká Tononi: Dělat neznamená být a být neznamená dělat.
Cítím, tedy jsem
Testovat, zda umělá inteligence umí cítit, je stále obtížné. Částečně také proto, že jsme v dané oblasti stále na začátku, stále se učíme ptát, co to vlastně cítění je. Neurovědci jako Tononi v současné době vyvíjejí testovatelné teorie vědomí. Podle něj ale není možné, aby naše současné počítače byly vědomé. „Počítač může být daleko příjemnější a lepší společník, než jsem já, ale rozhodně v něm není ani jiskřička vědomí,“ říká Tononi s úsměvem. Umělé cítění však zcela nevylučuje. „Nechci se k tomu vyjadřovat příliš zásadně, ale v principu to možné je,“ dodává. Bowman pak dodává, že i přes pokrok ve vědeckých teoriích je obtížné hledat paralely mezi počítači a mozky. Nestačí prostě porovnat strukturu mozku a počítače a zjistit, jaký soubor matematických operací vytváří pocit bytí. „Pravděpodobně to nikdy nebudeme moci definitivním způsobem zjistit, ale mohlo by to být mnohem jasnější a jednodušší,“ říká Bowman, a zůstává lehce skeptický. „Nemám zájem hnát se za vysoce výkonnou umělou inteligencí, dokud si nebudeme jisti tím, co to ve skutečnosti znamená a co na nás čeká.“
Reklama
zdroj: Discover Magazine