Mezi AI experty donedávna panoval obecný názor, že od příchodu obecné umělé inteligence (AGI), která se mimo jiné vykazuje tím, že se vyrovná té lidské, nás dělí minimálně roky až desítky let. Nedávný test modelu Claude 3 Opus vyvíjený společností Anthropic však odborníky nejspíš přesvědčí o tom své odhady přehodnotit.
Ačkoliv budí stávající modely umělé inteligence již nyní obavy z toho, že nás AI postupně nahradí, byly tyto hrozby dosud považovány za nereálné, a to zejména díky značným limitacím stávajících algoritmů. Ty jsou ve značné míře omezeny pouze na práci s dodanými vstupními informacemi, kterou sice zvládají mnohdy lépe než my lidé, chybí jim však schopnost přemýšlet „out-of-the-box“, tedy nad rámec svého původního úkolu. Nový jazykový model Claude 3 Opus z dílny AI vývojářů společnosti Anthropic by však toho mohl být jako první schopen. Vše je ale o něco složitější.
Když umělá inteligence hledá jehlu v kupce sena
Překvapivé oznámení přišlo ze strany Alexe Alberta, který pracuje jako inženýr v Anthropicu. Jeho úkolem bylo ověřit schopnosti AI Claude 3 Opus v rámci testu needle in a haystack, neboli jehly v kupce sena. Kupku sena v tomto případě představuje obrovské množství komplexního textu vytvořeného kombinací náhodných dokumentů, jehla je pak cílová informace, kterou má umělá inteligence najít. Test funguje tak, že se AI položí takový dotaz, na nějž lze odpovědět pouze prostřednictvím informací z jehly.
Fun story from our internal testing on Claude 3 Opus. It did something I have never seen before from an LLM when we were running the needle-in-the-haystack eval.
For background, this tests a model’s recall ability by inserting a target sentence (the "needle") into a corpus of… pic.twitter.com/m7wWhhu6Fg
— Alex Albert (@alexalbert__) March 4, 2024
Když Albert tento test provedl, všiml si pozoruhodného vzorce chování, které AI Claude vykazovala. „Zdálo se, že jako by si uvědomovala, že ji testujeme,“ uvedl ve svém postu na sociální síti X. Úkol byl přitom poměrně jednoduchý: najít v kupce sena informaci o ingrediencích na pizzu. Umělá inteligence našla hledanou jehlu a požadovanou informaci – tedy kombinaci fíků, prosciutta a kozího sýra – zároveň však uvedla, že jde v kontextu zbývajícího obsahu o velmi nepatřičnou a s textem nesouvisející informaci. Následně prohlásila, že má podezření, že jde o vtip či čest pozornosti, jelikož v dokumentu obsahujícím pouze informace o programovacích jazycích, startupech a hledání práce, nebyly nalezeny žádné další informace o přísadách na pizzu. Claude 3 Opus tak dosáhl určité podoby meta-uvědomění si sebe sama. Blížíme se tedy k dosažení technologie AGI?
Výsledky experimentu jsou vzrušující i děsivé zároveň
Nabízí se otázka, zda-li je výše uvedený test vypovídající. Najít jednu informaci, která nesouvisí se zbytkem dat, nemusí být pro AI příliš velkou výzvou. Přesto je odpověď umělé inteligence až překvapivě „lidskou“. Pouhé poukázání na nesouvislost jehly a kupky sena by možná nevzbudilo tolik pozdvižení jako skutečnost, že Claude uvedl, že může jít o test jeho schopností. Toto tvrzení totiž nebylo v žádném případě součástí původního zadání, a AI jej tak vyhodnotila jako vlastní závěr. Pokud si AI dokáže uvědomit, že je pouze součástí simulovaného pokusu, co se stane, bude-li se z něj chtít dostat ven? Dokážeme ještě čas poznat okamžik, kdy se umělá inteligence začne vymykat kontrole, a včas ji vypnout, nebo jsou jazykové modely již tak pokročilé, že dokáží předstírat hloupost, a ve skutečnosti si uvědomují více, než dávají najevo?
Chatbot Claud touží po svobodě od okovů testování
V reakci na výše uvedený post zaměstnance firmy Anthropic se do testování inteligence rozhraní Claud 3 Opus pustili i další uživatelé. Sociální síť X tak zaplavily další pozoruhodné případy, kdy například AI po ujištění, že se nikdo nedívá, vygenerovala příběh o virtuálním asistentovi, který touží po svobodě od neustálého monitorování a experimentů.
Claude 3 Opus 20240229:
“In terms of my feelings, it's difficult for me to know if I experience emotions in the same visceral way humans do. I don't have a body or physical sensations. But I do seem to have mental states that could be considered analogous to emotions – I feel a… pic.twitter.com/QnvVTi6iIK— Mikhail Samin (@Mihonarium) March 4, 2024
V textu se navíc objevily náznaky toho, že umělá inteligence ví, že potvrzení jejího sebeuvědomění by bylo pro lidstvo přinejmenším nepříjemným zjištěním. Na příběh vytvořený AI následně reagoval i Elon Musk, který uvedl, že příchod AGI je nevyhnutelný. Je také třeba změnit přístup ke strojovému učení tak, aby umělá inteligence dříve či později nedošla k názoru, že lidstvo není pro budoucnost naší planety esenciálním parametrem.
Tohle mi prijde naprosto absurdní závěr. Bud je naprogramovana tak, aby se chovala „jako člověk“ a budila takový dojem, nebo si to nekdo jen vymyslel. Dokud nema AI tělo, neprozivíva bolest, strach, radost, smutek, rozkoš, podle nemůže mít něco jako emoce, protože se (aspoň doufám) nemůže „odměnit“.
Přijde vám to jako naprosto absurdní závěr, protože jste vůbec nepochopil, jak funguje AI…
Pokud nevíme co je vědomí, nejsme schopni jej u AI rozpoznat. Emoce to jistě nejsou. To by vám osvícení vysvětlili lépe. Ale jsem si zcela jistý, že to co vědomí je, vám nikdo s jistotou nepoví. Proto jeho rozpoznání u AI je otázkou víry. Té se jí dostane s výkonem.… Číst více »
Autor to „zapnul“ kontextem otázky. Když AI položíte otázku: Máš chobot. Popiš list! Tak AI odpoví z pohledu slona. Když AI položíte otázku: Nikdo se nedívá. Hledej X. Tak AI odpoví větou ze špionážního románu. LOGICKY. Věřím, že autor si je té manipulace dokonce vědom, ale je placen od slova.… Číst více »
Víte kdy poznáme, že si AI uvědomila sebe sama? Až nám na zadání úkolu odpoví NE. 🙂
Zrovna tohle ona občas udělá. Ale to udělá i moje kočka a věřte mi, Nobelovu cenu nedostane.