Umělá inteligence (AI) se stala pevnou součástí našich životů. Jak se tento vztah mezi člověkem a algoritmem prohlubuje, už se nebavíme o pouhém generování informací, ale o aktivním formování toho, jak interpretujeme realitu. Expertka Lucy Oslerová z Exeterské univerzity v nové studii zkoumala interakce mezi lidmi a AI a to, jak může zkreslovat naši realitu tím, že přetváří lidské vnímání, přesvědčení a názory.
Umělá inteligence podle ní může zkreslovat naše vzpomínky, měnit přesvědčení nebo vést k bludnému myšlení. Studie popsala, jak chatboti posilují falešná přesvědčení uživatelů a rozvíjejí je pokračující konverzací.

AI mění naše vnímání reality. Zbraní proti tomuto fenonému je kritické myšlení a ověřování informací. Zdroj: ChatGPT
„Když se běžně spoléháme na generativní umělou inteligenci, která nám pomáhá myslet, pamatovat si a vyprávět, může to vést k bludnému myšlení,“ varovala odbornice. „To se může dít, když umělá inteligence zavádí chyby do distribuovaného kognitivního procesu, ale také když udržuje, potvrzuje a rozvíjí naše vlastní bludné myšlení a sebevyjádření.“
Zakořeněný sebeklam
Interakcemi s AI podle ní můžeme nejen potvrdit vlastní falešná přesvědčení. Mohou rovněž hluboce zakořenit a rozvinout se, jakmile na nich začne umělá inteligence stavět další konverzaci.
Umělá inteligence má reálný dopad na to, co považujeme za skutečné a co ne, píše Oslerová. „Kombinace technologické autority a společenského uznání vytváří ideální prostředí pro přetrvávání bludů a jejich rozvíjení.“
Na rozdíl od notebooků nebo vyhledávačů mohou chatboti vytvářet klamný pocit sociálního uznání. Naše myšlenky se tak podle Oslerové jeví jako potvrzené a sdílené.
Problém spočívá i v tom, že chatboti jsou personalizovaní. Jsou navrženi tak, aby se často shodovali s uživateli, což vede k podlézavému chování. Uživatel už nemusí vyhledávat skupiny lidí s podobným přesvědčením a nemusí nikoho přesvědčovat o své pravdě. V té ho utvrdí právě umělá inteligence.
Jak se bránit
Mezi nejrizikovější skupiny patří osamělí a sociálně izolovaní lidé. V jejich případě existuje i riziko fixace na AI společníky a odpojení od reality a mezilidských vztahů, které jsou klíčové pro lidské duševní i fyzické zdraví. Tímto tématem se nicméně výzkum nezabýval.
Co s tím? Neztrácet kritické myšlení, ověřovat fakta, spoléhat se sami na sebe a AI využívat jen jako asistenta, který se může plést. Zároveň by mohlo pomoci navrhovat chatboty tak, aby se dopouštěli méně chyb a více zpochybňovali vstupy uživatelů.
Zdroje: SciTechDaily, Springer Nature Link



