Umělá inteligence nenápadně mění náš pohled na realitu. Jak se bránit?

Umělá inteligence (AI) se stala pevnou součástí našich životů. Jak se tento vztah mezi člověkem a algoritmem prohlubuje, už se nebavíme o pouhém generování informací, ale o aktivním formování toho, jak interpretujeme realitu. Expertka Lucy Oslerová z Exeterské univerzity v nové studii zkoumala interakce mezi lidmi a AI a to, jak může zkreslovat naši realitu tím, že přetváří lidské vnímání, přesvědčení a názory.

Umělá inteligence podle ní může zkreslovat naše vzpomínky, měnit přesvědčení nebo vést k bludnému myšlení. Studie popsala, jak chatboti posilují falešná přesvědčení uživatelů a rozvíjejí je pokračující konverzací.

AI mění naše vnímání reality. Zbraní proti tomuto fenonému je kritické myšlení a ověřování informací

AI mění naše vnímání reality. Zbraní proti tomuto fenonému je kritické myšlení a ověřování informací. Zdroj: ChatGPT

„Když se běžně spoléháme na generativní umělou inteligenci, která nám pomáhá myslet, pamatovat si a vyprávět, může to vést k bludnému myšlení,“ varovala odbornice. „To se může dít, když umělá inteligence zavádí chyby do distribuovaného kognitivního procesu, ale také když udržuje, potvrzuje a rozvíjí naše vlastní bludné myšlení a sebevyjádření.“

Zakořeněný sebeklam

Interakcemi s AI podle ní můžeme nejen potvrdit vlastní falešná přesvědčení. Mohou rovněž hluboce zakořenit a rozvinout se, jakmile na nich začne umělá inteligence stavět další konverzaci.

Umělá inteligence má reálný dopad na to, co považujeme za skutečné a co ne, píše Oslerová. „Kombinace technologické autority a společenského uznání vytváří ideální prostředí pro přetrvávání bludů a jejich rozvíjení.“

Na rozdíl od notebooků nebo vyhledávačů mohou chatboti vytvářet klamný pocit sociálního uznání. Naše myšlenky se tak podle Oslerové jeví jako potvrzené a sdílené.

Problém spočívá i v tom, že chatboti jsou personalizovaní. Jsou navrženi tak, aby se často shodovali s uživateli, což vede k podlézavému chování. Uživatel už nemusí vyhledávat skupiny lidí s podobným přesvědčením a nemusí nikoho přesvědčovat o své pravdě. V té ho utvrdí právě umělá inteligence.

Jak se bránit

Mezi nejrizikovější skupiny patří osamělí a sociálně izolovaní lidé. V jejich případě existuje i riziko fixace na AI společníky a odpojení od reality a mezilidských vztahů, které jsou klíčové pro lidské duševní i fyzické zdraví. Tímto tématem se nicméně výzkum nezabýval.

Co s tím? Neztrácet kritické myšlení, ověřovat fakta, spoléhat se sami na sebe a AI využívat jen jako asistenta, který se může plést. Zároveň by mohlo pomoci navrhovat chatboty tak, aby se dopouštěli méně chyb a více zpochybňovali vstupy uživatelů.

Zdroje: SciTechDaily, Springer Nature Link 

Odebírat
Upozornit na
guest
0 Komentářů
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
Historický moment pro Teslu: Autonomní řízení FSD Supervised prošlo evropskou homologací
Konečně! I do starších televizí Samsung přibude dlouho chybějící funkce
Obrázek: Jako v Avatarovi. Firma chce osázet parky svítícími rostlinami
Jako v Avatarovi. Firma chce osázet parky svítícími rostlinami
Obrázek: Kvantová bezpečnost i 6G sítě: Vodafone a VUT propojují evropské univerzity do jedné digitální učebny
Kvantová bezpečnost i 6G sítě: Vodafone a VUT propojují evropské univerzity do jedné digitální učebny
S hodinkami Huawei konečně zaplatíte i v Česku. Vyzkoušeli jsme to za vás
Tlumočník v mobilu i odstranění objektů z fotek: Co všechno umí umělá inteligence v nových mobilech řady Xiaomi 17?
Obrázek: AI záznamník za tři tisíce? Plaud shodil české ceny na dosud nevídané minimum
AI záznamník za tři tisíce? Plaud shodil české ceny na dosud nevídané minimum
Hrozba týdne #3: Pozor na telefonát z „finančáku“. Jak funguje nový podvod, který se šíří Českem