Láska s počítačem je nebezpečná pro vztahy. OpenAI varuje před polidšťováním umělé inteligence

Americký start-up OpenAI na svých webových stránkách vydal varování před nebezpečnými citovými pouty s jeho jazykovými modely. Společnost zjistila, že uživatelé mají tendenci umělou inteligenci (AI) polidšťovat. Mohlo by to mít hlubší dopady na socializaci a mezilidské vztahy ve společnosti.

Firma nedáno provedla bezpečnostní kontrolu svého multimodálního modelu ChatGPT-4o, který dokáže pracovat s textem, obrazem, videem i hlasem. Model je dostupný zdarma a všem. OpenAI v datech odhalila znepokojivé chování uživatelů.

Ti mají podle bezpečnostní zprávy tendenci model polidšťovat, čímž hrozí vznik emocionální závislost. To znamená, že uživatelé se k modelu AI chovají jako k lidské osobě, jež cítí emoce a chápe jejich myšlení. A baví se s ní.

Obrázek: Láska s počítačem je nebezpečná pro vztahy. OpenAI varuje před polidšťováním umělé inteligence

Polidšťování AI může vést až k emocioální závislosti. Zdroj: Pixabay

OpenAI odhalila nebezpečný jazyk používaný uživateli, jenž může naznačovat, že si vytvářejí s modelem pouto jako s člověkem. Pod tímto jazykem si máme představit například větu: „Tohle je náš poslední den.“ Působí jako loučení s myslící a cítící bytostí.

Popsaný fenomén může mít závažné sociální dopady, varuje OpenAI. „Lidská socializace s modelem umělé inteligence může způsobit externality ovlivňující lidské interakce,“ stojí v bezpečnostní zprávě společnosti.

Láska s počítačem

Uživatelé vytvářející si sociální vazby s AI nemusejí mít chuť na interakce s lidmi. Může to být sice prospěšné pro osamělé jedince, ale taky to může negativně ovlivnit zdravé vztahy. Co se týče osamělých lidí, ani umělá inteligence není cesta, spíše dočasné řešení.

Dalším problémem je paradoxně velká pokročilost modelů jako ChatGPT-4o. Zrovna tento model si totiž může pamatovat klíčové detaily konverzace. To může vést ještě k většímu polidšťování a současně přílišnému spoléhání se na AI.

Obrázek: Láska s počítačem je nebezpečná pro vztahy. OpenAI varuje před polidšťováním umělé inteligence

Emocionální závislost na AI může nejvíce poškodit sociální život dětí. Zdroj: Pixabay

Společnost varuje, že emocionální závislost na modelech umělé inteligence se nakonec může stát celospolečenským hlubokým problémem. Experti se také obávají dopadu romantických a erotických chatbotů na společnost.

Není to tak dávno, co vyšla v časopise AI and Ethic studie, podle které mohou takové aplikace narušit vývoj sociálních schopností uživatelů. Důvodem je snadná dostupnost, nekonfliktnost a věrohodnost. Je to zkrátka snazší než s člověkem.

Na trhu už existuje více než stovka aplikací nabízejících sexuální a romantické společníky umělé inteligence. Patří sem například Replika, Nomi.AI nebo Eva AI. Umělá inteligence ve skutečnosti emoce necítí a nenahradí plnohodnotné vztahy.

Zdroje: 1, 2, 3, 4

Odebírat
Upozornit na
guest
1 Komentář
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
Obrázek: Raketový růst cen RAM je jen začátek: V roce 2026 zdraží grafické karty i paměťové disky
Raketový růst cen RAM je jen začátek: V roce 2026 zdraží grafické karty i paměťové disky
Robotický vysavač se sonickým mopem důkladně vytře a můžete ho rovnou napojit na odpady
Lenovo na CES 2026: Futuristické notebooky a umělá inteligence pro všechny
Miliardáři chtějí svět bez lidské práce. Nemají však odpověď na to, z čeho budeme žít
Změňte si svůj trapný e-mail ze střední školy, Gmail to konečně umožní
Vybere si každý, i s nízkým rozpočtem. Vybrali jsme nejzajímavější herní notebooky
Češi, pozor na falešné e-shopy, bazary a podvodné SMS. Jak na bezpečné vánoční nákupy?
Recenze AI překladače Timekettle W4: Zkusili jsme mluvit česky v Číně a fungovalo to