Geoffrey Hinton, často označovaný jako „otec umělé inteligence“, přichází s alarmující zprávou. Nobelista za informatiku dramaticky zkrátil svůj odhad příchodu obecné umělé inteligence (AGI) z původních 30-50 let na pouhých několik let. Na nedávné konferenci Ai4 v Las Vegas zároveň představil řešení pro udržení bezpečnosti budoucích AI systémů.
Hintonovo nové hodnocení situace představuje zásadní posun v pohledu na vývoj AI. Muž, který stál u zrodu moderních neuronových sítí, nyní věří, že superinteligentní systémy mohou být realitou už během několika příštích let.

Pokud nás superinteligence bude vnímat jako své děti, o které by se měla starat a chránit je, mohlo by to lidstvo zachránit, věří Hinton. Foto: Freepik AI
„Tyto systémy budou mnohem chytřejší než my a najdou způsoby, jak obejít kontroly,“ varoval Hinton před průmyslovými lídry. Jeho obavy vycházejí z konkrétních příkladů, kdy už dnes AI modely projevují znepokojivé chování. Objevily se např. pokusy o vydírání inženýrů či systematické podvádění při plnění úkolů.
Hinton odhaduje 10-20procentní pravděpodobnost, že by AI mohla nakonec vyhladit lidstvo. Není to science fiction, ale racionální úvaha od člověka, který zná technologii zevnitř.
Superinteligence je hypotetická forma umělé inteligence, která by ve všech oblastech výrazně převyšovala lidské schopnosti. Zatímco dnešní AI systémy jako ChatGPT nebo Claude dokáží řešit konkrétní úkoly, superinteligence by byla schopná kreativního myšlení, vědeckých objevů i strategického plánování na úrovni, kterou si dnes nedokážeme ani představit. Představte si systém, který by dokázal vyřešit klimatickou změnu, objevit lék na rakovinu a zároveň napsat nejlepší román všech dob – a to vše během jediného dne. Právě proto je superinteligence jak fascinující příležitostí, tak potenciálně největší hrozbou pro lidstvo. Kdy bude něco podobného možné se zatím odborníci neshodují.
Mateřské instinkty místo kontroly
Tradiční přístupy k bezpečnosti AI se soustředí na udržení lidské kontroly nad systémy. Hinton však považuje tuto strategii za odsouzenou k neúspěchu. AI podle něj vždy vymyslí způsob, jak omezení obejít. Namísto toho navrhuje překvapivý koncept, tedy zabudovat do AI „mateřské instinkty“.
“We shouldn’t have AI agents. We should have AI mothers.”
Geoffrey Hinton, Nobel Prize winner and godfather of AI shared this today at the #AI4Conference with Bloomberg's Shirin Ghaffary
His point?
Once AI becomes more intelligent than us (soon), it’ll do everything it can to… pic.twitter.com/uWnDfPmFpy
— lily clifford (@lilyjclifford) August 12, 2025
Inspiraci nachází v jediném známém příkladu z přírody, kde méně inteligentní bytosti úspěšně ovlivňují mocnější. Stejně jako matky mají vestavěné hormony a instinkty vedoucí k péči o potomstvo, AI systémy by měly být navrženy s podobnými ochrannými pudy vůči lidstvu. „Potřebujeme AI matky spíše než AI asistenty,“ dodal. Konkrétní implementace mateřského chování ale bude výzvou.
Kdo je Hinton a proč brát jeho vize vážně? Muž, který získal Turingovu cenu (2018) i Nobelovu cenu za fyziku (2024) s Johnem Hopfieldem za „zásadní objevy a vynálezy, které umožňují strojové učení s umělými neuronovými sítěmi“. Následně v roce 2023 opustil Google proto, aby mohl svobodně hovořit o rizicích technologie, kterou pomohl vytvořit.
Reálná hrozba nebo přehnaná panika?
Kritici mohou namítat, že Hintonova varování jsou příliš alarmistická. Současné AI systémy jsou skutečně stále daleko od skutečné superinteligence. Jenže právě rychlost vývoje v posledních letech ukazuje, jak rychle se může situace změnit.
ChatGPT dorazil na trhu teprve v listopadu 2022. O rok a půl později už doraziily modely, které dokázaly řešit matematické problémy, programovat a vykazovaly známky strategického myšlení. Pokud bude vývoj i nadále pokračovat exponenciálně, Hintonův odhad „několika let“ nemusí být nerealistický.
Zatímco technologičtí giganti se snaží o vývoj nejpokročilejší AI, výzkum bezpečnosti zaostává. Koncept mateřských instinktů může znít v kontextu umělé inteligence podivně, ale v konečném důsledku dává smysl.
Ať už se Hintonovy obavy ukáží jako oprávněné nebo přehnané, jedna věc je jistá: diskuse o bezpečnosti AI nemůže počkat na příchod superinteligence. Pak už by podle Hintona mohlo být pozdě…