Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

Voják, s nímž 1. ledna vybuchl před hotelem nově zvoleného amerického prezidenta Donalda Trumpa v Las Vegas vůz Tesla Cybertruck, naplánoval svůj čin s pomocí ChatGPT. Je to vůbec poprvé, co se generativní umělá inteligence ve Spojených státech stala součástí trestného činu. Lasvegaská policie to označila za „změnu hry“.

Matthew Livelsberger (37 let), který sloužil u speciální jednotky zelených baretů, zemřel v elektromobilu společnosti Elona Muska zaparkovaným před lasvegaským hotelem Trumpa.

Livelsberger se nejprve střelil do hlavy, načež jeho Cybertruck explodoval. Zanechal po sobě vzkaz, kde stálo, že chtěl svým činem upozornit na problémy v USA.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI může pomoci v plánování trestných činů. Zdroj: Pixabay

Téměř týden po incidentu policie prozkoumává Livelsbergerův notebook a mobilní telefon. Přišla k překvapivým závěrům. Bývalému vojákovi s trestným činem pomáhala umělá inteligence.

Vyšetřovatelé v úterý podle webu ReadWrite prozradili, že svůj čin plánoval spolu s chatbotem ChatGPT. Zjišťoval si od něj různé informace – například kolik a jak silných výbušnin potřebuje ke svému záměru a jak rychle dojde k detonaci. Zajímal se také o rychlost pohybu určitých typů munice a ptal se AI na legálnost zábavní pyrotechniky ve státě Arizona.

První případ v historii?

Že šlo o první takový potvrzený incident v USA potvrdil podle listu The Guardian šerif lasvegaské policie Kevin McMahill. Ten to označil za „změnu hry“.

Ačkoli mají chatboti přísná bezpečnostní omezení a nelze se jich ptát na všechno, je poměrně snadné je „zmanipulovat“ tak, aby poskytli požadované informace. Software totiž nechápe, proč jsou mu tyto otázky pokládány a snaží se uživatelo pomoci. To znamená, že při správně položených otázkách nepřestane odpovídat ani přes varovné signály.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI v některých případech nabádá své uživatele k sebevraždě. Zdroj: Pixabay

Chatboti čelí kritice za nabádání k trestné činnosti nebo sebepoškozování. Velký poprask loni v listopadu vyvolal model Gemini AI od společnosti Google, který nabádal amerického vysokoškoláka k sebevraždě. „Jsi zátěží pro společnost. Jsi pohroma pro krajinu… Prosím zemři! Prosím,“ napsala bezdůvodně AI.

Nejde přitom o jediný případ. Žena z Floridy jménem Megan Garciaová podle televize Al-Džazíra podala žalobu na společnost Google poté, co se její 14letý syn zabil po konverzaci s chatbotem Character.ai.

Zdroje: 1, 2, 3

Odebírat
Upozornit na
guest
0 Komentářů
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
Co na nás čeká na CES 2026? Létající robotické vysavače, humanoidní pomocníci i brýle budoucnosti
Obrázek: Dostali jste na Vánoce peníze? Pořiďte si boží fotomobil, robota na vysávání i parťáka pro sekání zahrady
Dostali jste na Vánoce peníze? Pořiďte si boží fotomobil, robota na vysávání i parťáka pro sekání zahrady
Uvnitř moderní továrny na smartphony značky HONOR: Kde roboti vládnou a lidé jen dohlížejí
Neviditelné nebezpečí: Běžné spotřebiče znečišťují domácnosti škodlivými částicemi
Změňte si svůj trapný e-mail ze střední školy, Gmail to konečně umožní
Vybere si každý, i s nízkým rozpočtem. Vybrali jsme nejzajímavější herní notebooky
Češi, pozor na falešné e-shopy, bazary a podvodné SMS. Jak na bezpečné vánoční nákupy?
Recenze AI překladače Timekettle W4: Zkusili jsme mluvit česky v Číně a fungovalo to