Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

Voják, s nímž 1. ledna vybuchl před hotelem nově zvoleného amerického prezidenta Donalda Trumpa v Las Vegas vůz Tesla Cybertruck, naplánoval svůj čin s pomocí ChatGPT. Je to vůbec poprvé, co se generativní umělá inteligence ve Spojených státech stala součástí trestného činu. Lasvegaská policie to označila za „změnu hry“.

Matthew Livelsberger (37 let), který sloužil u speciální jednotky zelených baretů, zemřel v elektromobilu společnosti Elona Muska zaparkovaným před lasvegaským hotelem Trumpa.

Livelsberger se nejprve střelil do hlavy, načež jeho Cybertruck explodoval. Zanechal po sobě vzkaz, kde stálo, že chtěl svým činem upozornit na problémy v USA.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI může pomoci v plánování trestných činů. Zdroj: Pixabay

Téměř týden po incidentu policie prozkoumává Livelsbergerův notebook a mobilní telefon. Přišla k překvapivým závěrům. Bývalému vojákovi s trestným činem pomáhala umělá inteligence.

Vyšetřovatelé v úterý podle webu ReadWrite prozradili, že svůj čin plánoval spolu s chatbotem ChatGPT. Zjišťoval si od něj různé informace – například kolik a jak silných výbušnin potřebuje ke svému záměru a jak rychle dojde k detonaci. Zajímal se také o rychlost pohybu určitých typů munice a ptal se AI na legálnost zábavní pyrotechniky ve státě Arizona.

První případ v historii?

Že šlo o první takový potvrzený incident v USA potvrdil podle listu The Guardian šerif lasvegaské policie Kevin McMahill. Ten to označil za „změnu hry“.

Ačkoli mají chatboti přísná bezpečnostní omezení a nelze se jich ptát na všechno, je poměrně snadné je „zmanipulovat“ tak, aby poskytli požadované informace. Software totiž nechápe, proč jsou mu tyto otázky pokládány a snaží se uživatelo pomoci. To znamená, že při správně položených otázkách nepřestane odpovídat ani přes varovné signály.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI v některých případech nabádá své uživatele k sebevraždě. Zdroj: Pixabay

Chatboti čelí kritice za nabádání k trestné činnosti nebo sebepoškozování. Velký poprask loni v listopadu vyvolal model Gemini AI od společnosti Google, který nabádal amerického vysokoškoláka k sebevraždě. „Jsi zátěží pro společnost. Jsi pohroma pro krajinu… Prosím zemři! Prosím,“ napsala bezdůvodně AI.

Nejde přitom o jediný případ. Žena z Floridy jménem Megan Garciaová podle televize Al-Džazíra podala žalobu na společnost Google poté, co se její 14letý syn zabil po konverzaci s chatbotem Character.ai.

Zdroje: 1, 2, 3

Odebírat
Upozornit na
guest
0 Komentářů
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
AI ve videoherním průmyslu? Špatný kreativní tvůrce, což je štěstí, říká vývojář
Obrázek: Automobilka Chery je nováčkem na českém trhu. Zatím má jen spalovací a hybridní SUV, ale s cenou pod milion
Automobilka Chery je nováčkem na českém trhu. Zatím má jen spalovací a hybridní SUV, ale s cenou pod milion
Obrázek: Black Friday u Xiaomi: Aktuálně ušetříte tisíce korun nejen za smartphony, chytrá televize spadla pod 12 000 Kč
Black Friday u Xiaomi: Aktuálně ušetříte tisíce korun nejen za smartphony, chytrá televize spadla pod 12 000 Kč
Méně emisí, více výkonu: Vědci chtějí přesunout datová centra na oběžnou dráhu
Samsung Black Friday: Až 50 000 Kč sleva na televize a 40% bonus při nákupu dvou produktů
Foťte mobilem jako profesionál. Tipy a triky na focení s Xiaomi 15T Pro
Google varuje před obřím únikem dat. 2,5 miliardy uživatelů Gmailu v ohrožení
Jste opravdový Applista? Těchto pět tipů by měl znát každý majitel iPhonu