Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

Voják, s nímž 1. ledna vybuchl před hotelem nově zvoleného amerického prezidenta Donalda Trumpa v Las Vegas vůz Tesla Cybertruck, naplánoval svůj čin s pomocí ChatGPT. Je to vůbec poprvé, co se generativní umělá inteligence ve Spojených státech stala součástí trestného činu. Lasvegaská policie to označila za „změnu hry“.

Matthew Livelsberger (37 let), který sloužil u speciální jednotky zelených baretů, zemřel v elektromobilu společnosti Elona Muska zaparkovaným před lasvegaským hotelem Trumpa.

Livelsberger se nejprve střelil do hlavy, načež jeho Cybertruck explodoval. Zanechal po sobě vzkaz, kde stálo, že chtěl svým činem upozornit na problémy v USA.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI může pomoci v plánování trestných činů. Zdroj: Pixabay

Téměř týden po incidentu policie prozkoumává Livelsbergerův notebook a mobilní telefon. Přišla k překvapivým závěrům. Bývalému vojákovi s trestným činem pomáhala umělá inteligence.

Vyšetřovatelé v úterý podle webu ReadWrite prozradili, že svůj čin plánoval spolu s chatbotem ChatGPT. Zjišťoval si od něj různé informace – například kolik a jak silných výbušnin potřebuje ke svému záměru a jak rychle dojde k detonaci. Zajímal se také o rychlost pohybu určitých typů munice a ptal se AI na legálnost zábavní pyrotechniky ve státě Arizona.

První případ v historii?

Že šlo o první takový potvrzený incident v USA potvrdil podle listu The Guardian šerif lasvegaské policie Kevin McMahill. Ten to označil za „změnu hry“.

Ačkoli mají chatboti přísná bezpečnostní omezení a nelze se jich ptát na všechno, je poměrně snadné je „zmanipulovat“ tak, aby poskytli požadované informace. Software totiž nechápe, proč jsou mu tyto otázky pokládány a snaží se uživatelo pomoci. To znamená, že při správně položených otázkách nepřestane odpovídat ani přes varovné signály.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI v některých případech nabádá své uživatele k sebevraždě. Zdroj: Pixabay

Chatboti čelí kritice za nabádání k trestné činnosti nebo sebepoškozování. Velký poprask loni v listopadu vyvolal model Gemini AI od společnosti Google, který nabádal amerického vysokoškoláka k sebevraždě. „Jsi zátěží pro společnost. Jsi pohroma pro krajinu… Prosím zemři! Prosím,“ napsala bezdůvodně AI.

Nejde přitom o jediný případ. Žena z Floridy jménem Megan Garciaová podle televize Al-Džazíra podala žalobu na společnost Google poté, co se její 14letý syn zabil po konverzaci s chatbotem Character.ai.

Zdroje: 1, 2, 3

Odebírat
Upozornit na
guest
0 Komentářů
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
Pozor na levná šidítka: 5 funkcí, které by měl mít dobrý robotický vysavač
Dračí oheň v kapse: Realme udělalo Game of Thrones smartphone, který mění barvu podle tepla
Obrázek: Týden inovací slaví 10 let: Přijede Stephen Fry, OpenAI a stovky projektů, které mění svět
Týden inovací slaví 10 let: Přijede Stephen Fry, OpenAI a stovky projektů, které mění svět
Závod zrychluje. Vydá Xiaomi vlajkový model 17 Ultra ještě letos?
Google varuje před obřím únikem dat. 2,5 miliardy uživatelů Gmailu v ohrožení
Jste opravdový Applista? Těchto pět tipů by měl znát každý majitel iPhonu
Obrázek: Zkrachoval vám dodavatel fotovoltaiky? Nepropadejte panice, takto situaci vyřešíte
Zkrachoval vám dodavatel fotovoltaiky? Nepropadejte panice, takto situaci vyřešíte
Soukromé konverzace s ChatGPT byly dohledatelné ve vyhledávačích. Jak být o krok napřed?