Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

Voják, s nímž 1. ledna vybuchl před hotelem nově zvoleného amerického prezidenta Donalda Trumpa v Las Vegas vůz Tesla Cybertruck, naplánoval svůj čin s pomocí ChatGPT. Je to vůbec poprvé, co se generativní umělá inteligence ve Spojených státech stala součástí trestného činu. Lasvegaská policie to označila za „změnu hry“.

Matthew Livelsberger (37 let), který sloužil u speciální jednotky zelených baretů, zemřel v elektromobilu společnosti Elona Muska zaparkovaným před lasvegaským hotelem Trumpa.

Livelsberger se nejprve střelil do hlavy, načež jeho Cybertruck explodoval. Zanechal po sobě vzkaz, kde stálo, že chtěl svým činem upozornit na problémy v USA.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI může pomoci v plánování trestných činů. Zdroj: Pixabay

Téměř týden po incidentu policie prozkoumává Livelsbergerův notebook a mobilní telefon. Přišla k překvapivým závěrům. Bývalému vojákovi s trestným činem pomáhala umělá inteligence.

Vyšetřovatelé v úterý podle webu ReadWrite prozradili, že svůj čin plánoval spolu s chatbotem ChatGPT. Zjišťoval si od něj různé informace – například kolik a jak silných výbušnin potřebuje ke svému záměru a jak rychle dojde k detonaci. Zajímal se také o rychlost pohybu určitých typů munice a ptal se AI na legálnost zábavní pyrotechniky ve státě Arizona.

První případ v historii?

Že šlo o první takový potvrzený incident v USA potvrdil podle listu The Guardian šerif lasvegaské policie Kevin McMahill. Ten to označil za „změnu hry“.

Ačkoli mají chatboti přísná bezpečnostní omezení a nelze se jich ptát na všechno, je poměrně snadné je „zmanipulovat“ tak, aby poskytli požadované informace. Software totiž nechápe, proč jsou mu tyto otázky pokládány a snaží se uživatelo pomoci. To znamená, že při správně položených otázkách nepřestane odpovídat ani přes varovné signály.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI v některých případech nabádá své uživatele k sebevraždě. Zdroj: Pixabay

Chatboti čelí kritice za nabádání k trestné činnosti nebo sebepoškozování. Velký poprask loni v listopadu vyvolal model Gemini AI od společnosti Google, který nabádal amerického vysokoškoláka k sebevraždě. „Jsi zátěží pro společnost. Jsi pohroma pro krajinu… Prosím zemři! Prosím,“ napsala bezdůvodně AI.

Nejde přitom o jediný případ. Žena z Floridy jménem Megan Garciaová podle televize Al-Džazíra podala žalobu na společnost Google poté, co se její 14letý syn zabil po konverzaci s chatbotem Character.ai.

Zdroje: 1, 2, 3

Odebírat
Upozornit na
guest
0 Komentářů
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
Obrázek: První loď na světě začala vyrábět vápenec ze svých výfukových plynů
První loď na světě začala vyrábět vápenec ze svých výfukových plynů
Miliardář Jeff Bezos buduje v hoře gigantické hodiny, mají tikat 10 000 let
1,02 petabitu za sekundu: Japonský rekord odpovídá stažení 30 Netflixů za sekundu
Vědci objevili nový materiál, který porušuje fyzikální zákony
Jak si vybrat paměťovou kartu? Kapacita není všechno, vybírejte podle účelu
Hrozba týdne #2: Podvod s „hlasováním“ vás připraví o přístup k WhatsAppu
Užitečný prompt #1: Dejte tohle zadání ChatGPT a donutí vás se nad sebou zamyslet
Trenér na zápěstí rozhýbe i lenochy. Jak běhat a cvičit s chytrými hodinkami Huawei Watch Fit 4?