Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

Voják, s nímž 1. ledna vybuchl před hotelem nově zvoleného amerického prezidenta Donalda Trumpa v Las Vegas vůz Tesla Cybertruck, naplánoval svůj čin s pomocí ChatGPT. Je to vůbec poprvé, co se generativní umělá inteligence ve Spojených státech stala součástí trestného činu. Lasvegaská policie to označila za „změnu hry“.

Matthew Livelsberger (37 let), který sloužil u speciální jednotky zelených baretů, zemřel v elektromobilu společnosti Elona Muska zaparkovaným před lasvegaským hotelem Trumpa.

Livelsberger se nejprve střelil do hlavy, načež jeho Cybertruck explodoval. Zanechal po sobě vzkaz, kde stálo, že chtěl svým činem upozornit na problémy v USA.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI může pomoci v plánování trestných činů. Zdroj: Pixabay

Téměř týden po incidentu policie prozkoumává Livelsbergerův notebook a mobilní telefon. Přišla k překvapivým závěrům. Bývalému vojákovi s trestným činem pomáhala umělá inteligence.

Vyšetřovatelé v úterý podle webu ReadWrite prozradili, že svůj čin plánoval spolu s chatbotem ChatGPT. Zjišťoval si od něj různé informace – například kolik a jak silných výbušnin potřebuje ke svému záměru a jak rychle dojde k detonaci. Zajímal se také o rychlost pohybu určitých typů munice a ptal se AI na legálnost zábavní pyrotechniky ve státě Arizona.

První případ v historii?

Že šlo o první takový potvrzený incident v USA potvrdil podle listu The Guardian šerif lasvegaské policie Kevin McMahill. Ten to označil za „změnu hry“.

Ačkoli mají chatboti přísná bezpečnostní omezení a nelze se jich ptát na všechno, je poměrně snadné je „zmanipulovat“ tak, aby poskytli požadované informace. Software totiž nechápe, proč jsou mu tyto otázky pokládány a snaží se uživatelo pomoci. To znamená, že při správně položených otázkách nepřestane odpovídat ani přes varovné signály.

Obrázek: Změna hry. Explozi Cybertrucku v Las Vegas pomohla naplánovat umělá inteligence

AI v některých případech nabádá své uživatele k sebevraždě. Zdroj: Pixabay

Chatboti čelí kritice za nabádání k trestné činnosti nebo sebepoškozování. Velký poprask loni v listopadu vyvolal model Gemini AI od společnosti Google, který nabádal amerického vysokoškoláka k sebevraždě. „Jsi zátěží pro společnost. Jsi pohroma pro krajinu… Prosím zemři! Prosím,“ napsala bezdůvodně AI.

Nejde přitom o jediný případ. Žena z Floridy jménem Megan Garciaová podle televize Al-Džazíra podala žalobu na společnost Google poté, co se její 14letý syn zabil po konverzaci s chatbotem Character.ai.

Zdroje: 1, 2, 3

Odebírat
Upozornit na
guest
0 Komentářů
nejstarší
nejnovější nejlépe hodnocené
Inline Feedbacks
View all comments
Obrázek: Včelař z Mostecka používá chytré úly místo chemie. Automatizace zachránila jeho včelstva před úhynem
Včelař z Mostecka používá chytré úly místo chemie. Automatizace zachránila jeho včelstva před úhynem
Samsung a Tesla uzavřely spolupráci o vývoji nových čipů A16
Levný humanoidní robot do každé domácnosti. Unitree R1 stojí méně než ojeté auto
25 let od jediné fatální nehody Concordu: Jak malý kousek kovu ukončil éru nadzvukových letů
Microsoft chce změnit způsob, jak používáte internet. Vyzkoušejte AI Copilot Mód v prohlížeči Edge
AI videa už zjevně nevadí. YouTube přidává nástroje pro generování videí z fotek
Obrázek: Safari s mobilem: Testovali jsme fotografování zvířat se Samsungem S25 Ultra v Zoo Dvůr Králové
Safari s mobilem: Testovali jsme fotografování zvířat se Samsungem S25 Ultra v Zoo Dvůr Králové
Jak si vybrat paměťovou kartu? Kapacita není všechno, vybírejte podle účelu