Umělá inteligence (AI) může být prospěšná pro společnost stejně jako škodlivá. Hlavně je však velice nebezpečnou „spící zbraní“ hackerů. Američtí vědci teď svými testy demonstrovali, jak zranitelná vůči zmanipulování může být. Hackeři ji mohou přimět k čemukoli, dokonce i k vraždě.
Umělá inteligence plní stále zásadnější roli ve společnosti a brzy ponese zodpovědnost i za lidské životy. Na s tím spojená nebezpečí upozornili vědci ze Severokarolínské státní univerzity (NC State University, NCSU).
Vědci otestovali odolnost oblíbených architektur a technologií neuronových sítí ResNet-50, DenseNet-121, ViT-B a DEiT-S, které se běžně používají v systémech umělé inteligence po celém světě. K těmto účelům vyvinuli vlastní software QuadAttacK.
Jeho prostřednictvím posílali systému umělé inteligence zmanipulovaná data a sledovali její reakce. Pokud identifikovali slabinu, mohli přimět AI, aby „viděla“, co chtěli. Přitom zjistili, že je to mnohem snazší, než by se mohlo zdát, píše server ScienceDaily.
„Překvapilo nás, jak moc byly všechny čtyři sítě náchylné k útokům nepřítele. Zvláště nás ale ohromilo, do jaké míry jsme mohli útoky sami vylaďovat tak, aby sítě viděly přesně to, co jsme sami chtěli,“ upozornil vedoucí studie Tianfu Wu.
Až začne AI zabíjet
„Pokud by hackeři pronikli do sítě umělé inteligence a dokázali ji přesvědčit ke špatným rozhodnutím, v některých případech by to mohlo mít katastrofální důsledky,“ varují odborníci na webu North Carolina State University.
Takový hacker může například virtuálně přelepit značku STOP tak, aby ji autonomní systém neviděl. Nebo do rentgenového zařízení nainstaluje kód, který změní obrazová data tak, že systém umělé inteligence stanoví nepřesnou diagnózu.
Experti varují, že tyto útoky nepovedou pouze k tomu, že udělá AI chybu. Hackeři jsou schopni tyto systémy zmanipulovat a přimět téměř k čemukoli, ať už hovoříme o krádežích nebo dokonce zabíjení. A znepokojivé je to i kvůli nástupu autonomních vozů, které AI pro analýzu provozu a okolí vozidla využívají, jako je např. chystaný FSD 12 od společnosti Tesla.
Představte si děsivý scénář, v němž se vašeho automobilu na dálku zmocní hacker a získá nad vámi kontrolu. Ze studie tak vyplývá, že systémy umělé inteligence náchylné vůči hackerským útokům by neměly být používány tam, kde hrozí újma na zdraví.