Americká společnost OpenAI podepsala smlouvu s Pentagonem. Jedná se o neobvyklý tah ministerstva obrany USA, umělá inteligence totiž zatím není kvůli bezpečnostním důvodům vládními orgány nějak významně využívána. AI naštěstí nebude zodpovídat za jaderné rakety, ale kybernetickou bezpečnost.
Asií každý fanoušek akčních filmů a sci-fi si teď představí systém umělé inteligence Skynet z kultovního Terminátora. Technologie generativní AI je pořád ještě nová a její dopady pro společnost jsou v mnoha ohledech nepředvídatelné.
Navíc nepracuje ani zdaleka dokonale. To jsou hlavní důvody, proč není rozšířená ve vládních kruzích. Společnost OpenAI nicméně překvapivě podepsala smlouvu s americkým ministerstvem obrany.
Není však potřeba hned běžet na Google hledat nejbližší jaderný bunkr. Umělá inteligence totiž nebude mít kontrolu nad armádou či jaderným arzenálem. Pentagon hodlá využít AI pro posílení kybernetické bezpečnosti, což v tuto chvíli dává velký smysl.
Není jasné, o jaký jazykový model má přesně jít, upozornil týdeník Time. Může to podle něj být GPT-4, ale stejně tak zcela nový model vytvořený na míru Pentagonu určený pro zlepšení kybernetické bezpečnosti. Ani OpenAI, ani Pentagon žádné konkrétnější detaily neposkytli.
Nenápadná změna podmínek s velkým dopadem
OpenAI překvapila, když v tichosti změnila zásady používání svých AI nástrojů. Odstranila z nich závazek nevyužívat a neposkytovat svou technologii pro vojenské účely. Krátce po tomto odhalení médii bylo oznámeno, že vedení firmy navázalo spolupráci s americkým ministerstvem obrany na několika projektech zaměřených na kybernetickou bezpečnost, jejichž podrobnosti nebyly specifikovány.
Na výsledky si budeme muset počkat
Víme jen to, že spolupráce si klade za cíl zlepšit bezpečnost země před kybernetickými hrozbami zvenčí, například směrem od Číny. AI bude rovněž využita v soutěži pro počítačové vědce a experty DARPA AI Cyber Challenge.
Ti se během trvání výzvy snaží vyvinout nástroje kybernetické bezpečnosti, které dokáží najít a opravit zranitelnosti kritických systémů v reálném čase.
Jsme teprve na začátku zapojení AI do vládních záležitostí. Zatím prý bude americká vláda AI využívat jenom ve vývoji nástrojů kybernetické bezpečnosti.
Důležité je vědět, že AI v tuto chvíli nebude mít za úkol správu bojové techniky či její ovládání. Veškerá rozhodnutí zůstávají nadále lidskou záležitostí. Pokud udělá umělá inteligence chybu při psaní slohové práce, svět se nezboří. Ale v otázkách národní bezpečnosti? To by mohlo mít opravdu závažné dopady.
To nebude žádná obrana ale Valut 7 verze 2.