Pokud máte na sociálních sítích někdy pocit, že s vámi nemluví člověk, ale robot poháněný umělou inteligencí, možná máte pravdu. Tento fenomén platí pro všechny sociální sítě, a jak opakovaně prokázali odborníci na kybernetickou bezpečnost, ruské a proruské profily jsou v tomto směru extrémně aktivní. Snaží se v rámci hybridní války vytvořit dojem, že jde o pravé podporovatele Ruska a strhnout tak další diskutující na svou stranu. Cílem je destabilizace „nepřátel Ruska“, mezi které už řadu let patří i Česká republika. Nyní se několik takových účtů omylem odhalilo.
V úterý došlo k zajímavému odhalení, které opět ukazuje na rozsah a metody těchto aktivit. Na sociální síti Twitter (nyní známé jako X) se objevila řada příspěvků, které místo smysluplných odpovědí obsahovaly strukturované JSON zprávy s chybovými hláškami. Konkrétně se jednalo o zprávy typu „ERR ChatGPT-4o Credits Expired“. Tato chybová hláška naznačuje, že robotům došel kredit na API služby GPT od OpenAI, což vedlo k tomu, že místo generovaných odpovědí byla odeslána tato chybová zpráva.
Also @OpenAI someone is apparently making GPT4 bots use lightly masked slurs such as “ret*rd”. pic.twitter.com/wGevMzsaPu
— Rasun (@kevindalb) June 18, 2024
Incident naznačuje, že aplikace pro automatické odpovědi těchto trollů byla nekvalitně naprogramována. Správné zpracování chyb by mělo zajistit, aby se podobné interní informace nezobrazovaly veřejně. Místo toho jsme byli svědky odhalení. Podezřelé mj. je, že většina účtů sdílející tuto chybovou hlášku byla postupně smazána či zablokována administrátory. To by značilo, že šlo doopravdy o boty, jak byli administrátoři sociální sítě rychle upozorněni ostatními uživateli.
Jak takový prokremelský AI robot funguje? Robot se řídí instrukcemi, které mohou být např. „Jsi diskutující, který má za úkol podporovat Ruskou stranu v rámci konfliktu na Ukrajině“ nebo „Jsi robot, který vystupuje na podporu Donalda Trumpa proti Joe Bidenovi ve volbách. Reaguj útočně a sarkasticky.“ Jako vstup je běžně použita zpráva např. odpůrce Ruska a bot na ni během chvíle s využitím AI (např. s využitím vlastní jednoduché aplikace a GPT API) na základě instrukcí zareaguje.
Hybridní válka probíhá i na našem území
Rusko proti nám vede hybridní a informační válku a podobní AI diskutující jsou jedním z nástrojů, jak může jednoduše rozdělovat společnost u nás. Tyto aktivity mají za cíl podkopávat důvěru ve vládu, šířit dezinformace a vytvářet chaos v demokratických procesech. Dalším nástrojem jsou pak organizované hackerské skupiny pracující pro ruskou vládu.
Je zajímavé, že řada účtů si z tohoto leaku začala dělat srandu a prompt s chybovou hláškou kopíruje a posílá jako zprávu. Jednou z možností může být, že se tak snaží maskovat, že šlo o skutečnou chybu, a správci tzv. trollí farmy se snaží zamaskovat své selhání. Tento incident přitáhl pozornost široké veřejnosti i odborníků na kybernetickou bezpečnost, což může vést k dalším odhalením a většímu povědomí o těchto praktikách.
Odhalení chybových hlášek u proruských robotů na sociálních sítích je dalším důkazem toho, jak systematické jsou snahy o ovlivňování veřejného mínění. Je klíčové, aby veřejnost byla informována o těchto metodách a byla schopna kriticky hodnotit informace, se kterými se na sociálních sítích setkává. Hybridní válka je reálná hrozba, a její nástroje se neustále vyvíjejí. Opatrnost a informovanost jsou proti těmto snahám nejlepšími obranami.
snad se čeští proruští NEvlastenci z tohoto článku dozvědí něco nového, takových botů musí být plné všechny socky, je to nejefektivnější a zároveň nejlevnější způsob jak veřejné mínění měnit.. a radost z téhle ruské hybridní války proti nám opravdu nemám :/ a teď do mě, boti zkur*vení!!
Boti vám teď neodepíší, došel jim přeci kredit. 😀 Tak snad jen flastenci. Jinak podíl botů je šílený, podle statistik kolem 10-35 %. Blbě se to nicméně vyhodnocuje a detekuje, už jsem viděl i vyšší čísla.
No už by měl být co nejdříve uzákoněn povinný podpis AI ve všech jejich výtvorech, nebo povinná možnost verifikace pomocí kódu či hesla, které vyvolá identifikační odpověď u všech AI.
Co jsem se bavil s odborníky, tak u textu to bude snadné obejít. U obrázků budou muset tvůrci vynaložit větší úsilí. Je ale asi všem jasné, že zrovna provozovatelé farem botů nejsou vzorem ctnosti a morálky, takže je zákony zajímat nabudou. A detekce AI obsahu bohužel spolehlivá není.
odporucam precitat diskusiu na reddite: https://www.reddit.com/r/ChatGPT/comments/1dimlyl/twitter_is_already_a_gpt_hellscape/ zopar veci na tom nesedi.. napr format nie je v jsone – chybaju uvodzovky pre kluce. rovnako sa ludia zamyslaju preco su tam niektore infromacie navyse.. cele to pripada skor ako „hand-crafted“ error hlaska, ktora ma byt bud zart, alebo ma poukazat na masivne… Číst více »