Telefonní podvodníci už nepotřebují armádu operátorů. Stačí jim umělá inteligence, která dokáže napodobit hlas kohokoli a vést přesvědčivý rozhovor s obětí. Cena takového systému? Pouhých 500 dolarů.
Společnost Check Point veřejnila zprávu AI Security Report, která analyzuje, jak kyberzločinci zneužívají umělou inteligenci k útokům a manipulaci veřejností.
Čemu dnes věřit?
AI mění mnoho průmyslových odvětví a zároveň stírá hranici mezi pravdou a lží v digitálním světě. Kyberzločinci využívají generativní AI a velké jazykové modely (LLM) k ničení důvěry, takže není možné věřit ničemu, co vidíte, slyšíte nebo čtete online. AI navíc umožňuje obcházet i ty nejsofistikovanější systémy pro ověřování identity.

Jak dokazuje startup ElevenLabs, klonování hlasu je dnes otázkou několika minut. V kombinaci s vishingovými podvody a AI jde o nebezpečnou kombinaci. Foto: Freepik AI
Kyberzločinci mohou s pomocí AI vytvářet přesvědčivé texty, audio-vizuální materiály i interaktivní chatboty, kteří jsou schopni komunikovat s oběťmi. Precizně zfalšovat něčí hlas při telefonních podvodech nebo dokonce tvář při videohovorech už dnes není problém. Rozpoznání známé tváře nebo hlasu tedy nestačí na ověření identity. Je potřeba hledat další autentizační prvky.
Přesvědčivý podvod napodobil hlas italského ministra obrany
Nedávno jsme měli možnost vidět přesvědčivý podvod napodobující hlas italského ministra obrany Guida Crosetta. Cílem se stalo několik významných osobností, včetně návrháře Giorgia Armaniho. Podvodníci tvrdili, že prostředky jsou nutné k propuštění rukojmích, a minimálně jedna oběť, která ministra znala, byla podvedena a poslala útočníkům významnou sumu peněz.
Podle nedávného průzkumu navíc lidé už nedokáží spolehlivě rozlišit mezi skutečnými hlasy a zvukem generovaným umělou inteligencí. Na hackerských fórech se také stále častěji diskutují komplexní kriminální telefonní systémy. Na darknetu je řada reklam, ve kterých hackerské skupiny hledají odborníky, kteří by implementovali umělou inteligenci do telefonních podvodů.
„Telefonní systémy využívající AI jsou dokonce již v prodeji a používají se především ke krádežím přihlašovacích údajů a ověřovacích hesel a kódů. AI boti volají potenciálním obětem a podle předem připravených scénářů získávají hesla, většinou k finančním účtům a službám,“ říká Petr Kadrmas, Security Engineer, Email Security z kyberbezpečnostní společnosti Check Point Software Technologies. „Pokročilejší platformy nabízejí flexibilní konverzační struktury, které přizpůsobují scénáře v reálném čase na základě dynamické analýzy reakcí obětí. V lednu byla například spuštěna služba, která dokazuje, jak tyto systémy dokáží plynule zvládat mnoho jazyků a zpracovávat více souběžných interakcí, čímž zvyšují možnost úspěchu ve srovnání s tradičními telefonními podvody spoléhajícími na lidské operátory. Podvodníci vytvoří jen kostru debaty, podle které AI oběť vede. A kyberzločinci avizují, že AI je schopná se odchýlit od scénáře a zvládnout neočekávané situace u jakéhokoli tématu, v jakémkoli oboru, jakémkoli jazyce a jakýmkoli hlasem.“
Tým hackerů už dnes není zapotřebí. Stačí si koupit nástroje, které podvodníci nabízí jako službu dalším a začít scamovat nevinné oběti. Foto: Freepik
„Tyto pokročilé AI telefonní platformy se prodávají asi za 20 000 dolarů, včetně školení a podpory, nebo je možné si je pronajmout za vstupní poplatek 500 dolarů a 1,50 dolaru za minutu. K telefonním podvodům tak nejsou potřeba ani operátoři, ani znalost technologií a schopnost tyto systémy vytvořit. Kyberzločin jako služba dává i začátečníkům do rukou obrovsky nebezpečné zbraně,“ dodává Petr Kadrmas.
TIP redakce: Pokud vás někdo z rodiny či známých žádá o peníze prostřednictvím telefonu či zprávy, zeptejte se ho na informaci, kterou může vědět jen dotyčná osoba. Ideálně něco, co jste spolu např. zažili. Pokud vám z ničeho nic píše zprávu, zkuste dotyčnému zavolat. Jak ukázal nedávný „baletní“ WhatsApp podvod, druhá strana vůbec nemusí vědět, že z jejího čísla odchází podvodné zprávy.
S nástupem AI je čím dál důležitější znát rizika a při ochraně klást důraz na prevenci a využití AI technologií. Je potřeba se vymanit ze zajetých kolejí a jít za hranice tradičních metod ověřování identity. Text, hlas i video je dnes možné věrohodně zfalšovat. Zásadní je mít přístup k nejlepším možným informacím o hrozbách a trendech a používat nástroje, které rozpoznají AI taktiky a umí na ně reagovat.
Zdroj: TZ Check Point