Deepfakes: nová zbraň dezinformátorů. Umělá inteligence posouvá možnosti tvorby falešných videí

V posledních dvou letech strmě roste jak sofistikovanost, tak rozšíření takzvaných deepfakes: videí nebo fotografií, v nichž je původně zachycené osobě velmi věrohodným způsobem nahrazen obličej za cizí – třeba prezidenta republiky.

Prozatím se technologie rozšířila hlavně do pornografického průmyslu, kde působí znatelné etické problémy. Zatímco dříve mohli zhrzení bývalí partneři ztrapnit svůj protějšek pouze ve chvíli, kdy fotografie nebo videa intimního charakteru skutečně existovaly (tzv. revenge porn), nově to již není nutností. Stačí vzít jiné video a obličej protějšku věrohodně vložit na cizí tělo. Brzy už jen stěží rozpoznáte rozdíl mezi realitou a montáží.

Co je to deepfake video? Deepfake je označení velmi realistických podvržených videí, která se snaží vyvolat dojem, že jde o skutečnost. V minulosti byla jejich tvorba velmi náročná. Dnes funguje na principu umělých neuronových sítí, které dokážou přenést tvář jiné reálné osoby do video obsahu. Mohou tak například přesně napodobit hlas i obličej politika, celebrity nebo moderátora zpráv. Divák má tedy z takového videa mylný dojem, že se jedná o skutečnou osobu. Deepfake videa se dají vytvořit poměrně snadno a levně, což zvyšuje riziko jejich zneužití pro šíření dezinformací či vydírání. Odborníci varují, že brzy bude těžké taková videa rozeznat od reálných nahrávek.

Falešnou pornografii blokuje i Pornhub

To samé se děje s obličeji celebrit, které tak čelí nebývalé náloži „skandálních videí“, která však ve skutečnosti neexistují a jsou jen sofistikovaným podvodem. U slavných osobností je tvorba deepfakes ještě jednodušší než u běžných lidí – díky filmům, v nichž jsou často i erotické či sexuální scény, je mnohem snazší získat dostatek zdrojového materiálu pro jeho věrohodné zkombinování s vybraným pornografickým videem.

Barack Obama vysvětluje deepfake videa. Tedy, ne tak docela:

Vlivem hlubokého učení a pokrokům v umělé inteligence je tato nemorální praxe poměrně snadno proveditelná a rychle se rozšiřuje. Sociální sítě se proti šíření deepfakes snaží bojovat, zákaz a mazání tohoto typu videí funguje například na Redditu a Twitteru. Netoleruje je dokonce ani Pornhub, který jinak povolí téměř cokoliv.

To je ale jen jedna problematická stránka věci. Tou druhou je útok na další skupinu osob, jejichž videa a fotografie jsou všude volně k dispozici a nová se objevují téměř každý den.

Politici.

Úsvit fake news

Deepfake videa šířená po sociálních sítích, v nichž politici říkají kontroverzní, vyloženě ilegální či například rasistická prohlášení, jsou snem každého dezinformátora a během příštích měsíců naprosto reálnou možností, až vývoj technologie ještě trochu pokročí vpřed.

Co je horší: proti falešným videím se jen špatně bojuje. Samozřejmě, foto a video montáže tu byly vždy, jenže nikdy nedosahovaly tak vysoké úrovně, aby nešly rozpoznat od skutečných. Deepfakes se tomu blíží a je možné, že časem skutečně dosáhnou takové dokonalosti, kdy nepůjde pouhým sledováním videa jednoduše poznat, zda jde o realitu nebo fikci.

Jak deepfakes fungují? (Anglicky):

V době, kdy důvěra v média není na vysoké úrovni, představují deepfake videa celospolečenský problém. Cílem dezinformací není přesvědčit lidi, aby věřili lži: jde o to, aby nedůvěřovali ničemu, ani pravdě a hlavně ne mainstreamovým médiím. Deepfakes jim pomohou zdiskreditovat skutečná videa na zpravodajských serverech. „Pokud jdou tak snadno zfalšovat, proč by toto video mělo být pravé?“ Mohou si čtenáři říct.

Zatím lze deepfake videa rozpoznat třeba tak, že nahrazený obličej nemrká tak, jak by měl. Do budoucna se však technologie jistě zdokonalí.

Skutečná éra fake news teprve přijde, ale už teď pociťujeme její sílu. Jako vždy bude hlavním prostředkem boje proti dezinformacím kvalitní vzdělání.

Obrázek: Viry se maskují jako populární mobilní hry. Cílem jsou bankovní účty uživatelů Androidu
Viry se maskují jako populární mobilní hry. Cílem jsou bankovní účty uživatelů Androidu
Obrázek: Smartphone jako konzole? Ukážeme vám, jak využít POCO F6 Pro na maximum
Smartphone jako konzole? Ukážeme vám, jak využít POCO F6 Pro na maximum
Obrázek: Už žádné sankce: OPPO a Ericsson uzavřely globální dohodu o spolupráci v oblasti 5G technologií
Už žádné sankce: OPPO a Ericsson uzavřely globální dohodu o spolupráci v oblasti 5G technologií
Obrázek: Sony A1: Fotoaparát, který vyfotil kulku u hlavy Donalda Trumpa
Sony A1: Fotoaparát, který vyfotil kulku u hlavy Donalda Trumpa
Obrázek: Mýtus o dedikovaných IP adresách v e-mail marketingu: Opravdu zlepšují doručitelnost?
Mýtus o dedikovaných IP adresách v e-mail marketingu: Opravdu zlepšují doručitelnost?
Obrázek: Přijdou silné bouřky, nebo slabé přeháňky? Přesná aplikace vám to pomůže zjistit
Přijdou silné bouřky, nebo slabé přeháňky? Přesná aplikace vám to pomůže zjistit
Obrázek: Znásobte své finance s AI, nabádají podvodníci Čechy na Facebooku. Jak je nahlásit a ochránit ostatní?
Znásobte své finance s AI, nabádají podvodníci Čechy na Facebooku. Jak je nahlásit a ochránit ostatní?
Obrázek: Česko zasáhnou velmi silné bouřky: Jak ochránit elektroniku a spotřebiče před zničením bleskem?
Česko zasáhnou velmi silné bouřky: Jak ochránit elektroniku a spotřebiče před zničením bleskem?