Deepfakes: nová zbraň dezinformátorů. Umělá inteligence posouvá možnosti tvorby falešných videí

V posledních dvou letech strmě roste jak sofistikovanost, tak rozšíření takzvaných deepfakes: videí nebo fotografií, v nichž je původně zachycené osobě velmi věrohodným způsobem nahrazen obličej za cizí – třeba prezidenta republiky.

Prozatím se technologie rozšířila hlavně do pornografického průmyslu, kde působí znatelné etické problémy. Zatímco dříve mohli zhrzení bývalí partneři ztrapnit svůj protějšek pouze ve chvíli, kdy fotografie nebo videa intimního charakteru skutečně existovaly (tzv. revenge porn), nově to již není nutností. Stačí vzít jiné video a obličej protějšku věrohodně vložit na cizí tělo. Brzy už jen stěží rozpoznáte rozdíl mezi realitou a montáží.

Co je to deepfake video? Deepfake je označení velmi realistických podvržených videí, která se snaží vyvolat dojem, že jde o skutečnost. V minulosti byla jejich tvorba velmi náročná. Dnes funguje na principu umělých neuronových sítí, které dokážou přenést tvář jiné reálné osoby do video obsahu. Mohou tak například přesně napodobit hlas i obličej politika, celebrity nebo moderátora zpráv. Divák má tedy z takového videa mylný dojem, že se jedná o skutečnou osobu. Deepfake videa se dají vytvořit poměrně snadno a levně, což zvyšuje riziko jejich zneužití pro šíření dezinformací či vydírání. Odborníci varují, že brzy bude těžké taková videa rozeznat od reálných nahrávek.

Falešnou pornografii blokuje i Pornhub

To samé se děje s obličeji celebrit, které tak čelí nebývalé náloži „skandálních videí“, která však ve skutečnosti neexistují a jsou jen sofistikovaným podvodem. U slavných osobností je tvorba deepfakes ještě jednodušší než u běžných lidí – díky filmům, v nichž jsou často i erotické či sexuální scény, je mnohem snazší získat dostatek zdrojového materiálu pro jeho věrohodné zkombinování s vybraným pornografickým videem.

Barack Obama vysvětluje deepfake videa. Tedy, ne tak docela:

Vlivem hlubokého učení a pokrokům v umělé inteligence je tato nemorální praxe poměrně snadno proveditelná a rychle se rozšiřuje. Sociální sítě se proti šíření deepfakes snaží bojovat, zákaz a mazání tohoto typu videí funguje například na Redditu a Twitteru. Netoleruje je dokonce ani Pornhub, který jinak povolí téměř cokoliv.

To je ale jen jedna problematická stránka věci. Tou druhou je útok na další skupinu osob, jejichž videa a fotografie jsou všude volně k dispozici a nová se objevují téměř každý den.

Politici.

Úsvit fake news

Deepfake videa šířená po sociálních sítích, v nichž politici říkají kontroverzní, vyloženě ilegální či například rasistická prohlášení, jsou snem každého dezinformátora a během příštích měsíců naprosto reálnou možností, až vývoj technologie ještě trochu pokročí vpřed.

Co je horší: proti falešným videím se jen špatně bojuje. Samozřejmě, foto a video montáže tu byly vždy, jenže nikdy nedosahovaly tak vysoké úrovně, aby nešly rozpoznat od skutečných. Deepfakes se tomu blíží a je možné, že časem skutečně dosáhnou takové dokonalosti, kdy nepůjde pouhým sledováním videa jednoduše poznat, zda jde o realitu nebo fikci.

Jak deepfakes fungují? (Anglicky):

V době, kdy důvěra v média není na vysoké úrovni, představují deepfake videa celospolečenský problém. Cílem dezinformací není přesvědčit lidi, aby věřili lži: jde o to, aby nedůvěřovali ničemu, ani pravdě a hlavně ne mainstreamovým médiím. Deepfakes jim pomohou zdiskreditovat skutečná videa na zpravodajských serverech. „Pokud jdou tak snadno zfalšovat, proč by toto video mělo být pravé?“ Mohou si čtenáři říct.

Zatím lze deepfake videa rozpoznat třeba tak, že nahrazený obličej nemrká tak, jak by měl. Do budoucna se však technologie jistě zdokonalí.

Skutečná éra fake news teprve přijde, ale už teď pociťujeme její sílu. Jako vždy bude hlavním prostředkem boje proti dezinformacím kvalitní vzdělání.

Obrázek: Na první pohled nezastavitelný vývoj umělé inteligence může zarazit nedostatek vody a elektřiny
Na první pohled nezastavitelný vývoj umělé inteligence může zarazit nedostatek vody a elektřiny
Obrázek: AI v rukou generace Z: Čeští studenti vymysleli brýle pro nevidomé a interaktivní čtečku knih
AI v rukou generace Z: Čeští studenti vymysleli brýle pro nevidomé a interaktivní čtečku knih
Obrázek: Vědci vyvinuli natahovací solární panel. Napnutím lze zvětšit jeho plochu o polovinu
Vědci vyvinuli natahovací solární panel. Napnutím lze zvětšit jeho plochu o polovinu
Obrázek: Klein Vision AirCar: Cesta létajícím vozem původem ze Slovenska je futuristickým zážitkem
Klein Vision AirCar: Cesta létajícím vozem původem ze Slovenska je futuristickým zážitkem
Obrázek: Konzole PlayStation 5 má skrytý internetový prohlížeč. Jak ho najít a spustit?
Konzole PlayStation 5 má skrytý internetový prohlížeč. Jak ho najít a spustit?
Obrázek: Tvrdí cizí lidé, že jim volalo vaše číslo? Poradíme, jak poznat podvodný spoofing
Tvrdí cizí lidé, že jim volalo vaše číslo? Poradíme, jak poznat podvodný spoofing
Obrázek: Podvodníci mohou volat z vašeho telefonního čísla i čísla banky. Proč operátoři nezasáhnou?
Podvodníci mohou volat z vašeho telefonního čísla i čísla banky. Proč operátoři nezasáhnou?
Obrázek: Máte doma nefunkční GPS lokátor od Invoxia? Nyní bude v ČR opět fungovat
Máte doma nefunkční GPS lokátor od Invoxia? Nyní bude v ČR opět fungovat