Svůj obličej můžete vložit do vybraného videa: Brzy nebude možné věřit ničemu

Sociální síť Snapchat testuje novou funkci, která umožňuje vložit obličeje uživatelů do videa a ta následně sdílet. Jedná se tedy vlastně o jakási zjednodušená Deepfake videa tvořená umělou inteligencí, která zatím zdaleka nedosahují dokonalosti. Snapchat Cameos jsou alternativou pro Bitmoji a mají pomoci snadno a rychle vyjádřit emoce uživatelů.

Někteří uživatelé ve Francii již testovací verzi funkce mohli vyzkoušet a o své výsledky se podělili s veřejností. Snapchat novinku komentoval se slovy „Cameos zatím nejsou zcela připraveny, ale brzy se dočkáte jejich celosvětového debutu.

Jak vznikají Cameo videa na Snapchatu?

Uživatel si nejprve vyfotí vlastní Selfie, čímž aplikaci poskytne svůj obličej pro další práci s ním. Následně si lze vybrat, zda chcete svůj obličej umisťovat na výhradně ženské či mužské tělo a následně můžete přejít k tvorbě videa.

Cameo se nachází v Bitmoji tlačítku v klávesnici aplikace. Snapchat do začátku vytvořil sérii videí, kam bude možné své obličeje vkládat. Uživatel tedy pouze vybere video, zvolí selfie a následně už je vkládání obličejů zcela v rukou algoritmů.

Cameo videa mají být další funkcí, kterou se chce Snapchat odlišit poté, co Instagram zkopíroval jeho Stories. V tomto případě však Snapchat kopíruje čínskou aplikaci Zao, která umožňuje uživatelům realističtěji „montovat“ jejich obličeje do videí.

Snapchat se snaží zlepšit svůj způsob monetizace nejrůznějšími hrami a reklamami v nich. V budoucnu by mohlo být jedním z modelů i Cameo. Pokud Snapchat zůstane u jednoduchých zábavných videí, nemáme se čeho bát. Horší by bylo, kdyby umožnil uživatelům vytvářet opravdu propracovaná Deepfake videa během několika kliknutí. Podobná videa totiž mohou být dalším ze způsobů, jak mohou manipulátoři a podvodníci ovlivňovat veřejné mínění.

Jak věrohodné může být deepfake video?

Případem za všechny je deepfake video s falešným Milošem Zemanem, které před nedávnem obletělo Českou republiku. Video mělo ukázat, jak snadné je manipulovat s realitou. Jak věrohodné takové video vytvořené umělou inteligencí může být posuďte sami.
https://www.youtube.com/watch?v=EJEZpKi3V7I

Zdroj: TechCrunch

Obrázek: Viry se maskují jako populární mobilní hry. Cílem jsou bankovní účty uživatelů Androidu
Viry se maskují jako populární mobilní hry. Cílem jsou bankovní účty uživatelů Androidu
Obrázek: Smartphone jako konzole? Ukážeme vám, jak využít POCO F6 Pro na maximum
Smartphone jako konzole? Ukážeme vám, jak využít POCO F6 Pro na maximum
Obrázek: Už žádné sankce: OPPO a Ericsson uzavřely globální dohodu o spolupráci v oblasti 5G technologií
Už žádné sankce: OPPO a Ericsson uzavřely globální dohodu o spolupráci v oblasti 5G technologií
Obrázek: Sony A1: Fotoaparát, který vyfotil kulku u hlavy Donalda Trumpa
Sony A1: Fotoaparát, který vyfotil kulku u hlavy Donalda Trumpa
Obrázek: Mýtus o dedikovaných IP adresách v e-mail marketingu: Opravdu zlepšují doručitelnost?
Mýtus o dedikovaných IP adresách v e-mail marketingu: Opravdu zlepšují doručitelnost?
Obrázek: Přijdou silné bouřky, nebo slabé přeháňky? Přesná aplikace vám to pomůže zjistit
Přijdou silné bouřky, nebo slabé přeháňky? Přesná aplikace vám to pomůže zjistit
Obrázek: Znásobte své finance s AI, nabádají podvodníci Čechy na Facebooku. Jak je nahlásit a ochránit ostatní?
Znásobte své finance s AI, nabádají podvodníci Čechy na Facebooku. Jak je nahlásit a ochránit ostatní?
Obrázek: Česko zasáhnou velmi silné bouřky: Jak ochránit elektroniku a spotřebiče před zničením bleskem?
Česko zasáhnou velmi silné bouřky: Jak ochránit elektroniku a spotřebiče před zničením bleskem?