Co je pravda a co lež? Deepfakes mění realitu – naučte se je odhalovat dřív, než bude pozdě

Co je pravda a co lež? Deepfakes mění realitu – naučte se je odhalovat dřív, než bude pozdě

Foto: ramirezom / Depositphotos

Publikováno:
4 min
Pamatujte, že každý komentář bývá zprávou o komentujícím.
Děkujeme za vaše komentáře.

V poslední době není mnoho slov, které bychom slýchali častěji: AI a deepfakes. Možnosti výpočetní techniky dosáhly takové úrovně, že je schopna vytvářet realitu prakticky neodlišitelnou od té skutečné. Co s tím?

Co je deepfake?

Prvním krokem v budování obrany proti zmatení smyslů je pochopení toho, co pojem deepfake vlastně označuje. Jedná se o falešné fotografie, videa nebo zvukové nahrávky, které počítačové zpracování upravila tak, aby v nich byly nahrazeny obličeje či hlasy. Lidé tak zdánlivě říkají věci, které nikdy neřekli a dělají věci, které nikdy nedělali.

technického hlediska se jedná o výsledek práce umělé inteligence, která je schopna zpracovávat ohromné množství dat a následně na jejich základě vytvářet onu alternativní realitu. Je samozřejmě na místě upozornit na to, že se ne vždy musí nutně jednat o negativní věc. Deepfakes mohou být využity i pro umělecké účely nebo zkrátka pro zábavu. Stejně tak ale mohou být deepfakes využity pro záměrné klamání lidí a šíření dezinformací. A v takovém případě se již „hraje o hodně“.

Odhalujeme deepfakes a AI obrázky

Jak bylo zmíněno, možnosti současné výpočetní techniky jsou vskutku neuvěřitelné. Produkovaná videa a obrázky jsou na špičkové úrovni a na první pohled je vskutku nelze odlišit od reality. Bližší zkoumání fotografie či videa ale často dokáže odhalit drobné nesrovnalosti. Zaměřte se na světla a stíny, hledejte nejrůznější drobné deformace, např. v obličeji nebo u prstů. Umělá inteligence může mít problém především v místech, kde se např. překrývají dvě postavy apod. AI také stále dělá poměrně dost chyb v případě, že generuje fotografii postav v pohybu.

Důležitá je také kontrola textur jednotlivých materiálů na obrázku. I zde může při detailním srovnání určité místo vypadat lehce nerealisticky. U videí, které jsou AI upraveny, např. jsou v nich vyměněny obličeje, je zase na místě soustředit se právě na místa, kde je předpokládaný překryv originální a přeložené vrstvy. Zdaleka nejčastěji jde o oblast obličeje. Video zde může vykazovat některé artefakty naznačující, že jde o podvrh.

Ohněm proti ohni

V poslední době se začínají objevovat i specializované AI nástroje, které mají odhalovat právě práci jiné AI. Zdá se, že právě tento přístup je nejefektivnější. U některých typů podvrhů, např. u čistě obličejových fotek, již člověk ani při podrobném zkoumání prakticky není schopen rozlišit skutečnou a vygenerovanou fotografii. Lze navíc očekávat, že s vývojem technologií budou AI obrázky a deepfakes stále dokonalejší, až již nebudou k dispozici žádné záchytné body. AI bude v boji proti AI představovat naši jedinou naději.

Právě umělá inteligence bude schopna detekovat např. jisté typické pixelové vzory, které lidské oko nerozpozná. Nástroje na detekci AI generovaného obsahu ale mají k dokonalosti zatím daleko. Především se ukazuje, že musí být vždy určeny pro obsah generovaný konkrétním nástrojem. Jinými slovy „AI detektiv“ musí být vycvičen přímo na obrázcích nástroje Dall-E, aby byl schopen odhalit jiné obrázky jím vytvořené. To samé pro Midjourney a to samé pro kterýkoliv jiný nástroj.

Zdravý rozum především

Při odhalování podvrhů má ale člověk ještě jednu zbraň: svůj zdravý rozum. Pokud uvidíte oscarovou herečku v explicitně pornografickém videu, je pravděpodobné, že něco není v pořádku. Stejně tak, pokud začne na videu dosud prozápadní politik vyznávat lásku Rusku, také by se člověku měly rozeznít v hlavě varovné sirény a rozhodně by neměl videu věřit „na první dobrou“.

Reklama
Zdroje článku:
Reklama