Deepfake je zmanipulované video k nerozeznání od skutečného. Využívá technologii hloubkového učení. Dokáže, pokud má dostatek vstupních dat, tak perfektně napodobit řeč těla i mimiku libovolné osobnosti, stejně jako její hlas. Takto dokonale může vypadat iluze, na tomto videu opravdu není Morgan Freeman.
Tato technologie se dá využít v zábavě – třeba ve filmech nebo v aplikacích, které nahradí obličeje celebrit v slavných filmových scénách vašim vlastním. Má ale také potenciálně děsivé důsledky. Objevilo se třeba video, ve kterém „Barack Obama“ nadává Donaldu Trumpovi. Nedávno internetem kolovala také deepfake video prezidenta Zelenského, kde vyzývá armádu ke složení zbraní.
Zneužít takovou manipulace lze k diskreditaci známých osobností, ale třeba také šikaně. V minulost se deepfake využíval například k angažování slavných hereček v lechtivých filmech bez jejich vědomí – oběťmi takového incidentu se staly třeba Natalie Portman nebo Emma Watson. Podle analýzy společnosti Deeptrace z roku 2019 bylo 96 % deepfake videí z kategorie pornografie. Obětí ale může být každý. Manipulátor potřebuje jen dostatek videí oběti.
Je zmanipulované video i k něčemu dobré?
Přesto lze deepfaky využít i k dobrým účelům: ať už se bavíme o herním průmyslu nebo vzdělávání. Děti se mohou stát třeba hvězdami svých oblíbených pořadů, videoher a filmů. Využilo je třeba Dalího muzeum na Floridě, aby si návštěvníci mohli udělat se slavným umělcem selfie. Díky technologii Dalí návštěvníky pozdraví, vyfotí se s nimi a reaguje v reálném čase na jejich chování.
Deepfake je, stejně jako oheň, dobrý sluha, ale špatný pán. Nezatracujme technologie jen proto, že ji někdo zneužívá.
Deepfake vytvoříte na koleni, ale nepoznáte ani po hodinách zkoumání
Triviální verze deepfakes lze snadno vytvořit pomocí mobilních aplikací jako FaceApp nebo FaceSwap, ale složitější videa často vyžadují zručnost a odpovídající technické vybavení. Technologie tvorby deepfakes je poměrně mladá, ale jde dopředu mílovými kroky (stejně jako třeba filmové efekty). Poměrně kvalitní deepfake ale vytvoří kdokoli, kdo má dost času, kvalitní výpočetní techniku a hlavně dost záznamů osobnosti, které chce něco vložit do úst.
Ostatně s veřejně dostupnými programy to zkusil bloger Patrik Kořenář. Takovýchto výsledků dosáhne amatér.
Jak mluvit s dětmi o deepfake?
#1 Shlédněte několik podvodných videí
Dost možná vás překvapí, kolik toho dnešní děti už vědí o nespolehlivosti internetového obsahu. Nebo dokonce nějaká deepfake videa samy už viděly. Přesto neuškodí promluvit si o tom, proč to někdo takto podvádí. Zdůrazněte, že ke sdílení něčích fotek nebo videí je nutný nejprve souhlas.
#2 Mluvte o ochraně vlastního soukromí
Když děti sdílejí své fotky nebo video, mohou nevědomky sdílet data, které lze i tímto způsobem zneužít. Není třeba hned všechno smazat, ale spíše sdílet opatrněji a střídmě. Promluvte si to o tom, jaké sociální sítě používají a poraďte jim, jak na nich fungovat bezpečněji.
Deepfake je skvělý způsob, jak dětem vysvětlit možnosti technologií a možná i hlouběji probrat podstatu dezinformací.
#3 Zaměřte se na prevenci podvodů
Většině rizik na internetu lze předcházet. Mluvte s dětmi o tom, na co mohou narazit. Výbornou prevencí je například striktně komunikovat jen s lidmi, které děti znají z reálného života.
Pokud se vaše děti rozhodnou používat aplikace, které jim umožňují vytvářet deepfakes, jako je FaceApp nebo FaceSwap, vyzkoušejte je nejdřív společně a používejte je jen pro zábavu a vzdělávání, nikdy pro zesměšňování ostatních.
Jak zmanipulované video poznat?
Z ukázek v úvodu článku je zřejmé, že poznat opravu propracovaný deepfake je velice, velice obtížné. Obzvláště na sociálních sítích, kde obsah konzumujeme rychle a nesledujeme drobné nuance.
Zkuste se na to, co čtete a sledujete, trochu více soustředit. Obzvláště, pokud osoba na videu říká něco trochu nečekaného. Stále jde o nedokonalou technologii, a tak můžete vidět chyby.
Deepfake má stále problémy s replikováním jemnějších fyzických atributů: zvuk nemusí zcela odpovídat pohybu rtů mluvčího a může docházet k třepení podél linií obličeje osoby, v blízkosti linie vlasů či linií oděvu. Typické jsou chyby v osvětlení: obličej může být světlejší/tmavší než tělo, může se objevit neobvyklý stín nebo každé z očí může odrážet jiný obraz. Velice často také postavy v deepfake nemrkají, což je u lidí dost neobvyklé.
Někdy neodpovídá vybavení v prostoru okolo mluvčího, například se liší nábytek, jsou špatně umístěné vlajky, pozadí se hýbe a podobně. Lišit se může také ostrost obrazu (například obličej je ostřejší než řečnický pultík – protože obličej doplňuje umělá inteligence, zatímco pult je staticky natočený kamerou). Část těchto chyb můžete vidět v propagačním deepfake videu stanice HBO.
Pokud se vám video nezdá, zkontrolujte si oficiální profily domnělého mluvčího. Známé osobnosti vše důležité sdílí na svých oficiálních profilech a nejen v nějakém bulvárním plátku.
Článek je součástí projektu Safer Kids Online
Safer Kids Online je celosvětová iniciativa společnosti ESET. Cílem této iniciativy je přinášet informace, které mohou rodiče, vychovatelé, děti a učitelé využít k otevření diskuze o bezpečnosti na internetu a poskytnout nástroje pro vytváření bezpečného online prostředí pro všechny děti.