Deepfake je dokonalá iluze reality, kterou lze vytvořit s pomocí umělé inteligence. Pokud má dostatek vstupních dat, dokáže perfektně napodobit řeč těla i mimiku libovolné osobnosti, stejně jako její hlas. Na ukázce níže vidíte deepfake starce a moře. Všimněte si naprosto perfektních detailů.
Tato technologie se dá využít k zábavě – třeba ve filmech nebo v aplikacích, které nahradí obličeje celebrit ve slavných filmových scénách vašim vlastním. Třeba toto je dílo AI. Jediná cesta, jak deepfake poznat jsou dinosauři a ti jsou tak „plastoví“ jen proto, že AI nikdy živého dinosaura neviděla, kdyby se trénovala víc na dokumentech BBC, možná bychom všichni sháněli vstupenky do Jurského parku.
Toto celé video je generované AI cez veo3. Insane. pic.twitter.com/nCNPNpw5rY
— Zaujalo ma / Martin (@ZaujaloMa) May 25, 2025
Zdaleka ne všechny možnosti jsou ale tak zábavné. Objevilo se třeba video, ve kterém „Barack Obama“ nadává Donaldu Trumpovi. V počátku války na Ukrajině kolovalo po internetu deepfake video prezidenta Zelenského, kde vyzývá armádu ke složení zbraní.
Zneužít takovou formu manipulace lze k diskreditaci známých osobností, ale třeba také ke kybešikaně. Deepfake se využívá k vytváření lechtivých filmů se slavnými herečkami – oběťmi takového incidentu se staly třeba Natalie Portman nebo Emma Watson. Podle analýzy společnosti Deeptrace z roku 2019 bylo 96 % deepfake videí z kategorie pornografie. Obětí ale může být každý. Manipulátor potřebuje jen dostatek videí oběti.
Technologie deepfake nejsou jen falešná videa
Nejčastěji si pod pojmem představíme falešná videa, ale nemusí jít jen o ně. Deepfake je obecný termín, může se jednat klidně o články, dokonalé webové stránky nebo nějaké online platformy nebo jinou velmi propracovanou manipulaci.
Je nutné si uvědomit, že moderní AI technologie se vyvíjejí neuvěřitelným tempem. Níže například můžete vidět srovnání dvou videí se stejným zadáním (promptem). Jedno je z roku 2023 a druhé z rozdíl. Věrohodnost posuďte sami:
Zobrazit v aplikaci Threads
Jak funguje šíření deepfake?
Velmi často se deepfake videa zneužívají k politickému boji, šíření dezinformací, ovlivnění veřejného mínění nebo k podvodům. Nejčastěji se šíří na sociálních sítích. Někdy jej šíří uživatelé, kteří mu uvěří, jindy i trollové.
Obecně jde vždy o šokující sdělení (ať už dobré nebo špatné zprávy), které si získá pozornost i zcela přirozeně.
Algoritmy jsou na detekci (zatím) krátké, takže je neumějí zastavit. I to je důvod proč v EU vznikl AI Act – nařízení, podle kterého bude muset být každý materiál vytvořený umělou inteligencí označený. Uživatel by tak měl okamžitě s jistotou vědět, zda se dívá na skutečné vyjádření oblíbené osobnosti či skutečnosti, nebo zda se dívá na falešné video.
Proč jsou deepfake videa nebezpečná?
Deepfake technologie nám neumožní rychle rozeznat, co je skutečné. Mohou námi tak lépe manipulovat a ovlivnit tak naše rozhodnutí.
Generativní AI dokáže takových videí, falešných článků a webů chrlit velké množství. Úplně tak dokáže zahltit veřejný prostor a vytlačit i fakticky přesné informace. Dezinformace tak mohou ovlivnit naše rozhodování, a ani si toho nemusíme být vědomi.
Útočníci pomocí deepfake připravují podvody
Zcela běžná je také v kybernetický útocích, zejména pak kryptopodvodech. Podvodníci zneužijí veřejné záznamy osobností, jako je Babiš, Kellner, Fiala nebo Pergnerová, vytvoří video, kde vás tato osobnost přesvědčuje, že touto investicí lze zbohatnout.
Pokud dané osobnosti vy osobně důvěřujete, je velmi snadné nechat se zlákat. Útočníci vás ale okradou. Takto například vypadají reklamy vytvořené pomocí deepfake:
Je deepfake video i k něčemu dobré?
Přesto lze deepfaky využít i k dobrým účelům: ať už se bavíme o herním průmyslu nebo vzdělávání. Děti se mohou stát třeba hvězdami svých oblíbených pořadů, videoher a filmů. Deepfake obsah využilo třeba Dalího muzeum na Floridě, aby si návštěvníci mohli udělat se slavným umělcem selfie. Díky technologii Dalí návštěvníky pozdraví, vyfotí se s nimi a reaguje v reálném čase na jejich chování.
Deepfake je dobrý sluha, ale špatný pán. Nezatracujme technologie jen proto, že ji někdo zneužívá.
Deepfake video vytvoříte na koleni, ale nepoznáte ani po hodinách zkoumání
Technologie tvorby deepfakes je poměrně mladá, ale jde dopředu mílovými kroky. Triviální verze deepfakes lze snadno vytvořit pomocí mobilních aplikací. Poměrně kvalitní deepfake ale vytvoří kdokoli, kdo má dost času, kvalitní výpočetní techniku, a hlavně dost záznamů osobnosti, které chce něco vložit do úst.
Odhalování deepfake videí je složité
Z ukázek v úvodu článku je zřejmé, že rozpoznávání deepfake je velice obtížné. Obzvláště na sociálních sítích, kde obsah konzumujeme rychle a nesledujeme drobné nuance. Právě rychlého tempa na sociálních sítích deepfake využívá ve svůj prospěch.
Zkuste se na to, co čtete a sledujete, trochu více soustředit. Obzvláště, pokud osoba na videu říká něco nečekaného či šokujícího. Stále jde o nedokonalou technologii, a tak můžete vidět chyby.
Deepfake má stále problémy s replikováním jemnějších fyzických atributů: zvuk nemusí zcela odpovídat pohybu rtů mluvčího a může docházet k třepení podél linií obličeje osoby, v blízkosti linie vlasů či linií oděvu. Typické jsou chyby v osvětlení: obličej může být světlejší/tmavší než tělo, může se objevit neobvyklý stín nebo každé z očí může odrážet jiný obraz. Velice často také postavy v deepfake nemrkají, což je u lidí dost neobvyklé.
Někdy neodpovídá vybavení v prostoru okolo mluvčího, například se liší nábytek, jsou špatně umístěné vlajky, pozadí se hýbe a podobně. Lišit se může také ostrost obrazu (například obličej je ostřejší než řečnický pultík – protože obličej doplňuje umělá inteligence, zatímco pult je staticky natočený kamerou).
Pokud se vám video nezdá, zkontrolujte si oficiální profily domnělého mluvčího. Známé osobnosti vše důležité sdílí na svých oficiálních profilech, a nejen v nějakém bulvárním plátku.
Pokud jde o deepfake, který z vás má vylákat peníze, pak pomůže antivir. V těchto případech totiž odkaz vede ne podvodnou phisingovou stránku a tu bezpečnostní program dokáže zablokovat.
Nenechte se zaskočit internetovými hrozbami!
I když úplnou ochranu proti dezinformacím vám nabídnout nemůžeme, dokážeme vám poskytnout silnou ochranu proti internetovým hrozbám, phishingu a malware.
VYZKOUŠET
Tipy, jak mluvit s dětmi o deepfake videích?
#1 Shlédněte několik podvodných videí
Dost možná vás překvapí, kolik toho dnešní děti už vědí o nespolehlivosti internetového obsahu. Nebo dokonce nějaká deepfake videa samy už viděly. Přesto neuškodí promluvit si o tom, proč někdo takto podvádí. Zdůrazněte, že ke sdílení něčích fotek nebo videí je nutný nejprve souhlas.
#2 Mluvte o ochraně vlastního soukromí
Když děti sdílejí své fotky nebo video, mohou nevědomky sdílet data, které lze i tímto způsobem zneužít. Není třeba hned všechno smazat, ale spíše sdílet opatrněji a střídmě. Promluvte si to o tom, jaké sociální sítě používají a poraďte jim, jak na nich fungovat bezpečněji.
Deepfake je skvělý způsob, jak dětem vysvětlit možnosti technologií a možná i hlouběji probrat podstatu dezinformací.
#3 Zaměřte se na prevenci podvodů
Většině rizik na internetu lze předcházet. Mluvte s dětmi o tom, na co mohou narazit. Výbornou prevencí je například striktně komunikovat jen s lidmi, které děti znají z reálného života.
Pokud se vaše děti rozhodnou používat aplikace, které jim umožňují vytvářet deepfakes, vyzkoušejte je nejdřív společně a používejte je jen pro zábavu a vzdělávání, nikdy pro zesměšňování ostatních.
Shrnuto, podtrženo:
- Deepfake dokáže přesvědčivě napodobit realitu. Zneužít ho lze k manipulaci, kyberšikaně i podvodům.
- Deepfake nejsou jen videa – jde i o texty, weby nebo celé falešné identity. To vše může vypadat velmi důvěryhodně a šířit se virálně.
- Rozpoznání deepfake je těžké. Algoritmy ani lidské oči často nestačí a sociální sítě šíří obsah rychlostí blesku.
- Pozor na emocionálně silná nebo šokující sdělení – právě ta bývají falešná.
- Zaměřte se na detaily, třeba pohyb rtů nebo linie okolo obličeje, a ověřujte si obsah z důvěryhodných zdrojů.
Fialové pomeranče? Deepfake fikce už (skoro) nepoznáte
Deepfake: Dají se rozeznat podvody vytvořené pomocí pokročilých technologií?
Hoax není dezinformace. Naučte se odhalit lži jako profík
Článek je součástí projektu Safer Kids Online
Safer Kids Online je celosvětová iniciativa společnosti ESET. Cílem této iniciativy je přinášet informace, které mohou rodiče, vychovatelé, děti a učitelé využít k otevření diskuze o bezpečnosti na internetu a poskytnout nástroje pro vytváření bezpečného online prostředí pro všechny děti.