Tohle není sci-fi, to je realita roku 2025
Deepfake podvody se v posledních letech rozšířily způsobem, který by ještě před pár lety nikdo nečekal. Zatímco v roce 2022 tvořily deepfake útoky pouhých 0,1 procenta všech pokusů o podvod, dnes už představují 6,5 procenta případů. To je nárůst o neuvěřitelných 2137 procent za tři roky.
První čtvrtletí roku 2025 samo o sobě přineslo 179 případů deepfake útoků. To je o 19 procent více, než bylo zaznamenáno za celý rok 2024. A finanční ztráty? Jen za první tři měsíce letošního roku přesáhly celosvětově 4,6 miliardy korun.
Experti z Deloitte odhadují, že do roku 2027 by mohly ztráty způsobené podvody s pomocí umělé inteligence v samotných Spojených státech dosáhnout až 920 miliard korun ročně.
Videohovor, který stál půl miliardy
Největší známý případ deepfake podvodu se odehrál v Hongkongu v lednu 2024. Zaměstnanec nadnárodní společnosti Arup obdržel pozvánku na videokonferenci. Na obrazovce viděl finančního ředitele firmy a několik dalších kolegů. Všechno vypadalo normálně. Hlasy seděly, obličeje také.
Jenže všichni kromě oběti byli falešní. Útočníci použili veřejně dostupná videa vedení společnosti a pomocí umělé inteligence vytvořili přesvědčivé deepfake avatary. Zaměstnanec na jejich pokyn postupně převedl 25 milionů dolarů, což je přibližně 575 milionů korun. Peníze zmizely na různých účtech dřív, než si někdo uvědomil, že šlo o podvod.
Podobný případ se málem odehrál i u Ferrari. Tamní vedoucí pracovník dostal zprávu přes WhatsApp s hlasem generálního ředitele Benedetta Vigni. Útočníci dokázali napodobit i jeho jižní italský přízvuk. Naštěstí měl zaměstnanec dost času na to, aby položil kontrolní otázku, kterou by znal jen skutečný Vigna. Tím podvod odhalil.
V roce 2019 se podobně vedlo britské energetické firmě, která kvůli naklonovanému hlasu generálního ředitele přišla o 220 tisíc eur, tedy zhruba 5,5 milionu korun.
Když vám zavolá babička - nebo to není ona?
Tradiční podvody typu "prarodiče v nesnázích", nebo „děti v nesnázích“ se díky deepfake technologii změnily v něco mnohem nebezpečnějšího. Útočníkům dnes stačí pár vteřin nahrávky z TikToku nebo YouTube, aby naklonovali hlas kohokoliv z vašich blízkých.
Jedna žena na Floridě dostala telefonát, který zněl naprosto přesně jako její dcera. Hlas tvrdil, že měla autonehodu a potřebuje 15 tisíc dolarů na kauci. Následoval další hovor od údajného právníka. Matka už by peníze poslala, kdyby jí náhodou nezavolala skutečná dcera.
Studie ukazují, že 70 procent lidí si není jistých, zda dokážou rozpoznat naklonovaný hlas od skutečného. A 40 procent lidí by okamžitě pomohlo, kdyby dostali zprávu od partnera, který je údajně v problémech. Z těch, kteří se s podvodem s naklonovaným hlasem už setkali, jich 77 procent skutečně peníze poslalo.
Celebrity jako nástroj zločinců
Známé tváře a hlasy jsou pro podvodníky zlatým dolem. Deepfake videa s Elonem Muskem, která propagují pochybné kryptoměnové investice, se na internetu objevují téměř denně. Keanu Reeves byl zneužit v romantickém podvodu, který jednu ženu stál přes 100 tisíc dolarů a její manželství.
V prvním čtvrtletí roku 2025 se celebrity staly terčem deepfake útoků 47krát. To je nárůst o 81 procent oproti celému roku 2024. Nejčastěji zneužívanou osobností byl Elon Musk s 20 případy, následovaný Taylor Swift s 11 případy.
U nás se používají falešná videa s politiky – například s Babišem, nebo prezidentem Pavlem. Tato videa získávají miliony zhlédnutí ještě předtím, než je někdo označí jako podvod. A lidé jim věří, protože vidí a slyší někoho, koho znají.
Politici pod palbou
Deepfake technologie se stala i politickou zbraní. Během slovenských parlamentních voleb v roce 2023 se těsně před volbami objevila nahrávka, na které se lídr strany Progresívne Slovensko Michal Šimečka domlouvá s novinářkou na zmanipulování voleb. Nahrávka byla falešná, ale šířila se během volebního moratoria, kdy už nebylo možné ji účinně vyvracet.
Podobně se v roce 2022, krátce po začátku ruské invaze, objevilo video, na kterém ukrajinský prezident Zelenskyj vyzývá své vojáky, aby složili zbraně. I toto video bylo podvrh, byť technicky méně kvalitní.
V lednu 2024 dostaly tisíce voličů v New Hampshiru automatický telefonát s hlasem prezidenta Bidena, který je vyzýval, aby nešli k volbám. Šlo o pokus ovlivnit volební účast pomocí naklonovaného hlasu. Politici se stali terčem deepfake útoků 56krát jen v prvním čtvrtletí 2025, což téměř dosahuje celkového počtu z roku 2024.
Proč je to tak nebezpečné?
Problém s deepfake technologií není jen v tom, že funguje. Problém je v tom, že lidé ji nedokážou rozpoznat. Studie ukázala, že pouze 0,1 procenta lidí dokázalo správně identifikovat všechna falešná videa, která jim byla předložena. Při kvalitních deepfake videích byla úspěšnost detekce pouhých 24,5 procenta.
Navíc se kryptoměnový sektor stal hlavním cílem. V roce 2023 připadalo na kryptoměny 88 procent všech odhalených deepfake podvodů.
Co je ještě horší, mnohé firmy na to nejsou připraveny. Jeden ze čtyř vedoucích pracovníků přiznal, že má o deepfake technologii jen minimální povědomí. A 31 procent manažerů si nemyslí, že by deepfake zvyšovaly riziko podvodů v jejich společnosti. To přes data, která mluví jasně o opaku.
Co dělat, když něco nesedí
Pokud máte byť jen malé podezření, že komunikujete s někým, kdo není tím, za koho se vydává, okamžitě hovor ukončete. Zablokujte komunikaci, oznamte to příslušným institucím a nahlaste to policii.
Existuje ale několik způsobů, jak se bránit předem. Při videohovorech dávejte pozor na nepřirozené pohyby očí, roboticky hladké hlasy nebo nekvalitní video. Ptejte se sami sebe, jestli je situace vůbec realistická. Buďte obzvlášť opatrní u žádostí o peníze, hesla nebo jakýkoliv urgentní postup. Používejte vícefaktorové ověřování všude, kde to jde. A domluvte si s rodinou tajné heslo, které znají jen skuteční příbuzní.
Technologie proti technologii
Dobrou zprávou je, že stejně jako podvodníci používají umělou inteligenci, můžete ji používat i vy. Moderní antivirové programy už umí rozpoznávat podezřelé odkazy, zvukové i pokusy s videem o podvod. Trh s nástroji pro detekci deepfake roste ročně o 28 až 42 procent.
Platí: čím lépe jste připravení, tím menší je šance, že se stanete obětí. Protože v roce 2025 už nestačí nevěřit jen podezřelým e-mailům. Nyní musíte být obezřetní i vůči tomu, co vidíte a slyšíte na vlastní oči a uši.
Zdroj: Avast, CNN, Sumsub Identity Fraud Report, MIT Sloan Management Review