Menu

Rozpoznání falešného videa: praktické nástroje automaticky odhalí fake zdroje

22.03.2021 16:20 | Jiří Palyza + Přidat komentář
Rozpoznání falešného videa: praktické nástroje automaticky odhalí fake zdroje

Rozpoznání falešného videa: praktické nástroje automaticky odhalí fake zdroje | foto: Vojtěch Kučera/Pixabay

»Deepfakes« jsou vedlejším produktem umělé inteligence, která se v tomto případě používá k vytváření zmanipulovaných videí. Experti vyvinuli nástroj, který je dokáže rozpoznat. Je k dispozici online na webové stránce, kam uživatelé musí pouze nahrát testovaný soubor.

Obama, Putin, Merkelová – političtí a státní představitelé se často stávají obětmi tvorby falešných zpráv, manipulovaných fotografií a videí. Kromě toho se k podobným metodám uchýlili už i rodiče, kteří pomocí metod strojového učení vytvářejí falešné obrazové materiály pro manipulaci spolužáků svých dětí.

Kvůli neustále rostoucímu šíření deepfakes, aniž by byly takto označeny, experti vyvinuli bezplatný nástroj DeepFake-o-meter. Umožňuje snadno analyzovat fotografie a videa z hlediska jejich věrohodnosti. Výsledky nejsou ve všech případech spolehlivé, ale vzhledem k různým metodám hodnocení mohou být dobrým ukazatelem. V různých testech byla dosažená přesnost dokonce až 94 procent.

fakemeter-logo

DeepFake-o-meter

CHIP hodnotí Dobrý

Falešná videa je často těžké pouhým pohledem odlišit od originálu. Analýza pomocí nástroje DeepFake-o-meter slibuje padělky odhalit.

http://zinc.cse.buffalo.edu/ubmdfl/deep-o-meter/

 

Pravdu pomohou odhalit oči

fake

Pro spolehlivou detekci mohou být rozhodující odrazové vzory rohovky. | Zdroj: Bessi/Pixabay

Profesor Siwei Lyu spolu se svým týmem z univerzity v Buffalu využil ve vlastním nástroji pro rozpoznání deepfake snímků a videí různé metody detekce. Lze jimi testovat a rozpoznávat zdroje, vytvořené nebo upravené pomocí softwaru, pracujícího s metodami strojového učení. Uživatelé mohou nahrát soubor o velikosti až 50 MB, nebo jej vložit prostřednictvím přímého odkazu. Poté bude provedena analýza a výsledek odeslán zpět e-mailem. Kromě toho lze také nastavit PIN kód pro zpětné načtení souboru.

Podle profesora Lyu je "oční rohovka téměř dokonalou polokoulí s dobrým odrazovým povrchem." Rozdílné vzory odrazů od očí na stejném obrázku jsou ale indikátorem toho, že obrázek byl generován pomocí GAN (Generative adversarial network).

DeepFake-o-meter této slabiny využívá a odhaluje to, co při pouhém sledování videa často není patrné. Z hlediska ověření autenticity videa na internetu tak uživatelé mají možnost dvojnásobného ověření.

Ne všechny falešné zdroje jsou deepfake

Tvorba deepfake je v souvislosti s potřebou odpovídajícího výpočetního výkonu relativně složitou operací, takže ne vždy se vytvářejí přímo deepfake padělky. K manipulaci videa a přetvoření do fiktivního příběhu často stačí pouze střih různých nahrávek do jednoho celku.

Pro tyto případy nabízí organizace pro ochranu lidských práv Amnesty International nástroj YouTube DataViewer. Ten dokáže jednoduše zobrazit metadata videa na streamovací platformě a zpětně dohledat jednotlivé snímky přímo na webu.

ytdataviewer

Youtube DataViewer

CHIP hodnotí Dobrý

Bezplatný nástroj od Amnesty International dokáže přečíst všechna data videí na YouTube.

citizenevidence.amnestyusa.org

 

nenechme se zmanipulovat

DeepFake-o-meter je užitečný nástroj pro rozpoznání falešných videí a dokáže dobře posoudit, zda jde o podvrh. Nakonec ale záleží jen na uživateli, zda bude po původním zdroji pátrat, anebo se nechá manipulovat padělkem. Mějme tedy oči otevřené.

Komentáře

* Hvězdičkou jsou označeny povinné informace.

Zajímavosti ze světa IT v e-mailu

Stačí odeslat svoji e-mailovou adresu


Odesláním formuláře souhlasíte se zpracováním svých osobních údajů a užitím pro marketingové účely vydavatelství Burda International CZ s. r. o.