Přejít k hlavnímu obsahu

Nebudete věřit telefonátům: AI vám klidně ukradne hlas bez ptaní

Pavel Trousil 27.10.2025
Deepfake
Zdroj: Vygenerováno v ChatGPT, redakce

Odborníci bijí na poplach – umělá inteligence dosáhla bodu, kdy dokáže přesvědčivě napodobit lidský hlas přímo během hovoru. Útočníci tak mohou vydávat se za kohokoli a vést živou konverzaci. Tento průlom odstraňuje dřívější omezení, která vyžadovala předem nahrané zvukové ukázky a zpracování trvalo déle.

Kapitoly článku

Stačí levný hardware

Bezpečnostní společnost NCC Group prokázala, že kombinace volně dostupných nástrojů s běžným hardwarem dokáže vytvářet hlasové deepfaky v reálném čase s minimálním zpožděním. Technika nazvaná „deepfake vishing“ využívá modely umělé inteligence natrénované na vzorcích hlasu oběti k vytvoření živé napodobeniny, kterou operátor aktivuje tlačítkem na webovém rozhraní.

Proces vyžaduje jen střední výpočetní výkon, ačkoli výkonnější grafické karty výsledky zlepšují. Výzkumníci systém spustili na notebooku s grafickou kartou Nvidia RTX A1000 – což je slabší model – a dosáhli zpoždění pouhé půl sekundy. Vzorky nahrávek ukazují, že systém dokáže vytvořit přesvědčivou hlasovou repliku i z nekvalitních nahrávek, takže se pro tyto účely mohou použít vestavěné mikrofony běžných notebooků nebo smartphonů.

Mohlo by vás zajímat

Jak útok probíhá

Dřívější služby pro vytváření hlasových deepfake videí často vyžadovaly několik minut trénovacích dat a produkovaly pouze předem nahrané klipy, takže je nebylo možné použít v živé konverzaci. Schopnost měnit hlas v reálném čase eliminuje pauzy a zaváhání, která by jinak prozradila pokus o vydávání se za někoho jiného.

Pablo Alobera z NCC Group ve zprávě uvedl, že během kontrolovaného testování se souhlasem klientů kombinace hlasového deepfake v reálném čase s falšováním identifikace volajícího úspěšně oklamala cíle téměř při každém pokusu. To výrazně zlepšuje rychlost a realističnost hlasového padělání a odhaluje nová rizika i u běžných telefonních hovorů. Přitom dříve se telefonní hovory doporučovali pro ověření podezřelé zprávy nebo e-mailu. 

Mohlo by vás zajímat

Deepfake videa ještě zaostávají

Zatímco hlasové deepfaky dosáhly pozoruhodného pokroku, video deepfaky v reálném čase ještě takovéto úrovně nedosáhly. Nedávné virální příklady používají špičkové modely umělé inteligence, které dokážou digitálně vložit prakticky kohokoli do realistických video scénářů.

Tyto systémy však zatím nedokážou vyprodukovat vysoce kvalitní video v reálném čase a často vykazují nesrovnalosti ve výrazech obličeje, emocích a synchronizaci řeči. Trevor Wiseman, zakladatel společnosti zabývající se kybernetickou bezpečností The Circuit, uvedl, že nesoulad mezi tónem a výrazy obličeje prozradí nasazení AI i běžným pozorovatelům.

Mohlo by vás zajímat

Reálné případy podvodů

Rostoucí dostupnost těchto technologií už vedla k reálným důsledkům. Wiseman upozorňuje na případ, kdy byla společnost oklamána během náborového procesu a poslala notebook na adresu podvodník poté, co ji ošálil video deepfake. Takové případy ukazují, že se nelze spoléhat na hlasové a video hovory pro ověření identity.

Jak se vydávání se za jiné osoby pomocí umělé inteligence stává dostupnějším, experti varují, že budou potřeba nové formy ověřování. Wiseman obhajuje přijetí unikátních, strukturovaných signálů nebo kódů – podobných tajným znakům používaným v baseballu – k jednoznačnému potvrzení identity během vzdálených interakcí. Bez takových opatření zůstávají jednotlivci i organizace vystaveni stále propracovanějším útokům sociálního inženýrství poháněným deepfaky generovanými umělou inteligencí.

Zdroj: NCC group, NCC, Techspot

Jak moc používáte AI? Váš šéf to díky Microsoftu brzy zjistí


Máte k článku připomínku? Napište nám

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme