Přejít k hlavnímu obsahu

Než zvednete telefon, zpozorněte: Umělá inteligence vám může vysát peníze z účtu

Jiří Palyza 15.10.2025
Uživatel platí pomocí karty
Zdroj: Ideogram (vygenerováno pomocí umělé inteligence)

Umělá inteligence dokáže být dobrým pomocníkem v každodenním životě, ale také umí dát různým podvodníkům do rukou nebezpečnou zbraň. Policie spolu s různými spotřebitelskými organizacemi v současné době varují před falešnými hlasy, obrázky a videi, které jsou k nerozeznání od skutečných.

Kapitoly článku

Když vám volá syn o pomoc… a není to on

Krajští kriminalisté a spotřebitelské centrum našeho západního souseda v těchto dnech varují před novou formu kybernetické kriminality. A protože online svět a s ním související nebezpečí nezná hranic, je dost vysoká pravděpodobnost, že se brzy podobné formy podvodu objeví i u nás. Proto bychom vás rádi před nimi varovali.

Kybernetičtí podvodníci ve svých nových formách útoků zneužívají umělou inteligenci a její pomocí vytvářejí věrohodné kopie lidských hlasů, obrázků a videí. Disponují technologiemi, které to vše zvládají v reálném čase. Jejich cílem jsou peníze, uživatelská data a důvěra.

To, co jste dříve snadno rozpoznali jako padělek, je dnes kvůli schopnostem umělé inteligence téměř k nerozeznání od reality. Pomocí synteticky generovaných hlasů nebo deepfake videí pachatelé předstírají před příbuznými, přáteli nebo obchodními partnery nouzové situace, a jejich uvěření má na oběti devastujícími následky.

Smartphone s visacím zámkem na displeji
Zdroj: Ideogram (vygenerováno pomocí umělé inteligence)
Podvody s umělou inteligencí rapidně přibývají – policie varuje před klamavými deepfakes. Často jsou k nerozeznání od reality.

Nový trik s umělou inteligencí působí tak věrohodně, že oklame i rodinu a přátele

Podvody cílí jak na děti a mládež, tak i na dospělé včetně seniorů. Mladí uživatelé jsou často kontaktováni prostřednictvím sociálních sítí. Obrací se na ně útočníci, kteří se maskují za profily generované AI a vydávají se za jejich vrstevníky. V závažných případech dochází k vydírání pomocí falešných fotografií, zobrazujících nahotu (sextortion).

I dospělí se stále častěji stávají terčem podvodníků. Umělá inteligence se nasazuje pro telefonáty se snahou šokovat, romantické podvody nebo podvody s vnoučaty – a kvůli AI dnes působí velmi věrohodně. Pachatelé napodobují hlasy nebo simulují nouzové situace, a snaží se tím přimět oběti k převodu peněz.

Mohlo by vás zajímat

Nárůst podvodů s umělou inteligencí: Co patří k typickým trikům podvodníků

  • 1

    Imitace hlasu: Umělá inteligence kopíruje skutečné hlasy v krátkých zvukových nahrávkách – například v prostředí sociálních médií. Takto se předstírají nouzové situace nebo údajné volání o pomoc.

  • 2

    Zmanipulované konverzace a obrázky: Falešné zprávy, e-maily nebo fotografie mohou působit autenticky, ale pocházejí od zločinců.

  • 3

    Deepfake videa: Klamavé video klipy zobrazují celebrity nebo příbuzné s cílem vzbudit důvěru nebo přímo oběti vydírat.

Mohlo by vás zajímat

Policie varuje: Podvodníci klamou pomocí hlasů generovaných umělou inteligencí, deepfakes a falešných videí

Nenechte se podezřelými hovory nebo zprávami dostat pod tlak. A to ani v případech, kdy se vám zdá hlas, případně obraz důvěrně známý. Ukončete hovor a spojte se s danou osobou prostřednictvím kontaktu, který používáte pro běžnou komunikaci. Spontánně neposkytujte žádné citlivé údaje ani přístupové údaje.

Odborníci na online podvody také doporučují velmi opatrně zacházet se soukromými fotografiemi a videi na sociálních sítích. V případě jakéhokoliv podezření je vhodné okamžitě podat oznámení na policii.

Zdroj: BBC, CrowdStrike, NBC News

Tyto běžné aplikace kradou vaše data. Ani o tom nevíte


Máte k článku připomínku? Napište nám

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme