Když vám volá syn o pomoc… a není to on
Krajští kriminalisté a spotřebitelské centrum našeho západního souseda v těchto dnech varují před novou formu kybernetické kriminality. A protože online svět a s ním související nebezpečí nezná hranic, je dost vysoká pravděpodobnost, že se brzy podobné formy podvodu objeví i u nás. Proto bychom vás rádi před nimi varovali.
Kybernetičtí podvodníci ve svých nových formách útoků zneužívají umělou inteligenci a její pomocí vytvářejí věrohodné kopie lidských hlasů, obrázků a videí. Disponují technologiemi, které to vše zvládají v reálném čase. Jejich cílem jsou peníze, uživatelská data a důvěra.
To, co jste dříve snadno rozpoznali jako padělek, je dnes kvůli schopnostem umělé inteligence téměř k nerozeznání od reality. Pomocí synteticky generovaných hlasů nebo deepfake videí pachatelé předstírají před příbuznými, přáteli nebo obchodními partnery nouzové situace, a jejich uvěření má na oběti devastujícími následky.

Nový trik s umělou inteligencí působí tak věrohodně, že oklame i rodinu a přátele
Podvody cílí jak na děti a mládež, tak i na dospělé včetně seniorů. Mladí uživatelé jsou často kontaktováni prostřednictvím sociálních sítí. Obrací se na ně útočníci, kteří se maskují za profily generované AI a vydávají se za jejich vrstevníky. V závažných případech dochází k vydírání pomocí falešných fotografií, zobrazujících nahotu (sextortion).
I dospělí se stále častěji stávají terčem podvodníků. Umělá inteligence se nasazuje pro telefonáty se snahou šokovat, romantické podvody nebo podvody s vnoučaty – a kvůli AI dnes působí velmi věrohodně. Pachatelé napodobují hlasy nebo simulují nouzové situace, a snaží se tím přimět oběti k převodu peněz.
Nárůst podvodů s umělou inteligencí: Co patří k typickým trikům podvodníků
-
1
Imitace hlasu: Umělá inteligence kopíruje skutečné hlasy v krátkých zvukových nahrávkách – například v prostředí sociálních médií. Takto se předstírají nouzové situace nebo údajné volání o pomoc.
-
2
Zmanipulované konverzace a obrázky: Falešné zprávy, e-maily nebo fotografie mohou působit autenticky, ale pocházejí od zločinců.
-
3
Deepfake videa: Klamavé video klipy zobrazují celebrity nebo příbuzné s cílem vzbudit důvěru nebo přímo oběti vydírat.
Policie varuje: Podvodníci klamou pomocí hlasů generovaných umělou inteligencí, deepfakes a falešných videí
Nenechte se podezřelými hovory nebo zprávami dostat pod tlak. A to ani v případech, kdy se vám zdá hlas, případně obraz důvěrně známý. Ukončete hovor a spojte se s danou osobou prostřednictvím kontaktu, který používáte pro běžnou komunikaci. Spontánně neposkytujte žádné citlivé údaje ani přístupové údaje.
Odborníci na online podvody také doporučují velmi opatrně zacházet se soukromými fotografiemi a videi na sociálních sítích. V případě jakéhokoliv podezření je vhodné okamžitě podat oznámení na policii.
Zdroj: BBC, CrowdStrike, NBC News