Takže příkaz provedete, peníze převedete – a stanete se obětí deepfake podvodu. Anebo vám zavolá vaše dítě, že bylo uneseno a musíte zaplatit výkupné. Děsivá představa, ale je pravděpodobné, že jde také „jen“ o podvod.
Možná to zní neuvěřitelně, ale bavíme se o současné realitě. K deepfake podvodům dochází každý den po celém světě a jejich následky jsou alarmující. Nejde totiž jen o šíření dezinformací nebo poškození pověsti obětí podvodů, ale především o výši škod, které mohou zlikvidovat celé firmy a oklamané lidi připravit o všechny úspory. To vše na základě technologie, která dokáže vytvořit falešná videa nebo zvukové nahrávky tak dokonale, že je prakticky nelze rozeznat od skutečnosti.
Co je vlastně deepfake?
Název vznikl spojením výrazů „deep learning“ (hluboké učení) a „fake“ (falešný). Jde tedy o podvržený obsah vytvořený pomocí technologie umělé inteligence. Existuje několik typů:
- Deepfake videa jsou podvržené videozáznamy, ve kterých nejčastěji figurují známé osobnosti ve smyšlených situacích. Často jde například o investiční podvody, kdy politici nebo jiné známé osobnosti propagují „výhodné investice“, nebo o čistě dezinformační kampaně.
- Deepfake zvukové záznamy dokážou napodobit hlas tak přesně, že i nejbližší rodina či známí uvěří, že opravdu mluví se skutečným člověkem. Známé jsou například případy vydírání rodičů na základě podvržených hlasů jejich údajně unesených dětí.
- Deepfake fotografie mohou zobrazovat lidi v kompromitujících situacích a být vytvářeny za účelem poškození jejich pověsti, případně mohou sloužit k šíření dezinformací.
Často mají společnou velmi vysokou kvalitu provedení a mohou být vytvořeny prakticky s jakýmkoliv obrazovým i zvukovým obsahem a v jakémkoliv jazyce.
Jak vznikají deepfake podvody?
Zatímco dříve bylo nutné podvržené fotografie, videa nebo zvukové nahrávky velmi pracně retušovat a různě upravovat, vývoj v oblasti umělé inteligence v posledních letech tvorbu přesvědčivých podvrhů zásadně usnadnil. Moderní neuronové sítě totiž umí načíst a následně napodobit lidské tváře i hlasy s až neuvěřitelnou přesností.
Pro vytvoření deepfake videa (či jiného podvrženého obsahu) potřebuje umělá inteligence co nejvíce materiálu – typicky fotografií, videozáznamů nebo zvukových nahrávek osoby, kterou má napodobit. Čím více dat se podaří získat, tím přesvědčivější bude výsledek. Příslušné nástroje jsou velmi snadno dostupné v podobě mobilních aplikací nebo (často bezplatných) AI služeb na internetu.
Množství nástrojů, se kterými lze videa a jiný podvodný obsah vytvářet, se navíc stále zvyšuje, stejně jako kvalita a přesvědčivost jejich výstupů. Zpočátku bylo možné videa snadno poznat podle nepřirozených detailů – například špatně vygenerovaných zubů nebo nepřirozeně vypadajících prstů na rukách, současná technologie tyto chyby prakticky eliminovala.
Jak velký je to problém?
Zpráva České asociace umělé inteligence (ČAUI) uvádí, že počet deepfake útoků v roce 2023 vzrostl desetinásobně. Jiné zdroje hovoří o meziročních nárůstech těchto podvodů v tisících procent. Podle průzkumu agentury Ipsos z roku 2024 má osobní zkušenost s podvodným videem nebo audiem pětina české populace a desetina lidí takovému obsahu uvěřila. Moneta Money Bank evidovala jen od ledna do září roku 2024 celkem 450 napadených klientů se škodami dosahujícími téměř 40 milionů korun.
Rapidně rostoucí množství útoků a velmi omezená možnost obětí takové podvody rozpoznat vedou po celém světě k miliardovým škodám. Můžeme zmínit několik známých případů z poslední doby:
- Začátkem roku 2024 obdržel zaměstnanec nadnárodní společnosti v Hongkongu pozvánku na videokonferenci s finančním ředitelem firmy a dalšími kolegy. Během schůzky dostal pokyn převést 25 milionů dolarů na různé bankovní účty kvůli údajně tajné akvizici. Ve skutečnosti šlo o deepfake a všichni účastníci videokonference byli vytvořeni pomocí AI.
- Ve Francii poslala 53letá žena v přepočtu asi 21 milionů korun podvodníkům, kteří si získali její důvěru deepfake verzí herce Brada Pitta.
- V Česku je zatím nejznámějším případem pokus o podvod na společnost GymBeam. Dokonalá deepfake verze výkonného ředitele firmy požadovala během videokonference informace o bankovních účtech společnosti. Podvod byl včas odhalen, protože skutečný ředitel byl v kanceláři a jeho kolega si mohl ověřit, že se videohovoru vůbec neúčastní.
- Manželský pár z Olomoucka přišel o milion korun při investičním podvodu s deepfake videem prezidenta Petra Pavla. Podobně dopadla žena z Uherskohradišťska, která falešné investiční společnosti postupně poslala téměř čtyři miliony korun na základě videa s politikem hovořícím o jedinečné investiční příležitosti.
- Přesvědčivý podvod zneužil hlas italského ministra obrany Guida Crosetta. Podvodníci jeho jménem žádali o zaslání velkých částek peněz na zaplacení výkupného za novináře unesené na Středním východě. Cílem útoku se stali zástupci předních italských podniků včetně návrháře Giorgia Armaniho nebo člena rodiny Beretta. A nejméně jedna z obětí skutečně poslala milion eur na účet v Hongkongu.
Deepfake podvody ovšem nemají jen finanční cíle. Slovenské parlamentní volby v září 2023 jsou označovány za první velké politické klání výrazně ovlivněné tímto podvodem. Před hlasováním kolovala internetem falešná nahrávka předsedy hnutí Progresivní Slovensko Michala Šimečky, na kterém se s novinářkou údajně domlouvá na manipulaci s hlasy voličů. Video se objevilo krátce před volbami, a Šimečka proto nemohl podvod dostatečně vyvrátit. Je tedy možné, že tato dezinformace ovlivnila výsledek voleb.
Jak deepfake poznat?
Rozpoznání není snadné, ale existují určité varovné signály, na které si můžete dát pozor:
- U videí se zaměřte především na detaily obličeje – nepřirozené mrkání nebo jeho úplnou absenci, asymetrii ve tváři nebo rozostření okrajů kolem vlasů či vousů. Často také můžete postřehnout nekonzistentní osvětlení obličeje nebo nepřirozené pohyby hlavy. Video vytvořené AI mohou prozradit také nepřirozené odlesky brýlí a špatná synchronizace pohybu rtů se zvukem.
- V případě audio nahrávek lze často pozorovat monotónní intonaci a absenci běžných hlasových variací.
Největší pozornost však věnujte kontextu a obsahu. Pokud vás někdo žádá o převod peněz, poskytnutí citlivých informací nebo jinou urychlenou akci, buďte velmi opatrní. Falešné osoby často používají neobvyklý slovník nebo dělají chyby, které by pro daného člověka byly netypické.
Kdykoliv je to možné, ověřte si identitu dané osoby i jiným způsobem – třeba telefonicky. A pokud máte podezření na podvod během rozhovoru, zeptejte se na věc, kterou mohou vědět jen skutečná osoba, se kterou se znáte, nebo člen vaší rodiny.
Technologická ochrana před deepfake podvody
Obrana je stále založena především na kritickém přístupu a ověřování, ale existují také stále sofistikovanější nástroje pro detekci podvrženého audiovizuálního obsahu. Mezi nejznámější patří Deepware Scanner, který využívá konvoluční neuronové sítě k analýze obličejů a pohybů v obrazech a videích, a Microsoft Video Authenticator, který používá AI k identifikaci známek manipulace ve videích.
Nové metody detekce falešných videí a zvukových záznamů využívají také analýzu světelných vzorů a odrazů, biometrickou analýzu založenou na původních lidských rysech nebo spektrální analýzu zvuku.
K technologickému vývoji ale dochází také na straně útočníků, takže jde o neustálý závod mezi tvůrci deepfake obsahu a obránci, kteří usilují o jeho detekci. Jak se zlepšují nástroje pro vytváření falešných videí, zlepšují se i metody jejich odhalování.
Jak se bránit?
Nejlepší ochranou proti deepfake podvodům jsou zdravá skepse a ověřování informací. Pokud vás někdo kontaktuje s neobvyklou žádostí, vždy si ověřte jeho identitu přes druhý komunikační kanál. Zavolejte mu na číslo, které znáte, nebo mu napište e-mail.
Nikdy neposílejte peníze nebo neposkytujte citlivé informace pouze na základě jednoho kontaktu, jakkoliv důvěryhodně vypadá. Pokud vás někdo tlačí k rychlému rozhodnutí, je to téměř jistě podvod.
Pro firmy jsou klíčová školení zaměstnanců. Podle manuálu České asociace umělé inteligence by měly organizace zavést jasně definované komunikační kanály a postupy pro ověřování identity. Důležité je také zavedení dvojího ověřování pro všechny finanční operace – žádný převod by se neměl uskutečnit bez potvrzení přes nezávislý kanál.
Situace se bohužel bude pravděpodobně ještě zhoršovat. Deepfake technologie se totiž neustále zlepšují a jsou stále dostupnější. Již brzy bude možné vytvářet kvalitní podvodná videa v reálném čase s minimálním množstvím trénovacích dat. Mobilní aplikace a cloudové služby navíc zpřístupní tuto technologii prakticky komukoliv.
Musíme se proto smířit s realitou, kdy už „nevěříme vlastním očím a uším“. Budeme muset vyvinout nové způsoby ověřování informací a možná vzniknou i nové protokoly pro důležitou komunikaci, které budou vyžadovat více úrovní ověření.
Co si z článku odnést
- Nevěřte bezmezně jakémukoliv vizuálnímu a zvukovému obsahu, protože moderní technologie dokáže napodobit téměř kohokoliv a cokoliv.
- Nikdy neposílejte peníze na základě jednoho hovoru nebo zprávy. Vždy si ověřte identitu volajícího nebo pisatele jiným nezávislým kanálem.
- Hledejte varovné signály a všímejte si nepřirozených detailů, jako jsou špatná synchronizace rtů, asymetrie obličeje, monotónní hlas nebo netypický slovník.
- Deepfake podvody nejsou jen záležitostí celebrit nebo velkých korporací. Ohrožují jednotlivce i malé firmy a mohou vést k obrovským finančním škodám.
- Vývoj technologií pro tvorbu takových podvodů i jejich detekci je neustálý závod. Sledujte aktuální situaci, abyste byli připraveni na nové formy podvodů.
Další články a podcasty ze světa kybernetické bezpečnosti najdete zde: https://o2cybernews.cz/