
Kedysi sme mohli bez problémov veriť všetkému, čo sme videli a počuli. Žiaľ, tieto časy sú už nenávratne preč. Generatívna umelá inteligencia (GenAI) otvorila dvere k tvorbe deepfake audia a videa širokej verejnosti – prakticky komukoľvek tak na vytvorenie falošnej nahrávky stačí pár kliknutí. Je to zlá správa pre všetkých vrátane firiem.
Deepfaky pomáhajú podvodníkom obchádzať kontroly založené na princípe „poznaj svojho klienta“ (Know Your Customer; KYC), ako aj kontroly spojené s overovaním účtov. Útočníkom a vládnym aktérom dokonca umožňujú vydávať sa za uchádzačov o zamestnanie. Najväčšiu hrozbu však deepfaky predstavujú pri podvodoch s finančnými prevodmi a prevzatím kontroly nad účtami vedúcich pracovníkov.
Podceňovať riziko deepfakov sa firmám nemusí vyplatiť. Britská vláda uviedla, že za minulý rok bolo zverejnených až osem miliónov umelo vytvorených nahrávok, čo je výrazný nárast oproti približne 500 000 v roku 2023. Skutočné čísla však môžu byť ešte vyššie.
Ako útoky fungujú
Experiment bezpečnostného špecialistu spoločnosti ESET Jakea Moora ukázal, že spustiť deepfake hlasový útok na firmu nebolo nikdy jednoduchšie. Stačí krátka zvuková ukážka osoby, ktorú má útočník napodobniť. O zvyšok sa postará GenAI. Útok môže prebiehať nasledovne:
- Útočník si vyberie osobu, ktorej hlas chce napodobniť. Môže to byť generálny riaditeľ, finančný riaditeľ alebo externý dodávateľ.
- Na internete nájde zvukovú nahrávku – pri riaditeľoch známych firiem je to pomerne jednoduché, keďže často vystupujú na verejnosti. Zdrojom nahrávky môže byť profil na sociálnej sieti, prezentácia k hospodárskym výsledkom, televízny rozhovor a podobne. Niekedy stačí zvuková stopa v dĺžke niekoľkých sekúnd.
- Útočník si vyberie osobu, ktorej zavolá. To si zvyčajne vyžaduje menší prieskum, napríklad na LinkedIne, kde si vyhľadá pracovníkov IT podpory alebo finančného oddelenia.
- Vybranú osobu môže útočník telefonicky kontaktovať priamo alebo jej najprv pošle e‑mail – napríklad falošnú správu od generálneho riaditeľa so žiadosťou o urgentný prevod peňazí, resetovanie hesla či viacfaktorovej autentifikácie (MFA), prípadne naliehavú výzvu od dodávateľa na úhradu faktúry po termíne splatnosti.
- Následne zavolá vybranej osobe na telefón a pomocou deepfake audia vytvoreného cez GenAI sa vydáva za riaditeľa alebo dodávateľa. V závislosti od použitého nástroja môže ísť o vopred pripravený text alebo o sofistikovanejšiu metódu prevodu reči na reč (speech-to-speech), pri ktorej sa hlas útočníka takmer v reálnom čase mení na hlas obete.

Príručka digitálnej bezpečnosti pre všetky generácie
Či už ide o ochranu osobných údajov, bezpečné heslá, alebo prevenciu pred podvodmi, naša príručka obsahuje tie najdôležitejšie tipy, ktoré vaši blízki potrebujú vedieť, aby mohli technológie využívať bez obáv.
Počuť (ne)znamená veriť
Tento typ útoku je čoraz lacnejší, jednoduchší a presvedčivejší. Niektoré nástroje dokonca dokážu k sfalšovanému hlasu pridať ruch v pozadí, pauzy či zaváhania, aby výstup pôsobil autentickejšie. Stále lepšie napodobňujú rytmus, intonáciu a rečové prvky typické pre konkrétneho človeka. A keď útok prebieha cez telefón, drobné chyby, ktorých sa AI dopúšťa, možno ľahko prepočuť.
Útočníci často využívajú aj techniky sociálneho inžinierstva, aby dosiahli svoje ciele – napríklad vytvárajú tlak na okamžitú reakciu alebo požadujú zachovanie dôvernosti. Keď sa k tomu pridá fakt, že sa vydávajú za vysokopostaveného manažéra, je jasné, prečo niektorí naletia. Veď kto by sa chcel dostať do nemilosti generálneho riaditeľa?
Napriek tomu existujú spôsoby, ako podvod odhaliť. V závislosti od kvality použitého nástroja GenAI si môžete všimnúť:
- neprirodzený rytmus reči hovoriaceho,
- nezvyčajne monotónny, emočne „prázdny“ tón hlasu,
- neprirodzené dýchanie alebo dokonca vety bez jediného nádychu,
- robotický zvuk (najmä pri menej pokročilých nástrojoch),
- úplne chýbajúci alebo naopak príliš jednotvárny hluk v pozadí.
Je čas brániť sa
Dôvod, prečo kybernetickí zločinci venujú týmto podvodom čoraz viac času, je jednoduchý – vysoký potenciálny zisk. Varovné príklady z reálneho sveta pribúdajú. Jeden z najznámejších sa stal už v roku 2020, keď zamestnanec firmy v Spojených arabských emirátoch uveril, že mu telefonoval riaditeľ so žiadosťou o prevod 35 miliónov dolárov na účely novej akvizície.


Objavte svet Bajtovcov, kde sa digitálny svet prelína s každodennými dobrodružstvami. Poučné epizódy, nečakané výzvy a stále viac záhad na obzore! Pozrite si všetky epizódy.
Keďže deepfake technológie sa za posledných šesť rokov výrazne posunuli, je dôležité si znovu pripomenúť kľúčové opatrenia, s ktorými dokážete minimalizovať riziko a vyhnúť sa najhoršiemu.
Základom je školenie zamestnancov a zvyšovanie povedomia o téme podvodov. Školenia by mali zahŕňať aj praktické simulácie deepfake hlasových útokov, aby zamestnanci vedeli, čo môžu očakávať, čo je v stávke a ako reagovať. Mali by sa naučiť rozpoznávať varovné signály sociálneho inžinierstva a typické deepfake scenáre, aké sme spomenuli aj v tomto článku. Užitočné sú aj tzv. red teaming cvičenia, ktoré preveria, ako dobre si zamestnanci osvojili informácie.
Ďalším krokom sú procesy. Zvážte napríklad:
- overovanie telefonických požiadaviek cez iný ako pôvodný komunikačný kanál, napríklad cez firemné nástroje na spoluprácu,
- schvaľovanie veľkých finančných prevodov alebo zmien v bankových údajoch dodávateľov minimálne dvoma rôznymi osobami,
- používanie vopred dohodnutých fráz alebo kontrolných otázok, ktorými musia vedúci pracovníci pri telefonáte preukázať svoju identitu.
Pomôcť môže aj technológia. Existujú nástroje na detekciu syntetického hlasu, ktoré analyzujú rôzne parametre nahrávky. Ťažšie realizovateľným, no účinným opatrením je obmedzenie dostupnosti zvukových záznamov – napríklad znížením počtu verejných vystúpení vrcholových manažérov.

Komplexná ochrana vášho digitálneho života
Komplexná ochrana vášho digitálneho života. Vyberte si úroveň podľa svojich potrieb.
Ľudia, procesy a technológie
Pointa je jednoduchá: deepfaky sú lacné a jednoduché na výrobu. Vzhľadom na potenciálne veľké zisky z podvodov klonovania hlasu je nepravdepodobné, že tak skoro vymiznú. Najlepšou obranou je preto trojstranný prístup založený na ľuďoch, procesoch a technológiách.
Po schválení stratégie ju nezabudnite vo firme pravidelne prehodnocovať, aby zostala účinná aj v čase rýchleho vývoja umelej inteligencie. Nová éra kybernetických podvodov si vyžaduje, aby sme boli neustále v strehu a pripravení.