Klonovanie hlasu pomocou umelej inteligencie zvyšuje počet súvisiacich podvodov, preto sme si sadli s Jakeom Moorom zo spoločnosti ESET, aby sme sa porozprávali o tom, ako k nim pristupovať a ako vyzerá budúcnosť odhaľovania čoraz kvalitnejších deepfakov.
Naleteli by ste falošnému telefonátu od generálneho riaditeľa, v ktorom vás žiada o prevod peňazí? Ako zistil náš kolega Jake Moore, možné to určite je. Keďže počítače s voľnou výpočtovou kapacitou prijímajú čoraz viac trénovacích dát, deepfaky sa neustále zlepšujú. Keď ich nakŕmite dlhým prejavom od generálneho riaditeľa, osvoja si skloňovanie, tón a ďalšie nuansy reči, vďaka ktorým nakoniec môžu znieť celkom presvedčivo.
V USA bola napríklad vyhlásená súťaž týkajúca sa riešenia podvodov s klonovaním hlasu, v ktorej účastníci mali nájsť spôsoby, ako vybaviť obranné mechanizmy tak, aby znemožnili súvisiace útoky. V rámci výzvy, ktorú vyhlásila Federálna obchodná komisia, mali súťažiaci využiť všetky dostupné technológie, aby zabránili takýmto podvodom a vyhrali cenu 25 000 dolárov.
Zámerom súťaží bolo doteraz všetko od návrhov vesmírnych skafandrov cez samojazdiace vozidlá až po solárne technológie. V súčasnosti sa takéto výzvy snažia zvýšiť záujem potenciálnych účastníkov o oblasť ochrany pred deepfakmi s cieľom ochrániť spotrebiteľov pred škodami spôsobenými klonovaním hlasu pomocou umelej inteligencie. Každý súťažiaci na portáli zaregistroval svoj nápad a následne už len mohol dúfať, že sa práve jeho vízia stane tou výhernou. Zaujímalo nás, čo na túto problematiku hovorí Jake, a tak sme sa ho spýtali.
Budú firmy schopné brániť sa proti tejto hrozbe využitím súčasných, bežne dostupných technológií (a ak áno, akých)?
Nanešťastie si nemyslím, že odpoveďou na boj proti tomuto rozvíjajúcemu sa problému sú zatiaľ technológie. Stále sa nachádzame v počiatočnej fáze novej éry umelej inteligencie a mnohé podniky sa ešte len orientujú v rozlišovaní jej dobrého, zlého a nebezpečného využívania a svojich možností. Technológie sa neustále vyvíjajú s cieľom pomáhať ľuďom, ktorí to potrebujú, ale rýchle tempo pozitívneho napredovania v počiatočných fázach novej technológie nemusí byť schopné držať krok so vznikom jej nezákonného používania na podvodné účely.
Platí to aj pre jednotlivcov, napríklad v súvislosti s podvodmi na dôchodcov, podvodnými románikmi a podobne?
Umelá inteligencia umožnila podvodníkom vykonávať ich činnosti v oveľa väčšom rozsahu ako doposiaľ, čo znamená, že ich záber sa rozšíril. Ak je cieľom útokov viac ľudí, podvodníci sa ešte väčšmi obohatia, a to bez toho, aby museli vynaložiť akékoľvek úsilie navyše.
Jednotlivci však musia byť aj naďalej obozretní, pokiaľ ide o podvody, či už tie, s ktorými sa stretávame bežne, alebo o aktuálne trendy. Najmä v súvislosti so zrodom klonovania hlasu a uveriteľných deepfakov si ľudia musia prestať myslieť, že sa dá veriť všetkému, čo vidia alebo počujú. Informovanosť o uskutočniteľnosti podobných podvodov umožňuje jednotlivcom pridať na ostražitosti, intenzívnejšie overovať legitímnosť takejto komunikácie a nebáť sa spochybňovať svoje konanie.
Na internete je veľa usmernení a rád týkajúcich sa takýchto podvodov a ľudia musia neustále prijímať najnovšie informácie, aby boli čo najlepšie chránení.
Ako môžu firemné tímy bojujúce proti podvodom zamedziť útoky na používateľov/zákazníkov, a kto by mal platiť, ak im naletia?
Tímy zamerané na boj proti podvodom musia všetkým členom organizácie štandardne a prioritne ponúkať školenia, ktoré je potrebné opakovať na každoročnej báze, ako aj ad hoc v prípade potreby. Simulované útoky a cvičenia z oblasti kybernetickej ochrany zasa pútavým spôsobom sprostredkúvajú dôležité informácie a vážnemu problému dodávajú zaujímavú dynamiku, vytvárajúc tak bezpečné prostredie, v ktorom je možné sa pomýliť.
Keď si ľudia na vlastnej koži vyskúšajú priebeh moderného útoku a zistia, kam až táto nová technológia dokáže zájsť, je pravdepodobnejšie, že si spomenú na poskytnuté rady v čase skutočného útoku. Umelá inteligencia je stále veľmi pôsobivá, takže pozorovaním fungovania deepfakov v bezpečnom prostredí možno vidieť potenciálne nebezpečné výsledky, ktoré z nich môžu vzísť, a to bez toho, aby ľudia prepadali prílišnému strachu.
Očividne ide o hru na mačku a myš, takže kto vyhrá?
Narúšanie kybernetickej bezpečnosti sa všeobecne dá prirovnať k naháňačke medzi policajtmi a lupičmi, pričom títo zlodeji sú zvyčajne o pár krokov vpred. So zdokonaľovaním technológií však musíme dbať na to, aby sme nezostali pozadu a nedali podvodníkom ešte väčší náskok.
Je dôležité ľudí vybaviť správnymi nástrojmi a vedomosťami, ktoré im umožnia čo najlepšie bojovať proti nevyhnutným útokom, aby podvodníci nemali šancu zakaždým zvíťaziť. Jednotlivci a podniky získajú najlepšiu šancu brániť sa proti tejto novej vlne technologických hrozieb tak, že budú sledovať najnovšie vektory útokov a napredujúce podvody.
Jedno je isté: teoretickú rovinu sme už prekročili. Môžeme očakávať, že od roku 2024 podvodníci začnú veľmi rýchlo nachádzať nové automatizované spôsoby spúšťania hlasových útokov, najmä v reakcii na dôležité udalosti, pri ktorých vás nejaká dôveryhodná osoba „požiada“, aby ste niečo urobili. Jej žiadosť bude znieť presvedčivo a naliehavo, až budete mať pocit, že vás sluch určite neklame a naozaj komunikujete s tým, za koho sa útočník vydáva, no aj tak mu môžete naletieť.
Ďakujeme za tvoj čas, Jake.
Jake Moore je špecialista digitálnej bezpečnost spoločnosti ESET UK. Predtým pracoval 14 rokov pre políciu v Dorset v Spojenom kráľovstve, kde sa primárne venoval vyšetrovaniu počítačovej kriminality v jej digitálnej forenznej jednotke zameranú na celý rad trestných činov od podvodov po nezvestné deti. Neskôr sa stal konzultantom pre kybernetickú bezpečnosť pre policajný zbor.