S rastúcim výskytom vyfabrikovaných obrázkov, videí a zvukových nahrávok, na ktorých sa objavujú skutočné osoby, sa hrozba záplavy dezinformácií poháňaných umelou inteligenciou (tzv. deepdaky) stáva čoraz väčším problémom.
Falošné správy dominujú volebným titulkom odvtedy, čo sa stali senzáciou počas súboja o Biely dom v roku 2016. Po ôsmich rokoch však pravdepodobne existuje väčšia hrozba: kombinácia dezinformácií a deepfakov, ktorá dokáže oklamať aj odborníkov. Je vysoko pravdepodobné, že nedávne príklady volebného obsahu vytvoreného pomocou umelej inteligencie – vrátane množstva obrázkov a videí, ktoré sa šírili v období pred argentínskymi voľbami a upraveného zvukového záznamu prezidenta USA Joea Bidena – boli predzvesťou toho, čo udrie v ešte väčšej sile.
V roku 2024 pôjde k volebným urnám približne štvrtina svetovej populácie. Narastajú preto obavy, že dezinformácie a triky vytvorené umelou inteligenciou by mohli byť použité podvodníkmi na ovplyvnenie výsledkov. Mnohí odborníci sa tiež obávajú dopadov prenikania deepfakov do mainstreamu.
Hrozba dezinformácií a deepfakov
Ako už bolo spomenuté, tento rok sa do volebných miestností chystá vyraziť najmenej dve miliardy ľudí. Tí si budú voliť svojich preferovaných zástupcov a vedúcich predstaviteľov štátu. Keďže dôležité voľby sa uskutočnia vo viacerých krajinách vrátane USA, Spojeného kráľovstva a Indie (ako aj v Európskom parlamente), politická situácia a smerovanie geopolitiky na nasledujúcich niekoľko rokov sa môže výrazne zmeniť.
Zároveň však Svetové ekonomické fórum (WEF) nedávno označilo misinformácie a dezinformácie za najväčšie globálne riziko nasledujúcich dvoch rokov.
Problémom deepfakov je, že táto technológia poháňaná umelou inteligenciou je momentálne dostatočne lacná. Zároveň je ľahko dostupná a výkonná na to, aby spôsobila veľké škody. Uľahčuje kybernetickým zločincom, vládnym aktérom a hacktivistom spúšťať presvedčivé dezinformačné kampane a viac ad hoc, jednorazových podvodov. Aj z tohto dôvodu WEF nedávno označilo misinformácie a dezinformácie za najväčšie globálne riziko nadchádzajúcich dvoch rokov. Zároveň ide o druhé najväčšie momentálne riziko po extrémnom počasí. Tvrdí to 1 490 odborníkov z akademickej obce, podnikateľskej a vládnej sféry, medzinárodného spoločenstva a občianskej spoločnosti, s ktorými WEF konzultovalo.
Správa varuje: „Umelý obsah bude v nasledujúcich dvoch rokoch mnohými spôsobmi manipulovať jednotlivcami, poškodzovať ekonomiky a rozbíjať spoločnosti. Existuje riziko, že niektoré vlády budú reagovať príliš pomaly a čeliť tak rozhodovaniu medzi prevenciou misinformácií a ochranou slobody prejavu.“
Vytváranie deepfakov
Problémom je, že nástroje ako ChatGPT a voľne dostupná generatívna umelá inteligencia (GenAI) umožnili širšiemu okruhu jednotlivcov zapojiť sa do vytvárania dezinformačných kampaní riadených deepfake technológiou. Útočníci si tak nemusia špiniť ruky ťažkou prácou. Majú viac času venovať sa vytváraniu požadovaných správ a ich šíreniu s cieľom zaistiť, aby sa tento falošný obsah dostal medzi ľudí.
V kontexte volieb môžu byť deepfaky jednoznačne použité na oslabenie dôvery voličov v konkrétneho kandidáta. Je predsa jednoduchšie niekoho presvedčiť, aby niečo nerobil, ako naopak. Ak sa priaznivci politickej strany alebo kandidáta nechajú ovplyvniť zmanipulovaným zvukovým alebo videovým záznamom, opozičné skupiny majú výhru vo vačku. V niektorých situáciách sa škodliví aktéri snažiť podkopať dôveru v celý demokratický proces, aby spôsobili víťazovi problémy s legitímnym vládnutím.
Podstatou tejto výzvy je jednoduchý fakt: keď ľudia spracovávajú informácie, majú tendenciu vyhodnocovať ich množstvo a ľahkosť pochopenia. To znamená, že čím viac obsahu s podobným posolstvom si pozrieme a čím ľahšie ho pochopíme, tým je väčšia šanca, že mu uveríme. Preto sa marketingové kampane zvyčajne skladajú z krátkych a neustále sa opakujúcich správ. Ak k tomu pripočítame skutočnosť, že deepfaky je čoraz ťažšie odlíšiť od reálneho obsahu, vzniká nám potenciálny recept na demokratickú katastrofu.
ODPORÚČANÝ ČLÁNOK
Ako bude vyzerať digitálna bezpečnosť v roku 2024?
Od teórie k praxi
Je znepokojivé, že deepfaky môžu mať vplyv na rozhodnutia voličov. Dokumentuje to aj tento čerstvý príklad: v januári 2024 obdržal neznámy počet primárnych voličov v New Hampshire zmanipulovaný automatizovaný hovor od prezidenta USA Joea Bidena. V zázname im zjavne odkázal, aby sa nedostavili na primárne voľby a namiesto toho si „ušetrili“ svoj hlas na novembrové voľby. Zobrazené číslo volajúceho bolo tiež sfalšované, aby to vyzeralo, že automatická správa bola odoslaná z osobného čísla Kathy Sullivanovej, bývalej predsedníčky Demokratickej strany, ktorá v súčasnosti vedie politický akčný výbor (tzv. PAC) na podporu Bidena.
Nie je ťažké si predstaviť, ako by sa takéto hovory dali využiť na odradenie voličov od účasti na primárkach pred novembrovými prezidentskými voľbami. Toto riziko bude obzvlášť akútne v tesnom hlasovaní, kde o výsledku rozhodne presun malého počtu voličov z jednej strany na druhú. Vzhľadom na to, že o výsledku volieb dokážu rozhodnúť už desiatky tisíc voličov v niekoľkých „kolísavých“ štátoch (tzv. swing states), môže takáto cielená kampaň spôsobiť nevýslovné škody. A keďže v uvedenom prípade sa šíri skôr prostredníctvom robotických hovorov než sociálnych médií, je ešte ťažšie sledovať alebo merať jej vplyv.
ODPORÚČANÝ ČLÁNOK
Zneužitie hlasu ESET experta: ako dokáže umelá inteligencia vykonať virtuálny únos?
Čo s tým robia technologické firmy?
YouTube aj Facebook vraj reagovali pomaly na niektoré deepfaky, ktoré mali ovplyvniť nedávne voľby. A to aj napriek novému zákonu EÚ, ktorý od firiem sociálnych médií vyžaduje, aby potláčali pokusy o manipuláciu volieb.
Organizácia OpenAI zasa uviedla, že bude implementovať systém overovacích značiek zavedených Koalíciou pre pôvodnosť a autentickosť obsahu C2PA pre obrázky generované modelom DALL-E 3. Technológia kryptografického vodoznaku, ktorú skúšajú aj spoločnosti Meta a Google, je navrhnutá tak, aby bolo ťažšie vytvárať falošné obrázky.
Stále však postupujeme pomaly. Existujú oprávnené obavy, že technologická reakcia na túto hrozbu bude príliš nedostatočná a oneskorená, keďže svet už zachvátila volebná horúčka. Ak sa budú deepfaky šíriť prostredníctvom robotických hovorov alebo v relatívne uzavretých sieťach, ako sú skupiny v aplikácii WhatsApp, bude ťažké rýchlo vystopovať a vyvrátiť akýkoľvek zmanipulovaný zvukový alebo videový záznam.
Teória tzv. kotvenia (anchoring bias) naznačuje, že prvá informácia, ktorú ľudia počujú, sa im vryje do pamäti, aj keď sa ukáže, že je nepravdivá. Ak sa tvorcovia deepfakov dostanú k voličom ako prví, nebude možné predvídať, kto napokon zvíťazí. V ére sociálnych médií a dezinformácií poháňaných umelou inteligenciou nadobúda príslovie „faloš má krídla a letí, a pravda sa za ňou vlečie“ úplne nový význam.
Spracoval: tím ESET
Autor: WeLiveSecurity – Phil Muncaster: Deepfakes in the global election year of 2024: A weapon of mass deception?