
Platforma X, ktorú vlastní Elon Musk, čelí vyšetrovaniam zo strany regulačných orgánov po tom, ako jej chatbot Grok generoval explicitné deepfake obrázky, vrátane obrázkov žien a detí v plavkách a v spodnom prádle.
Podľa správy boli tieto obrázky vytvárané používateľmi pomocou generatívnych AI funkcií, pričom v niektorých prípadoch išlo o materiál, ktorý vyvoláva vážne obavy z hľadiska zákona.
Regulačné orgány v Európskej únii a Indii potvrdili, že situáciu preverujú, pričom podobné kroky podnikli aj úrady v Malajzii. V Spojených štátoch mimovládna organizácia zameraná na boj proti sexuálnemu vykorisťovaniu vyzvala federálne úrady, aby preverili, či platforma X a jej AI nástroje neporušili platné zákony.
Zneužitie AI neustále rastie
Ako upozorňuje Jake Moore, Global Security Advisor v spoločnosti ESET: „Ako sa technológie deepfake každým dňom zdokonaľujú, nevyhnutne rastie aj miera ich zneužívania. Útočníci ich využívajú na podporu svojich aktivít, no hlavným problémom je rýchlosť, akou sa deepfake obsah šíri online. Keď je technológia voľne prístupná, zneužívaný materiál sa môže šíriť ako požiar.“
Z pohľadu kybernetickej bezpečnosti je mimoriadne znepokojujúce, že obete často nemajú žiadnu kontrolu nad tým, ako sú ich fotografie či videá zneužité.
„Bez vlastného zavinenia sa môžu ľudia stať terčom technológie, ktorá nemá dostatočné ochranné mechanizmy, čo z nej robí nebezpečný nástroj,“ dodáva Moore. Zvlášť alarmujúce je, ak sa podobné experimenty vykonávajú bez súhlasu dotknutých osôb a bez jasných upozornení či preventívnych opatrení zo strany platforiem.
ODPORÚČANÝ ČLÁNOK
Investičné podvody využívajúce deepfake technológie sú čoraz rozšírenejšie. Nenechajte sa nachytať!
Kto preberá zodpovednosť?
Tento prípad opäť otvára zásadnú otázku zodpovednosti technologických platforiem za obsah, ktorý umožňujú vytvárať a šíriť. Diskusia sa čoraz viac posúva k potrebe aktívnych ochranných mechanizmov, vyššej transparentnosti a jasných pravidiel už pri návrhu a nasadzovaní AI systémov.
„Platforma X musí niesť zodpovednosť za svoju AI a zaviesť primerané ochranné opatrenia. Tie by pritom bolo možné implementovať relatívne jednoducho,“ uzatvára Jake Moore.
Tento prípad je jasným varovaním, že bez etických hraníc, technických poistiek a aktívneho dohľadu sa môže umelá inteligencia stať nástrojom vážneho zneužívania. Pre kybernetickú bezpečnosť to znamená jediné: prevencia, regulácia a zodpovednosť musia držať krok s technologickým pokrokom.

Komplexná ochrana vášho digitálneho života
Komplexná ochrana vášho digitálneho života. Vyberte si úroveň podľa svojich potrieb.