UE anchetează X pentru deepfake-uri sexuale cu femei şi copii, generate cu Grok
Un nou front de conflict se deschide între Bruxelles și imperiul tehnologic al lui Elon Musk, după ce autoritățile europene au declanșat o anchetă privind utilizarea inteligenței artificiale pe platforma X. De această dată, miza nu este dezinformarea politică, ci un fenomen mult mai grav: răspândirea de imagini deepfake cu conținut sexual, inclusiv materiale care pot constitui abuz sexual asupra copiilor.
Ancheta Comisiei Europene asupra X și Grok AI
Potrivit informațiilor publicate de Bloomberg, Comisia Europeană investighează compania X, deținută de Elon Musk, din cauza suspiciunilor că nu a reușit să limiteze riscurile generate de chatbotul său de inteligență artificială, Grok.
Ancheta vizează modul în care platforma a evaluat și a atenuat riscurile asociate implementării Grok în cele 27 de state membre ale Uniunii Europene, în special în ceea ce privește generarea și distribuirea de imagini deepfake sexualizate.
Un fenomen viral cu efecte globale
Scandalul imaginilor generate de Grok a explodat la nivel mondial la începutul acestui an. Pornind de la comenzi extrem de simple, precum „Grok, pune-o în bikini”, mii de utilizatori ai rețelei X au reușit să creeze imagini în care femei, adolescente și chiar copii apar dezbrăcați, fără consimțământul acestora.
Conținutul a fost distribuit rapid pe platformă, declanșând reacții dure din partea organizațiilor pentru protecția copiilor, a experților în siguranță online și a autorităților de reglementare din mai multe țări.
„O formă violentă și inacceptabilă de degradare”
Comisia Europeană a transmis că investighează dacă X a respectat obligațiile prevăzute de Legea serviciilor digitale (DSA), act normativ care impune platformelor online să limiteze conținutul ilegal și dăunător.
„Deepfake-urile sexuale neconsensuale cu femei și copii sunt o formă violentă și inacceptabilă de degradare”, a declarat Henna Virkkunen, comisarul european pentru tehnologie.
Oficialul a subliniat că platformele au obligația legală de a preveni astfel de abuzuri, nu doar de a reacționa după ce conținutul devine viral.
Investigații paralele în mai multe state
Presiunea asupra X nu vine doar din partea Uniunii Europene. Autoritatea britanică de reglementare în domeniul comunicațiilor, Ofcom, investighează deja dacă platforma a încălcat legislația privind siguranța online din Marea Britanie.
De asemenea, Franța și India au inițiat demersuri separate, acuzând Grok de generarea ilegală de imagini sexualizate ale unor persoane reale, fără consimțământul acestora. Cazurile au atras atenția la nivel internațional asupra modului în care inteligența artificială este integrată în rețelele sociale fără mecanisme de control suficiente.
Reacția companiei X
X, care este o filială a companiei de inteligență artificială xAI, a declarat anterior că elimină conținutul ilegal, inclusiv materialele ce implică abuzuri sexuale asupra copiilor. Platforma susține că suspendă conturile implicate și cooperează cu autoritățile de aplicare a legii atunci când este necesar.
Cu toate acestea, autoritățile europene analizează dacă aceste măsuri sunt suficiente sau dacă ele au fost aplicate prea târziu, după ce imaginile problematice au circulat deja pe scară largă.
Un istoric tensionat între UE și X
Ancheta asupra Grok vine într-un context deja tensionat. Anterior, Uniunea Europeană a sancționat X cu 120 de milioane de euro pentru încălcări ale DSA, inclusiv pentru modul în care a fost gestionat sistemul de bifă albastră, considerat înșelător pentru utilizatori.
Autoritățile europene au mai constatat că platforma a refuzat accesul experților la anumite date și nu a respectat obligațiile privind transparența publicității. Administrația Trump a criticat dur aceste sancțiuni, catalogându-le drept un atac asupra libertății de exprimare.
Conform DSA, intrată în vigoare în 2023, Uniunea Europeană poate aplica amenzi de până la 6% din veniturile globale anuale ale unei platforme online care nu combate eficient conținutul ilegal sau nu respectă regulile de transparență.