Apple, chemată în instanță în SUA, pentru că nu ar fi împiedicat distribuirea de materiale cu abuz sexual asupra copiilor
Un nou front juridic se deschide în Statele Unite împotriva unuia dintre cei mai mari jucători din industria tech. Statul West Virginia a intentat un proces împotriva Apple, acuzând compania că nu a prevenit stocarea și distribuirea de materiale cu abuz sexual asupra copiilor (CSAM) prin dispozitivele iOS și serviciile iCloud, potrivit CNBC.
Acțiunea în instanță readuce în prim-plan dezbaterea tensionată dintre protecția confidențialității utilizatorilor și obligația platformelor de a combate conținutul ilegal.
Acuzațiile procurorului general
Procurorul general al statului, John JB McCuskey, susține că Apple ar fi pus imaginea sa de apărător al vieții private și propriile interese comerciale înaintea siguranței copiilor. Potrivit acestuia, alte companii majore din tehnologie au adoptat măsuri mai ferme pentru a detecta și raporta conținutul ilegal.
În acest context sunt menționate Google, Microsoft și Dropbox, care utilizează sisteme precum PhotoDNA pentru identificarea imaginilor CSAM deja raportate autorităților.
Tehnologia PhotoDNA și mecanismul abandonat de Apple
Sistemul PhotoDNA a fost dezvoltat în 2009 de Microsoft și Dartmouth College. Tehnologia funcționează prin crearea unei „amprente digitale” a imaginilor cunoscute ca fiind ilegale, permițând compararea și identificarea automată a acestora pe platformele online.
În 2021, Apple a testat un mecanism propriu de detectare a CSAM, capabil să raporteze automat conținutul ilegal încărcat în iCloud către National Center for Missing and Exploited Children. Proiectul a fost însă abandonat după ce activiști pentru confidențialitate au avertizat că o astfel de tehnologie ar putea fi extinsă în viitor pentru supraveghere guvernamentală sau cenzură.
Critici și procese anterioare
Renunțarea la sistemul de detectare automată a generat reacții critice. În 2024, National Society for the Prevention of Cruelty to Children a acuzat Apple că nu monitorizează și nu raportează în mod adecvat materialele CSAM.
Tot în 2024, mii de supraviețuitori ai abuzurilor sexuale asupra minorilor au intentat un proces în California împotriva companiei, susținând că decizia de a abandona detectarea automată a contribuit la proliferarea materialelor abuzive pe platformele sale.
Ce solicită statul West Virginia
În acțiunea depusă în instanță, statul West Virginia cere despăgubiri punitive și obligarea companiei să implementeze soluții eficiente de detectare a CSAM. Dacă procesul va avea succes, Apple ar putea fi forțată să își modifice designul produselor sau politicile de securitate.
Într-un punct de vedere transmis prin e-mail către CNBC, Apple a declarat că protejarea utilizatorilor, în special a copiilor, este „centrală pentru ceea ce facem”. Compania a evidențiat funcțiile existente de control parental și sistemul Communication Safety, care intervine automat atunci când este detectată nuditate în mesaje, fotografii sau apeluri FaceTime.