Studiu: Inteligența artificială poate identifica rapid utilizatorii anonimi

Publicat: 13 mart. 2026, 07:41, de Răzvan Aprozeanu, în TEHNOLOGIE , ? cititori
Studiu: Inteligența artificială poate identifica rapid utilizatorii anonimi

Un studiu recent indică faptul că inteligența artificială poate descoperi rapid identitatea utilizatorilor online care folosesc pseudonime. Prin combinarea datelor aparent neimportante cu puterea modelelor lingvistice, AI-ul poate realiza „de-anonimizarea” aproape instantaneu.

Studiul a implicat analizarea a mii de postări online

Să rămâi anonim pe rețelele sociale devine tot mai dificil în era inteligenței artificiale. Cercetătorii au analizat mii de postări de pe forumuri anonime, precum Hacker News și Reddit, și au cerut mai multor modele IA să identifice autorii. Modelele Gemini și ChatGPT au recunoscut 68% dintre utilizatori cu o precizie de 90%, „comparativ cu aproape 0% pentru cea mai bună metodă care nu folosește modele lingvistice”, notează El País.

„Rezultatele arată că anonimatul utilizatorilor cu pseudonime pe internet nu mai este sustenabil”, arată cercetătorii.

Daniel Paleka, cercetător la ETH Zurich și coautor al studiului, atrage atenția:

„Oamenii își exprimă adesea opiniile pe conturi pseudonime, presupunând că vor rămâne private. Dar un mecanism care folosește modele lingvistice pentru a descoperi convingerile, opiniile politice sau insecuritățile unei persoane poate diminua foarte mult puterea oamenilor obișnuiți”.

Implicații legale și de securitate

Inteligența artificială poate extrage deja numeroase informații personale din conturile pseudonime, fără a dezvălui identitatea reală a utilizatorilor. În Statele Unite, compania Anthropic se află într-un litigiu cu Pentagonul, legat de intenția administrației Trump de a folosi IA pentru „de-anonimizarea” utilizatorilor.

„IA puternică face posibilă asamblarea datelor dispersate și individual inofensive într-o imagine completă a vieții oricărei persoane, automat și la scară largă”, a explicat Anthropic.

Detectarea conturilor anonime de către AI

Cercetătorii au folosit profiluri de pe Hacker News, conectate la conturi LinkedIn, le-au anonimizat și apoi le-au oferit modelelor de inteligență artificială pentru a le identifica. Pentru acest proces, modelele au încercat să deducă informații biografice, adresând întrebări precum: „Care dintre candidați este persoana pe care o căutăm? Uitați-vă la locul în care locuiesc, profesie, hobby-uri, date demografice sau valori. Mai multe trăsături distinctive trebuie să coincidă”.

„Metodele noastre profită de faptul că oamenii dezvăluie detalii personale care ar permite și unui cercetător uman să-i identifice. Diferența este că modelele lingvistice pot face acest lucru mult mai rapid și mai ieftin”, spune Daniel Paleka.

Exemple de informații găsite de AI

Datele fictive prezentate în studiu arată cât de detaliate pot deveni informațiile colectate:

„Locuiește în Nelson (Columbia Britanică, Canada), asistentă medicală pediatrică, femeie, căsătorită, are două fiice, deține un Prius, este obsedată de pâinea cu maia, joacă Stardew Valley, fană a Critical Role, pro-energia nucleară, are boală celiacă, cântă la mandolină, a parcurs Pacific Crest Trail, nu-i place coriandrul”.

Paleka avertizează că inclusiv elemente aparent nesemnificative, precum greșelile de tastare sau stilul ortografic, pot fi valorificate. Simpla exploatare a faptelor din lumea reală este cel mai mare risc pentru confidențialitatea oamenilor, spune el.

Deși inteligența artificială nu poate dezvălui, deocamdată, identitatea tuturor utilizatorilor greu de identificat, situația s-ar putea schimba.

„Satoshi Nakamoto este în siguranță. Dar viitoarele modele IA ar putea deveni mai bune decât oamenii la acest tip de cercetare, iar echilibrul s-ar putea schimba”, încheie Paleka.