Un studiu excelent: cine manipulează pe Facebook? Toți – inclusiv cei care folosesc studiul ca muniție
:format(webp):quality(80)/https://www.puterea.ro/wp-content/uploads/2025/09/asaltul-manipularii-electorale.jpg)
Am parcurs studiul „Behind the Screen: The Use of Facebook Accounts With Inauthentic Behavior During European Elections” din Media and Communication (septembrie 2025) și e aici destul material de calitate care merită un articol cu substanță. Hai să-l desfacem, să-l analizăm critic, și să vedem ce semnifică pentru România, democrație și discurs public.
Ce arată studiul
Autorii – Bogdan Oprea, Paula Pașnicu, Alexandru-Ninel Niculae, Constantin-Cozmin Bonciu și Dragoș Tudorașcu-Dobre (Universitatea din București) – au urmărit comportamentul conturilor Facebook în campania pentru alegerile europarlamentare din România (10 mai – 8 iunie 2024).
Iată câteva constatări cheie:
- Au folosit “Authenticity Matrix” (o unealtă metodologică) pentru a detecta comportamente inautentice ale conturilor: adică share-uri excesive, probabil coordonate, conturi hiperactive.
- Definiții esențiale:
- hyperactive users sunt cei care distribuie același post de 4 sau mai multe ori, din același cont.
- super-active users sunt cei care distribuie același post de 10 sau mai multe ori.
- Rezultatele: în unele postări până la 45% din share-uri au provenit de la conturi hiperarivate (adică share-uri multiple de la același cont) iar 33.9% de la conturi super-active.
- Identificarea trăsăturilor comun cunoscute/relevante ale acestor conturi „suspecte” (date din profiluri publice) – nu sunt reproduse aici integral, dar auto-indicii de hiperactivitate sunt utile în diagnostic.
- Concluzia autorilor: deși Meta (Facebook) avea politici teoretice contra manipulării opiniei publice, realitatea e că măsurile de reducere a acestor comportamente inautentice nu sunt suficiente pentru a limita impactul lor.
Cum să interpretăm aceste date: implicații și surprize
Studiul aduce la lumină câteva lucruri pe care poate nu le vedeau suficient de mulți:
- Manipularea digitală nu e doar „fake news”, e și „fake engagement”
Mulți discută doar despre dezinformare/știri false, dar acest studiu arată că „manipularea” se face și prin modul în care conținutul este amplificat – share-uri exagerate, multiple, conturi care revin la același mesaj. Practic, nu trebuie să ai conținut fals ca să influențezi: e suficient să ai rețele de distribuție inautentice. - Proporția e mare
Cifrele sunt surprinzătoare: 45% share-uri vin din conturi hiperactive. Aproape jumătate din amplificare, în unele cazuri. Dacă îți imaginezi o postare politică importantă, dacă jumătate din share-uri vin de la conturi care probabil sunt automatizate sau la limita între cont autentic și cont manipulativ, înțelegi puterea lor de a contamina conversația. - Caracteristicile conturilor hiperactive oferă indicii concrete – dacă observi tipare de share repetitiv, profiluri probabil automate, clipuri/geometrie de distribuire similară, poți să ridici semne de întrebare. Adică e un manual parțial de detectare pentru utilizatorii avizați și chiar pentru instituțiile de supraveghere.
- Reglementările și platformele stau în urma fenomenului real
Studiul spune că Meta are standarde, dar practic aplicarea lor e insuficientă. E diferența între reguli pe hârtie și cum se comportă platforma, inclusiv algoritmii, în timp real.
Critici și limite
Nimic nu e perfect, și studiul are limitările lui:
- Detecția nu înseamnă întotdeauna intenție malefică. Conturile hiperactive pot fi și persoane foarte entuziaste, susținători devotați, repetând share-uri – nu toate sunt automatizate sau „boți”. Studiul face distincția parţială, dar rămâne riscul de a eticheta cu ușurință conturi autentice drept suspecte.
- Impactul exact al share-urilor hiperarivate: deși procentajele sunt mari, nu tot ce se share-uiește are efect electoral. E diferență între vizibilitate, influență reală în decizia de vot, persuasiune etc.
- Aplicabilitate: studiul e făcut pentru Romania în perioada specifică, pe Facebook, pentru campania europarlamentară. Alte contexte, alte platforme, alte țări pot avea dinamici diferite: Twitter/X, TikTok, Instagram etc.
Relevanța pentru România și discursul nostru politic
Aceste ”detalii” nu sunt teoriile abstracte; ele au consecințe clare pentru cum funcționează democrația și opinia publică în România:
- Polarizarea și discursul toxic devin amplificate nu doar de idei, dar de repetarea lor. Un mesaj politic extremist sau conspirativ nu trebuie să fie sofisticat dacă are supra-amplificare. Dacă 33-45% din distribuție vine din rețele de conturi hiperactive, mesajele se pot transforma în virale fără să treacă prin filtrul critic.
- Campaniile politice pot – și probabil o fac – să exploateze aceste conturi. E o formă de soft power intern, o metodă de propagandă domestică, de manipulare discretă, dar eficientă.
- Cetățenii nu sunt (?) praf, ignoranți: dar mulți nu sunt echipați să distingă între share de la un cont autentic și distribuție algoritmică sau coordonată. Lipsa de transparență și semnalizare face ca fenomenul să fie invizibil pentru marea majoritate.
- Platformele (Meta etc.) au obligații sociale, nu doar comerciale: să asigure integritatea conversațiilor politice. Dar punerea în practică a regulilor, filtrarea conținutului suspect și pedepsirea conturilor false sau manipulatoare sunt încă serioase carențe.
Ce putem propune: soluții inteligente
Pornind de la concluziile studiului și de la experiența practică a României, iată ce credem noi că s-ar putea face pentru a limita impactul negativ al comportamentelor inautentice:
- Reglementare și transparență
- Legislație care impune platformelor să ofere rapoarte publice detaliate privind distribuția postărilor politice: câte share-uri vin de la conturi cu caracteristici de hiperactivitate/inactivitate, câte provin de la conturi recent create etc.
- Cerințe de transparență pentru reclame politice și boosting plătit: cine plătește, cine amplifică, cum e targetat.
- Filtrare și semnalizare pe platforme
- Algoritmi mai transparenți: Facebook să marcheze vizibil share-urile repetate de la același cont (în special cele care apar de multe ori într-un timp scurt).
- Moderare proactivă: nu doar raportări de utilizatori, ci sisteme automate + revizuire umană care să identifice conturile cu tipare suspecte și să le limiteze vizibilitatea.
- Etichetare vizuală: postări cu share semnificativ de la conturi „super-active” să poarte avertisment sau etichete care să spună „o parte din distribuții provin de la conturi hiperactive recomandate de algoritm”.
- Alfabetizare digitală a publicului
- Educație media în școli: cum să recunoști amplificarea artificială, conturile automate sau cele manipulatoare.
- Campanii de informare publică înainte de alegeri: cum funcționează „share-urile automate”, ce trebuie să verifici (profil, număr de share-uri făcute din același cont etc.)
- Susținere academică și monitorizare independentă
- Mai multe studii regionale și performative care să compare efectele share-urilor inautentice cu decizia de vot, polarizare etc.
- ONG-uri și jurnaliști care să monitorizeze implicit aceste tipare și să le aducă în atenția publicului.
- Măsuri legislative și sancțiuni
- Posibilă sancționare a conturilor false/manipulatoare, dacă se demonstrează că fac parte din campanii de influență politică.
- Amenzi pentru platforme care nu respectă standardele de transparență sau care nu intervin atunci când li se semnalează comportamente inautentice.
Posibile efecte nedorite și riscuri
Noaptea are și ea umbre, și soluțiile vin cu dileme:
- Risc de supramoderare / cenzură: dacă platformele devin prea agresive, pot închide conturi legitime, pot reduce libertatea de exprimare sau pot penaliza activiști politici autentici.
- Retorica anti-control poate fi exploatată politic: politicieni autoritari pot invoca „cenzură” și „distrugerea libertății de opinie” ca să se pozitioneze drept martiri ai libertății.
- Tehnologia detectării nu e perfectă: algoritmii greșesc, datele publice pot fi insuficiente, și conturile „suspecte” pot fi doar entuziaști cu acțiune mare, nu coordonați din spate.
- Costuri de implementare: legislație, infrastructură de monitorizare, angajați, verificări – toate necesită resurse și voință politică.
Verdict aproape final
Studiul „Behind the Screen…” nu e doar util, e esențial pentru România. Ne arată cu cifre clare cât de mult discursul public, în special în campanii electorale, e afectat de amplificare artificială.
Da, există manipulare digitală, dar cea mai periculoasă nu e propaganda clasică, ci politica făcută prin rețele, share-uri și conturi hiperactive. Dacă nu reacționăm inteligent, cu reglementare, transparență și educație media, riscăm ca deciziile electorale să fie influențate mai mult de aparențe și de ecourile digitale decât de argumente reale și dezbateri serioase.
Cine, cât, cum: manipularea prin conturi hiperactive în campania europarlamentară
Studiul arată că mai multe postări politice, de la diferite partide, au avut distribuiri exagerate prin conturi hiperactive sau super-active. Nu toate partidele au fost identificate ca fiind în aceeași măsură implicate, dar datele permit câteva estimări și concluzii:
Partidele implicate & clasele de amplificare
- Partidele de pe spectrul polar — cele cu discurs mai populist, mai radical sau mai clar polarizant — au avut tendința de a fi mai bine “ajutate” de conturi hiperactive. Acestea sunt partide care investesc în rețele sociale, dar și în activitatea online de partid, grupuri de susținători online etc.
- Alte partide mai “moderat centrate” sau care au discursuri mai rezervate au avut, în general, un procent mai mic din amplificare provenind de la conturi super-active / hiperactive.
Clase de amplificare (“cine și cât”)
- În cazul unor postări cu mesaje puternice, care polarizau (crize, retorica anti-UE, anti-migrație, identitate națională etc.), s-a observat că până la 45% din share-uri provin de la conturi hiperactive. Asta înseamnă că aproape jumătate din distribuție nu este naturală, nu vine din rețeaua authentic normală de susținători „rari”.
- De asemenea, aproximativ 33-40% din share-uri erau de la conturi super-active (adică conturi care distribuiau același post de 10+ ori).
Cum au operat aceste conturi
- Reutilizarea repetată a acelorași mesaje: conturi care distribuiau același mesaj/postare de mai multe ori, nu doar o dată.
- Timpi de distribuție concentrați: multe share-uri în intervale scurte de timp, ceea ce sugerează fie mobilizare coordonată fie utilizarea unor scripturi / roboți.
- Profiluri suspecte: conturi cu activitate mare doar în campanii, conturi care interacționau exagerat cu conținut polarizant, dar care nu aveau istoric/activitate diversă / credibilitate mare.
Clasamentul manipulării: cine pare să fi profitat cel mai mult (pentru cine s-ar putea aplica)
Studiul nu face un clasament explicit “Partid A vs Partid B”, dar prin analiza postărilor care au avut cele mai mari proporții de share-uri hiperactive/super-active poți deduce:
- Partide populiste / naționaliste / cele cu mesaje centrate pe identitate / anti-sistem tind să fie în topul beneficiilor. Discursurile lor polarizatoare generează emoție, share-uri ușor, angajament ridicat – ceea ce le face “material” ideal pentru amplificare artificială.
- Partide de opoziție sau cele mai “outsider” profită mult de pe urma acestui tip de amplificare: pentru că nu au acces la mediatizare tradițională la fel de facil, pot să folosească rețelele sociale și conturile hiperactive pentru a crește vizibilitatea.
- Partidele stabilite, centrate, mai puțin radicale – ele suferă la amplificare dar uneori plătesc pentru boosting sau dau share prin simpatizanți, dar nu la nivel atât de exponențial ca celelalte.
Importanța acestei distincții: ce înseamnă pentru alegeri și opinia publică
Partea asta “cine cât” nu e doar statistică: indică cine are strategii de manipulare mai agresive și cine investește mai mult în “eco-camuflaje” de distribuire falsă.
- Un partid care reușește să își dubleze vizibilitatea prin conturi super-active are avantaj de expunere – mesajele lui circulă mai mult, apar mai des în newsfeed-urile oamenilor, cresc impresia de masă de susținere.
- Dacă publicul nu sesizează că un procent mare din distribuții sunt false/coordonate, legitimează discursuri extreme sau polarizante ca fiind “normal vocea poporului”.
Studiul despre manipulare devine el însuși obiect de manipulare
Paradoxul e că un studiu academic menit să explice cum funcționează manipularea pe Facebook riscă să fie el însuși manipulat în spațiul public. Dacă îl citești cu atenție, vezi cifre, tipologii, avertismente metodologice. Dacă îl citești cu interes politic, vezi doar „USR pe primul loc” sau „AUR domină”. Restul dispare.
Aici e marea problemă:
Presa, în loc să preia concluziile în ansamblul lor și să le explice publicului, extrage bucata convenabilă finanțatorului sau simpatiei redacționale. Rezultatul? Studiul nu mai e o oglindă a realității, ci o bâtă de campanie. Fiecare parte îl folosește ca muniție, pentru a lovi adversarul, nu pentru a înțelege mecanismul manipulării digitale.
Astfel, adevărul științific se fracturează în adevăruri parțiale, servite pe tavă după rețeta clasică: „noi avem dreptate, ceilalți trișează”. Și în loc să corectăm viciile spațiului digital, ajungem să întărim polarizarea.
De fapt, poate cea mai importantă lecție a cercetării nu este că un partid sau altul a „ieșit pe primul loc”, ci că suntem atât de vulnerabili la manipulare încât chiar și studiile despre manipulare devin materie primă pentru manipulare. Și asta ar trebui să ne dea fiori.