Fenomenul deepfake, un fel de fake news “pe steroizi” care a speriat giganții din tehnologie înainte de alegeri

Publicat: 13 sept. 2020, 08:00, de Raluca I. Heroiu, în News , ? cititori
Fenomenul deepfake, un fel de fake news “pe steroizi” care a speriat giganții din tehnologie înainte de alegeri

“Deepfake” sau un fake-news pe steroizi așa cum l-au denumit specialiștii în amenințări informatice, acest fenomen reprezintă un pericol real pentru mase și constituie o unealtă propice pentru cei ce-și propun să dezinformeze și să manipuleze. Este doar o chestiune de timp până când acest tip de materiale false audio/video vor ajunge să producă efecte și în România. Fenomenul a apărut în 2018, iar acum, în prag de alegeri, giganții din domeniul tehnologiei încearcă să lupte pentru a preveni răspândirea de informații false.

Ce este un deepfake?

Deepfake este o alăturare a doi termeni, deep learning (tehnica folosită în inteligența artificială care ajută computerele să învețe prin exemple) și fake, care înseamnă fals. Altfel spus, un deepfake este un material audio sau video care a fost falsificat cu ajutorul inteligenței artificiale. Grav este însă faptul că aceste deepfake-uri sunt foarte greu de recunoscut.

Practic dintr-o glumă, fenomenul a apărut în urmă cu doi ani pe rețeaua Reddit. Un utilizator anonim care activa sub numele de „deepfakes” producea astfel de video-uri truncate folosindu-se de chipurile unor actori celebri.

Pericol real

Văzut ca un pericol real, fenomenul deepfake este cel mai resimțit în Statele Unite ale Americii. Chiar fostul președinte Barack Obama a fost victima unui astfel de material. Teama este legată acum de faptul că, dintr-un instrument folosit inițial pentru divertisment, deepfake-ul poate fi acum o unealtă ce se poate folosi în timpul campaniilor electorale, influențând opinia publică pentru alegerea unei candidat preferat.

„Fenomenul deepfake poate fi privit ca fake news pe steroizi”, ne spune  Filip Truță, analist în securitate informatică în cadrul companiei Bitdefender.

„Acest tip de conținut poate avea un puternic impact vizual și emoțional, poate influența opinia publică și poate fi folosit pentru răzbunare sau pentru a defăima persoane publice. La început, publicul a fost șocat de aceste materiale video aparent 100% realiste și extrem de convingătoare. Ulterior, când o serie de deepfakes au fost demascate, publicul s-a educat cu privire la fenomen”, a declarat specialistul pentru PUETREA.ro.

Cu cât publicul este mai expus la deepfakes, cu atât acesta va fi mai sceptic la orice tip de conținut care i se servește. Cu alte cuvinte, abundența deepfakes reduce încrederea în materialele video și poate crește circumspecția cu privire la veridicitatea acestora, mai explică analistul.

Chiar dacă un deepfake este în cele din urmă deconspirat, este suficient ca acesta să fie văzut de suficient de multe persoane într-un timp suficient de lung cât să schimbe macazul opiniei publice într-o direcție sau alta. Uneori, câteva ore în care materialul e perceput ca fiind real pot fi de ajuns”, spune Filip Truță.

Pericolul este perceput ca unul real, dovadă stă faptul că giganții tehnologici Microsoft și Facebook au preluat frâiele fără presiuni de la Guvern, și au încercat sâ combată fenomenul în plin an electoral.

În lupta cu deepfakes

Giganții din social media au început deja să lucreze pentru combaterea acestui fenomen. Microsoft de pildă, a dezvoltat un nou tool ce se numește “Microsoft Video Authenticator” și depistează deepfake-ul. Compania vrea să limiteze fake news-urile ce pot apărea înaintea alegerilor prezidenţiale, din noiembrie, din Statele Unite.

Software-ul este gratuit și analizează clipuri video și fotografii, livrând la final un scor care reflectă probabilitatea ca materialul respectiv să fi fost manipulat într-o formă sau alta.

Cu toate eforturile din partea giganților din domeniul tehnologiei, pentru ca lupta împotriva deepfake să fie eficientă este nevoie și de disponibilitatea oamenilor de a se informa.

În timp ce giganții tehnologici lucrează la combaterea deepfake, publicul larg are obligația de a se informa cu privire la aceste amenințări și de a fi vigilenți oricând ceea ce văd pare senzațional sau relevă o schimbare abruptă în discursul public al unei persoane față de opinii exprimate anterior”, a declarat pentru PUTEREA.ro Filip Truță, specialist în amenințări informatice la Bitdefender.

Dacă un fake-news ni se părea până în prezent greu de demascat, un deepfake poate trece neobservat de cineva care nu este familiar cu acest concept. Un motiv de îngrijorare în constituie faptul tehnologia evoluează rapid, ceea ce face ca un deepfake să fie și mai greu de identificat

„Un fake-news poate fi demascat rapid prin verificarea surselor. Un expert poate depista „artefacte” vizuale care dau de gol un deepfake. Însă, dacă nu plecăm de la premisa că ceea ce consumăm este un potențial fals, cu toții avem tendința sa luăm conținutul de bun. În viitor, această conduită riscă să devină, din păcate, naivă. Încă un motiv de îngrijorare îl constituie faptul că tehnologia din spatele deepfake evoluează atât de rapid încât depistarea unui „fake” devine din ce în ce mai dificilă, chiar și pentru experți. Conținutul de tip deepfake necesită algoritmi de inteligență artificială pentru a fi creat. Depistarea unui fake se poate face tot prin tehnologii care au la bază inteligență artificială”, a explicat specialistul.

România, încă ferită de deepfakes

Fenomenul ia amploare ușor ușor în fiecare stat, România fiind deocamdată ferită de acest tip de conținut fals. Asta nu înseamnă că riscurile ca acest concept relativ nou de fake news sunt inexistente.

„România este încă ferită de deepfakes suficient de convingătoare să influențeze opinia publică. Este doar o chestiune de timp până când abundența materialelor deepfakes va crește, nu doar în România, ci pe întreg mapamondul. Tentația de a folosi această tehnologie pentru câștig propriu este foarte mare în rândul persoanelor cu diferite interese. Deocamdată, însă, nu se poate vorbi de un fenomen de amploare în România„, a mai declarat Filip Truță.