De ce 2026 este cel mai periculos an din istoria internetului
La începutul anului 2026, cercetătorii în securitate cibernetică de la Google au observat o nouă tactică alarmantă care apărea în cercurile criminalității cibernetice. Hackerii implementau o combinație de instrumente bazate pe inteligență artificială pentru a crea capcane împotriva cărora era aproape imposibil să te aperi, scrie The Independent.
Atacurile au folosit instrumentul de inteligență artificială Gemini de la Google pentru „dezvoltarea de instrumente, efectuarea de cercetări operaționale și asistență în etapele de recunoaștere”, înainte ca deepfake-urile bazate pe inteligență artificială să fie folosite pentru a păcăli victimele prin apeluri Zoom falsificate. Într-un caz, un grup legat de Coreea de Nord a folosit un deepfake generat de inteligență artificială al unui CEO proeminent pentru a păcăli victima și a o face să-i compromită securitatea computerului.
Metoda de atac face parte dintr-un nou val de infracțiuni online bazate pe inteligență artificială, care duce la niveluri record de atacuri cibernetice, escrocherii și pierderi financiare.
Această militarizare a inteligenței artificiale în arme transformă abilități odinioară unice umane, precum persuasiunea, imitația și codarea, în instrumente hipereficiente care pot fi accesate la cerere și personalizate pentru orice țintă.
Aceasta a condus la ceea ce unii experți descriu drept al cincilea val al criminalității cibernetice, contribuind la pierderi uriașe atât pentru companii, cât și pentru persoane fizice și făcând internetul mai periculos ca niciodată.
Inginerie socială bazată pe inteligență artificială
Atacurile de inginerie socială, precum phishing-ul – în care atacatorii păcălesc oamenii pentru a fura date sensibile sau bani – există de zeci de ani. Însă acum, instrumentele de inteligență artificială generativă permit atacatorilor să creeze atacuri de uzurpare a identității extrem de personalizate, imitând prietenii, membrii familiei sau colegii unei ținte cu o precizie fără precedent.
Acestea pot lua forma unor escrocherii hiperrealiste prin e-mail, apeluri vocale sintetice și chiar personaje false care apar în apelurile video.
„Ingineria socială bazată pe inteligență artificială este alarmant de eficientă”, a declarat Brian Sibley, director tehnic la firma de consultanță IT Espria, pentru The Independent .
„Atacatorii pot acum imita colegii, furnizorii sau directorii cu o precizie aproape perfectă. Singura apărare eficientă este monitorizarea continuă a comportamentului, identificând indicatorii subtili că ceva pur și simplu nu este în regulă.”
:format(webp):quality(80)/https://www.puterea.ro/wp-content/uploads/2026/03/ddd.png)
Sursa: The Independent
Un raport din ianuarie al firmei de securitate cibernetică Group-IB a constatat că infractorii cibernetici puteau achiziționa kituri de phishing pe dark web la prețul unui abonament Netflix. Aceste „kituri de identitate sintetică” oferă actori video bazați pe inteligență artificială, voci clonate și chiar seturi de date biometrice.
„Din prima linie a criminalității cibernetice, inteligența artificială oferă infractorilor o acoperire fără precedent”, a declarat Dmitri Volkov, CEO al Group-IB. „Inteligența artificială permite infractorilor să scaleze escrocheriile cu ușurință și să creeze hiper-personalizare și inginerie socială la un nou standard.”
Escrocherii cu „tăierea porcilor”
O modalitate prin care inteligența artificială accelerează atacurile de inginerie socială este prin așa-numitele escrocherii de tip „măcelărire a porcului”, în care infractorii petrec săptămâni sau chiar luni construind o conexiune emoțională cu ținta. Această perioadă, cunoscută sub numele de „îngrășarea porcului”, creează încredere, astfel încât victima este mai puțin sceptică atunci când i se prezintă o oportunitate de investiție falsă. Infractorul „taie” apoi porcul dispărând cu fondurile.
Apariția inteligenței artificiale generative a transformat tăierea porcilor dintr-un tip de fraudă de nișă într-o cale majoră pentru escroci. Escrocii inițiază de obicei contactul prin intermediul aplicațiilor de mesagerie, platformelor de socializare sau site-urilor de dating, înainte de a utiliza aplicații precum ChatGPT pentru a stabili relația.
Alte forme de inteligență artificială, cum ar fi tehnologia de schimbare a fețelor sau deepfake-urile, pot fi, de asemenea, folosite de infractori pentru a păcăli țintele să creadă că comunică cu o persoană cu un interes amoros sincer.
Cercetătorii au observat că sindicatele criminale din Asia de Sud-Est adoptă astfel de tehnici la scară largă pentru a atrage victimele, indiferent de barierele lingvistice sau de abilitățile tehnice.
Malware autonom
Infractorii cibernetici au descoperit o nouă modalitate de a utiliza inteligența artificială pentru a răspândi programe malware – software rău intenționat conceput pentru a fura date sau a deteriora sistemele informatice.
Acest nou tip de malware folosește modele lingvistice mari (LLM), precum Gemini de la Google, pentru a-și modifica codul în timp real pe măsură ce se răspândește, făcându-l aproape invizibil pentru software-ul antivirus tradițional.
:format(webp):quality(80)/https://www.puterea.ro/wp-content/uploads/2026/03/sdfd.png)
Sursa: The Independent
Într-un raport de informații despre amenințări din noiembrie, cercetătorii Google au descris-o ca pe o „nouă fază operațională a abuzului de inteligență artificială, care implică instrumente care modifică dinamic comportamentul în timpul execuției”.
Aceștia au explicat cum noile amenințări malware autonome, precum Promptflux, folosesc o funcție de „Robot Gânditor” care permite inteligenței artificiale să rescrie întregul cod sursă al malware-ului în fiecare oră pentru a evita detectarea.
„Deși Promptflux este probabil încă în fazele de cercetare și dezvoltare, acest tip de tehnică de ofuscare este un indicator timpuriu și semnificativ al modului în care operatorii rău intenționați își vor putea îmbunătăți campaniile cu inteligența artificială în viitor”, au remarcat cercetătorii.
Al cincilea val al criminalității cibernetice
Infractorii cibernetici au adoptat rapid instrumente de inteligență artificială în arsenalul lor, forțându-i pe cei responsabili de apărarea împotriva atacurilor să recupereze decalajul.
Escrocheriile bazate pe inteligență artificială au crescut cu 1.200% în 2025, conform unui studiu realizat de firma de securitate cibernetică Vectra AI, iar această creștere se așteaptă să continue și în 2026. Până în 2027, pierderile preconizate din fraudele bazate pe inteligență artificială ar putea ajunge la 40 de miliarde de dolari – față de 16,6 miliarde de dolari în 2024.
Fostul director al Interpol pentru criminalitate cibernetică, Craig Jones, a avertizat că inteligența artificială a crescut dramatic viteza, amploarea și sofisticarea cu care infractorii pot opera în 2026. De asemenea, detectarea și atribuirea atacurilor cibernetice este mai dificilă ca niciodată.
„IA a industrializat criminalitatea cibernetică”, a spus el. „Această schimbare marchează o nouă eră, în care viteza, volumul și uzurparea sofisticată de identitate au schimbat fundamental modul în care se comite infracțiuni și cât de greu este să le oprești.”