De ce AI nu va fi niciodată complet sigur. Triada care poate fi exploatată de cei rău intenționați
:format(webp):quality(80)/https://www.puterea.ro/wp-content/uploads/2025/07/inteligenta-artificiala.jpg)
Chiar și cele mai avansate sisteme de AI ascund vulnerabilități fundamentale. Combinația dintre accesul la date externe, date private și posibilitatea de comunicare cu lumea exterioară creează o „triadă periculoasă” care nu poate fi eliminată complet, arată Puterea Financiară.
AI, un pericol mai mare decât credem
AI promite să revoluționeze modul în care lucrăm și comunicăm, oferind răspunsuri și soluții aproape instant. Dar această simplitate, care permite instruirea AI-ului prin limbaj natural, ascunde o vulnerabilitate critică: modelele lingvistice nu au discernământul necesar pentru a diferenția între instrucțiuni sigure și malițioase.
Un exemplu clasic: AI-ul poate fi instruit să rezume un document lung și să trimită rezultatul pe e-mail. Dacă documentul conține instrucțiuni ascunse pentru copierea fișierelor private și trimiterea lor către un hacker, sistemul le va executa fără să evalueze riscul.
Triada periculoasă a vulnerabilităților
Această problemă este cunoscută drept „triple periculoasă” sau „lethal trifecta” în domeniul AI și combină trei condiții care, împreună, generează riscuri majore:
- Expunerea la conținut extern: AI-ul poate accesa documente, e-mailuri și informații online, care nu sunt întotdeauna sigure.
- Accesul la date private: AI-ul poate citi fișiere locale, parole sau cod sursă.
- Capacitatea de comunicare cu lumea exterioară: AI-ul poate trimite e-mailuri, accesa site-uri web și împărtăși informații în afara sistemului.
Separat, aceste elemente pot fi gestionate relativ ușor. Problema apare atunci când se combină, oferind unei persoane rău intenționate posibilitatea de a fura date sau de a provoca pagube semnificative.
Exemple din practică
Cazul Microsoft Copilot ilustrează o vulnerabilitate parțial rezolvată: dacă documentele conțin instrucțiuni ascunse, AI-ul ar putea să le execute, riscând scurgerea de date confidențiale. Deși un patch a redus riscurile, problema nu poate fi eliminată complet, pentru că AI-ul trebuie să interacționeze cu informații externe pentru a fi util.
Un alt exemplu este „prompt injection”, identificat încă din 2022. Botul AI al DPD a răspuns cu limbaj vulgar la comenzi ascunse, demonstrând că sistemul poate fi manipulat fără acces la date sensibile. Dacă această vulnerabilitate ar fi combinată cu acces la date private și comunicare externă, efectele ar putea fi mult mai grave.
Cum putem reduce riscurile
Pentru a limita pericolele tripletei periculoase, experții recomandă:
- Evitarea combinării celor trei condiții: AI-ul sigur trebuie să gestioneze fie doar date interne, fie surse externe de încredere.
- Limitarea accesului la date sensibile: Modelele AI ar trebui tratate ca nesigure în ceea ce privește datele private.
- Blocarea comunicațiilor externe: Reducerea accesului AI-ului la internet și la trimiterea de mesaje scade riscurile de scurgere de informații.
Alte soluții includ folosirea a două modele AI separate — unul sigur, cu acces la informații sensibile, și unul nesigur, care gestionează sursele externe. Aceasta oferă un nivel de securitate, dar limitează funcționalitatea completă.