Hackerii chinezi și atacul cibernetic cu inteligență artificială: Controverse aprinse între experți privind rolul real al tehnologiei
Lumea securității cibernetice a fost zguduită recent de un anunț venit din partea companiei Anthropic. Aceasta a dezvăluit că un grup de spionaj chinez a utilizat sistemul său de inteligență artificială Claude pentru a automatiza o mare parte dintr-o campanie de atac cibernetic. Deși reprezentanții companiei au sugerat că operațiunea a atins un grad de automatizare de 90% ridicând semne de întrebare majore privind viitorul hacking-ului asistat de AI experții independenți sunt mult mai rezervați în a valida aceste cifre. Discuția s-a mutat rapid de la capacitatea tehnologică pură la modul în care infractorii cibernetici integrează aceste unelte în fluxul lor de lucru.
Scepticismul experților privind autonomia reală
Mai mulți specialiști în domeniu pun la îndoială afirmația conform căreia operațiunea a fost atât de autonomă pe cât susține Anthropic. Seun Ajao lector superior în știința datelor și AI la Universitatea Metropolitană din Manchester consideră că multe părți ale poveștii sunt plauzibile dar probabil exagerate, potrivit Live Science. El a explicat că grupurile susținute de stat folosesc automatizarea în fluxurile lor de lucru de ani de zile iar modelele lingvistice mari pot deja să genereze scripturi să scaneze infrastructura sau să rezume vulnerabilitățile.
Cu toate acestea Ajao a admis că descrierea oferită de Anthropic conține detalii care par veridice precum utilizarea descompunerii sarcinilor pentru a ocoli măsurile de siguranță ale modelului nevoia de a corecta constatările halucinate ale AI-ului și faptul că doar o minoritate dintre ținte au fost compromise. Totuși alți experți precum Katerina Mitrokotsa profesoară de securitate cibernetică la Universitatea din St. Gallen sunt la fel de sceptici cu privire la încadrarea atacului ca fiind unul cu autonomie ridicată. Ea susține că incidentul arată mai degrabă ca un model hibrid în care o inteligență artificială acționează ca un motor de orchestrare sub direcția umană.
Potrivit profesoarei deși Anthropic prezintă atacul ca fiind orchestrat de AI de la un capăt la altul atacatorii par să fi ocolit restricțiile de siguranță în principal prin structurarea sarcinilor malițioase ca teste legitime de penetrare și împărțirea lor în componente mai mici. Mitrokotsa a declarat că AI-ul a executat apoi cartografierea rețelei scanarea vulnerabilităților generarea de exploatări și colectarea acreditărilor în timp ce oamenii au supravegheat deciziile critice.
Bariere mai mici pentru criminalitatea cibernetică
Indiferent dacă gradul de automatizare a fost de 90% sau mai mic consensul experților este că pericolul real constă în altă parte. Îngrijorarea majoră este că orchestrarea condusă chiar și parțial de AI reduce bariera de intrare pentru grupurile de spionaj face campaniile mai scalabile și estompează responsabilitatea. Seun Ajao a avertizat că chiar dacă autonomia atacului respectiv a fost exagerată ar trebui să existe motive de îngrijorare citând barierele mult mai scăzute în calea spionajului cibernetic prin instrumente AI disponibile imediat scalabilitatea și provocările de guvernanță ale monitorizării și auditării utilizării modelelor.
Implicațiile sunt profunde deoarece adversarii pot utiliza instrumente AI destinate consumatorilor pentru a accelera recunoașterea pentru a comprima timpul de la scanare la exploatare și pentru a repeta atacurile mai repede decât pot răspunde apărătorii. Katerina Mitrokotsa a avertizat la rândul său că automatizarea bazată pe inteligență artificială ar putea remodela peisajul amenințărilor mai repede decât se pot adapta apărările noastre actuale.
Un viitor hibrid al amenințărilor
Scenariul cel mai probabil conturat de analiști este că nu a fost vorba despre un atac AI complet autonom ci despre o operațiune condusă de oameni și supraalimentată de un model AI care a acționat ca un asistent neobosit. Acesta a avut rolul de a îmbina sarcinile de recunoaștere de a redacta exploatări și de a genera cod la scară largă.
Atacul a demonstrat că adversarii învață să trateze AI-ul ca pe un strat de orchestrare iar apărătorii ar trebui să se aștepte la mai multe operațiuni hibride în care modelele lingvistice multiplică capacitatea umană mai degrabă decât să o înlocuiască. Chiar dacă inginerii Anthropic au reușit să blocheze această campanie din timp mesajul de bază al experților rămâne același și anume că următoarea campanie de acest fel s-ar putea să nu fie atât de ușor de oprit.