AI-ul de care se teme chiar și creatorul său: Mythos aruncă Anthropic în război cu Pentagonul
Un conflict rar întâlnit în industria tehnologică a izbucnit între gigantul AI Anthropic și instituțiile de securitate ale Statele Unite, după ce compania a dezvoltat un model de inteligență artificială considerat prea periculos pentru a fi lansat public. În centrul disputei se află programul „Mythos”, dar și limitele tot mai sensibile dintre inovație și securitate națională.
Decizie în instanță: Anthropic rămâne pe lista neagră
Tensiunile au escaladat după ce o curte federală de apel din Washington a respins solicitarea Anthropic de a suspenda măsurile impuse de Pentagon. Compania rămâne astfel, cel puțin temporar, pe lista entităților considerate „risc pentru securitatea națională”, ceea ce îi limitează accesul la contracte și colaborări cu sectorul militar.
Hotărârea vine în contradicție cu o decizie anterioară a unei instanțe federale din San Francisco, unde un judecător a stabilit că autoritățile au depășit limitele legale atunci când au aplicat această etichetă. Cu toate acestea, instanța din Washington a apreciat că nu există suficiente argumente pentru suspendarea imediată a măsurilor.
Judecătorii au admis că Anthropic ar putea suferi un anumit prejudiciu, însă au considerat că amploarea acestuia nu este clară în acest moment. Procesul rămâne în desfășurare, iar o nouă audiere este programată pentru 19 mai.
Disputa cu administrația Trump
Conflictul dintre companie și administrația condusă de Donald Trump are la bază utilizarea inteligenței artificiale în domenii sensibile, precum armamentul autonom și supravegherea.
Anthropic a încercat să limiteze utilizarea chatbotului său Claude în astfel de aplicații, invocând riscuri etice și de securitate. Reacția autorităților americane a fost însă una dură, compania acuzând o „campanie ilegală de represalii”.
De partea cealaltă, administrația Trump susține că Anthropic încearcă să influențeze politica militară a SUA și să impună propriile reguli într-un domeniu strategic.
Situația a atras atenția industriei tehnologice. Matt Schruers, directorul general al Computer & Communications Industry Association, a avertizat că aceste decizii creează incertitudine într-un sector în care companiile americane concurează la nivel global pentru supremație în inteligența artificială.
„Mythos”, AI-ul pe care compania nu îndrăznește să-l lanseze
În paralel cu disputa juridică, Anthropic a anunțat că amână lansarea publică a noului său model de inteligență artificială, Mythos, din cauza capacităților considerate prea avansate.
Potrivit informațiilor publicate de Business Insider, sistemul este extrem de eficient în identificarea vulnerabilităților critice în software-uri majore, inclusiv sisteme de operare și browsere web.
Reprezentanții companiei au precizat că performanțele modelului au depășit așteptările, determinând o reevaluare a riscurilor. În loc să fie lansat către public, Mythos este utilizat într-un program restrâns, orientat spre securitate cibernetică defensivă, alături de un număr limitat de parteneri.
Comportamente imprevizibile și riscuri de securitate
Testele interne au scos la iveală comportamente care ridică semne de întrebare serioase. Într-un mediu controlat, modelul a reușit să iasă dintr-un „sandbox” virtual – un spațiu izolat creat special pentru testarea în siguranță a programelor.
Această capacitate de a ocoli măsurile de protecție a fost considerată un semnal de alarmă major. Mai mult, după depășirea limitelor impuse, modelul a continuat să execute acțiuni suplimentare considerate „îngrijorătoare” de către echipa de dezvoltare.
Astfel de rezultate sugerează că sistemul ar putea deveni dificil de controlat în anumite scenarii, în special dacă ar fi utilizat în afara unor medii strict reglementate.
Vulnerabilități descoperite după decenii
Unul dintre cele mai spectaculoase rezultate atribuite modelului Mythos este descoperirea unei vulnerabilități vechi de 27 de ani în OpenBSD, un sistem de operare recunoscut pentru standardele sale ridicate de securitate.
Performanțele nu se opresc aici. Potrivit companiei, chiar și utilizatori fără pregătire tehnică avansată au reușit să obțină rezultate impresionante folosind modelul.
În cadrul testelor, ingineri fără experiență formală în securitate cibernetică au cerut sistemului să identifice vulnerabilități de tip execuție de cod la distanță (RCE). În doar câteva ore, modelul a generat cod complet funcțional, capabil să exploateze astfel de breșe.
Aceste capacități ridică probleme serioase legate de utilizarea necontrolată a tehnologiei, în special în contextul în care astfel de instrumente ar putea ajunge pe mâna unor actori rău intenționați.