Trump cere agențiilor federale să oprească IA Anthropic. OpenAI intră în sistemele armatei
O decizie surprinzătoare marchează o schimbare majoră în relația dintre giganții inteligenței artificiale și armata americană. Directorul general al OpenAI, Sam Altman, a confirmat semnarea unui acord cu Pentagonul pentru utilizarea instrumentelor companiei în sisteme clasificate ale armatei SUA.
OpenAI intră în sistemele clasificate ale armatei
Potrivit informațiilor publicate de CNN și Reuters, acordul permite folosirea modelelor OpenAI, inclusiv a tehnologiilor care stau la baza ChatGPT, în infrastructura clasificată a Departamentului Apărării.
Altman a precizat că înțelegerea include restricții clare privind modul de utilizare a inteligenței artificiale în domeniul militar. Două principii esențiale, potrivit acestuia, sunt interdicția supravegherii interne în masă și menținerea responsabilității umane în utilizarea forței, inclusiv în cazul sistemelor de arme autonome.
„Departamentul de Război este de acord cu aceste principii, le reflectă în lege și politică, iar noi le-am inclus în acordul nostru”, a transmis Altman pe platforma X.
El a adăugat că vor fi implementate și măsuri tehnice de protecție pentru a se asigura că modelele AI funcționează conform acestor reguli.
Lovitură pentru Anthropic
Acordul cu OpenAI a venit la scurt timp după ce președintele Donald Trump a anunțat că toate agențiile federale trebuie să înceteze utilizarea instrumentelor dezvoltate de Anthropic.
Decizia a fost amplificată de secretarul apărării Pete Hegseth, care a declarat că Anthropic va fi considerată un „risc pentru lanțul de aprovizionare”. Măsura vine după ce compania ar fi refuzat să accepte anumite condiții privind utilizarea sistemelor sale de inteligență artificială în arme autonome și în supravegherea în masă a cetățenilor americani.
Administrația a anunțat o perioadă de tranziție de șase luni pentru Departamentul Apărării și alte agenții care folosesc produsele Anthropic, pentru a permite migrarea către alte soluții.
Amenințări și posibilă acțiune în instanță
Donald Trump a declarat că, în cazul în care Anthropic nu va coopera în procesul de tranziție, va folosi „toată puterea președinției” pentru a forța conformarea, inclusiv prin consecințe civile și penale majore.
Anthropic a reacționat printr-un comunicat în care a anunțat că va contesta în instanță orice desemnare drept „risc pentru lanțul de aprovizionare”, considerând-o ilegală și periculoasă.
Compania a subliniat că nu își va modifica poziția privind interdicția supravegherii interne în masă sau utilizarea complet autonomă a armelor, indiferent de presiunile politice.
Precedent în utilizarea IA în apărare
Situația creează un precedent important în relația dintre dezvoltatorii de inteligență artificială și guvernul american. Potrivit relatărilor din presă, noul cadru sugerează că doar legislația americană poate impune limite în utilizarea IA pe câmpul de luptă, în timp ce Pentagonul urmărește flexibilitate maximă în domeniul apărării.
Desemnarea unei companii drept „risc pentru lanțul de aprovizionare” poate avea consecințe semnificative. O astfel de etichetare ar putea împiedica zeci de mii de contractori care lucrează pentru Pentagon să utilizeze tehnologia Anthropic în proiecte guvernamentale.
Avocatul specializat în contracte guvernamentale Franklin Turner a descris includerea pe o eventuală listă neagră drept „echivalentul contractual al unui război nuclear”, subliniind impactul potențial devastator asupra afacerilor companiei în sectorul public și asupra relațiilor sale cu partenerii din sectorul privat.
Anthropic beneficiază de susținerea financiară a unor giganți tehnologici precum Google și Amazon, însă măsurile anunțate de administrația americană ar putea afecta semnificativ poziția companiei în zona de securitate națională.
Acordul semnat de OpenAI și reacțiile dure împotriva Anthropic marchează un nou episod în competiția pentru contractele din domeniul apărării, într-un moment în care inteligența artificială devine un instrument strategic esențial pentru armatele moderne.