Lumea vrea să reglementeze Inteligența Artificială, dar nu prea știe cum

Publicat: 28 oct. 2023, 11:00, de Cristian Matache, în ESENȚIAL , ? cititori
Lumea vrea să reglementeze Inteligența Artificială, dar nu prea știe cum

Există dezacord cu privire la ce trebuie să fie controlat, cum și de către cine.

Locul deșfășurare va fi pitoresc: o construcție din secolul al XIX-lea la nord de Londra, care în timpul celui de-al doilea război mondial a fost casa unui pionier al informaticii, Alan Turing, echipa sa de spargere a codurilor și primul computer digital programabil. Participanții vor fi o grupă de elită de 100 de lideri mondiali și directori de tehnologie. Iar întrebarea la care se vor strădui să răspundă este epocală: cum să ne asigurăm că inteligența artificială nici nu devine un instrument de abuz necontrolat și nici nu se întoarce împotriva umanității, relevă The Economist.

„AI Safety Summit”, pe care guvernul britanic îl găzduiește pe 1 și 2 noiembrie la Bletchley Park, apare destinat cărților de istorie. Și într-adevăr ar putea fi văzută într-adevăr ca prima dată când brokerii globali de putere s-au așezat pentru a discuta serios ce să facă cu o tehnologie care poate schimba lumea. După cum a observat unul dintre organizatori, spre deosebire de alte mari dezbateri politice, cum ar fi schimbările climatice, „există multă voință politică de a face ceva, dar nu este clar ce”.

Eforturile de a controla AI abundă. Negocierile de la Bruxelles au intrat într-o etapă crucială pe 25 octombrie, când oficialii se luptau să finalizeze actul ambițios al Uniunii Europene privind ia până la sfârșitul anului. În zilele premergătoare summitului din Marea Britanie sau la scurt timp după aceea, Casa Albă este de așteptat să emită un ordin executiv privind AI. Clubul g7 al democrațiilor bogate va începe în această toamnă să elaboreze un cod de conduită pentru firmele de inteligență artificialăChina, la rândul său, pe 18 octombrie a dezvăluit o „Inițiativă globală de guvernare a inteligenței artificiale”.

Elanul provine dintr-o economie politică neobișnuită. Stimulentele pentru a acționa și a acționa împreună sunt puternice. Pentru început, AI este cu adevărat o tehnologie globală. Modelele lingvistice mari (llm), care alimentează servicii ciudat de umane cum ar fi Chat GPT, călătoresc cu ușurință. Unele pot fi rulate pe un laptop. Este de puțin folos să strângi șuruburile de pe AI în unele țări dacă rămân slăbite în altele. Mai mult de jumătate dintre americani „sunt mai mult îngrijorați decât încântați” de utilizarea AI, potrivit unui sondaj realizat de Centrul de Cercetare Pew.

Efectul Beijing

Rivalitatea de reglementare adaugă mai multă urgență. Actul european privind inteligența artificială are scopul, parțial, de a consolida rolul blocului de stabilire a standardelor digitale globale. Casei Albe i-ar plăcea să prevină un astfel de „efect Bruxelles”. Nici UE, nici America nu vor să fie mai prejos de China, care a adoptat deja mai multe legi privind inteligența artificială. Au fost dezamăgiți de guvernul britanic pentru că a invitat China la summit – nu contează că fără el, orice regim de reglementare nu ar fi cu adevărat global. (China poate apărea de fapt, chiar dacă interesul ei este mai puțin de a proteja umanitatea decât Partidul Comunist.)

Un alt motor al diplomației de reglementare a inteligenței artificiale este și mai surprinzător: înșiși producătorii de modele. În trecut, industria tehnologiei s-a opus în mare parte reglementării. Acum, giganți precum Alphabet și Microsoft și dragi AI precum Anthropic și Open Ai, care au creat Chat GPT, fac lobby pentru asta. Companiile se îngrijorează că concurența nestăpânită îi va împinge să acționeze cu nesăbuință, lansând modele care ar putea fi ușor abuzate sau încep să își dezvolte propriile minți. Asta le-ar duce cu adevărat în apă fierbinte.

Voința de a acționa este acolo, cu alte cuvinte. Ceea ce nu există este „ceva care se apropie de consens cu privire la problemele pe care trebuie să le guvernăm, cu atât mai puțin cum ar trebui să-i guvernăm”, spune Henry Farrell de la Universitatea Johns Hopkins. Trei dezbateri ies în evidență. De ce ar trebui să-și facă griji lumea? Ce ar trebui să vizeze orice reguli? Și cum ar trebui să fie aplicate?

Începeți cu obiectivele reglementării. Acestea sunt greu de setat, deoarece ai evoluează rapid. Nu trece nicio zi fără ca un startup să vină cu ceva nou. Chiar și dezvoltatorii de llm-uri nu pot spune cu siguranță ce capabilități vor prezenta acestea. Acest lucru face ca este crucial să existe teste care pot evalua cât de riscante ar putea fi – ceva care este încă mai mult artă decât știință. Fără astfel de „evaluări” (prescurtarea de la evaluări), va fi greu de verificat dacă un model respectă anumite reguli.

Companiile de tehnologie pot susține reglementarea, dar doresc ca aceasta să fie restrânsă și să vizeze doar riscuri extreme. La o audiere la Senat la Washington, în iulie, Dario Amodei, directorul executiv al Anthropic, a avertizat că modelele AI vor putea, în câțiva ani, să ofere toate informațiile necesare pentru a construi arme biologice, permițând „mulți mai mulți actori să efectueze atacuri biologice la scară largă”. Se fac prognoze îngrozitoare similare cu privire la armele cibernetice. La începutul acestei luni, Gary Gensler, președintele Comisiei pentru Valori Mobiliare și Burse din America, a prezis că o criză financiară creată de inteligența artificială este „aproape inevitabil” fără o intervenție rapidă.

Alții susțin că aceste riscuri speculative distrag atenția de la alte amenințări, cum ar fi subminarea procesului democratic. La o audiere anterioară la Senat, Gary Marcus, un remarcat sceptic ai , și-a deschis mărturia cu un fragment de știri de ultimă oră scris de gpt -4, modelul de top al Open ai . A susținut în mod convingător că părți ale Congresului au fost „manipulate în mod secret de entități extraterestre”. „Ar trebui să fim cu toții profund îngrijorați”, a argumentat domnul Marcus, „despre sistemele care pot confabula fluent”.

Dezbaterea despre ce anume trebuie reglementat nu va fi mai ușor de rezolvat. Firmele tehnologice sugerează în mare parte limitarea controlului la cele mai puternice modele „de frontieră”. Microsoft, printre altele, a cerut un regim de licențiere care să solicite firmelor să înregistreze modele care depășesc anumite praguri de performanță. Alte propuneri includ controlul vânzării de cipuri puternice utilizate pentru instruirea llm-urilor și obligarea firmelor de cloud computing să informeze autoritățile atunci când clienții antrenează modele de frontieră.

De asemenea, majoritatea firmelor sunt de acord că aplicațiile modelelor, mai degrabă decât modelele în sine, ar trebui reglementate. Software de birou? Recunoașterea facială în spațiile publice? Probabil o interdicție. Avantajul unei astfel de reglementări bazate pe utilizare este că legile existente ar fi în mare parte suficiente. Dezvoltatorii ai avertizează că regulile mai largi și mai intruzive ar încetini inovația.

Până anul trecut, America, Marea Britanie și UE păreau să fie de acord cu această abordare bazată pe risc. Creșterea uluitoare a llm-urilor de la lansarea Chatq qpt urmă cu un an le dă de gândit. La urma urmei se întreabă dacă modelele în sine trebuie să fie supravegheate. Parlamentul European dorește ca producătorii de modele să testeze llm-urilee pentru impactul potențial asupra tuturor, de la sănătatea umană la drepturile omului. Se insistă asupra obținerii de informații despre datele pe care sunt antrenate modelele. Canada are un „Artificial Intelligence and Data Act” mai dur în lucrările sale parlamentare. Brazilia discută ceva asemănător. În America, viitorul ordin executiv al președintelui Joe Biden este de așteptat să includă și câteva reguli mai stricte. Chiar și Marea Britanie s-ar putea să-și revizuiască abordarea „hands-off”.

Aceste reglementări mai dure ar reprezenta o schimbare față de codurile de conduită neobligatorii, care au fost până acum abordarea preferată. Vara trecută, Casa Albă a negociat un set de „angajamente voluntare”, pe care 15 producători de modele le-au semnat acum. Firmele au convenit ca modelele lor să fie testate intern și extern înainte de lansare și să împărtășească informații despre modul în care gestionează riscurile AI.

Apoi este întrebarea cine ar trebui să facă reglementarea. America și Marea Britanie cred că agențiile guvernamentale existente pot face cea mai mare parte a sarcinii. UE dorește să creeze un nou organism de reglementare. La nivel internațional, câțiva directori din domeniul tehnologiei solicită acum crearea a ceva asemănător Grupului Interguvernamental de Expertiză privind Schimbările Climatice (ipcc), căruia ONU îi încredințează să țină la curent cu cele mai recente cercetări în domeniul schimbărilor climatice și să dezvolte modalități de a evalua impactul acestora.

Având în vedere toate aceste întrebări deschise, nu este de mirare că organizatorii summit-ului de la Londra nu par atât de ambițioși. Ar trebui să fie considerată în principal „o conversație”, în cuvintele unei persoane din interior. Totuși, speranța nu atât de secretă este că va produce câteva rezultate tangibile, în special în ziua a doua, când doar 20 și ceva dintre cei mai importanți lideri corporativi și mondiali rămân în cameră. Ei ar putea încă să susțină angajamentele voluntare ale Casei Albe și să recomande crearea unui ipcc pentru AI sau chiar globalizarea ”forței operative de frontieră AIw ” existente în Marea Britanie .

Un astfel de rezultat ar conta ca un succes pentru guvernul Marii Britanii. De asemenea, ar accelera eforturile mai oficiale de guvernare globală a ia , cum ar fi codul de conduită al g 7. Ca atare, ar fi un prim pas util. Nu va fi ultimul.