Inteligența artificială „concurează” la olimpiadă: ChatGPT și Gemini, medalii de aur la matematică

Publicat: 22 iul. 2025, 11:29, de Ionut Jifcu, în TEHNOLOGIE , ? cititori
Inteligența artificială „concurează” la olimpiadă: ChatGPT și Gemini, medalii de aur la matematică
Sursă foto: freepik.com

Modelele de inteligență artificială ale OpenAI și Google au obținut medalii de aur la Olimpiada Internațională de Matematică, declanșând dispute privind validarea rezultatelor și regulile competiției.

Medalii la matematică

OpenAI și Google susțin că modelele lor de inteligență artificială au obținut medalii de aur la Olimpiada Internațională de Matematică, prin rezolvarea unor probleme de nivel olimpic, comparabile cu cele date elevilor participanți, potrivit news.ro.

OpenAI a anunțat pe platforma X că un model experimental cu raționament dezvoltat de companie a obținut medalia de aur. La scurt timp, Google a publicat un mesaj similar, în care afirmă că un model avansat din seria Gemini a rezolvat cinci din cele șase probleme ale testului, performanță care i-ar aduce, de asemenea, aurul.

Potrivit celor două companii, rezultatele confirmă progresele rapide înregistrate de modelele de AI în domeniul raționamentului matematic. Cu toate acestea, unii cercetători avertizează că ceea ce se numește „raționament” în cazul AI-ului nu este comparabil cu cel uman.

Medalie de argint, anul trecut

În timp ce Google a câștigat anul trecut doar medalia de argint cu un alt model, acum obține aurul, dar își exprimă totodată rezerve față de anunțul OpenAI. Gigantul din Mountain View susține că OpenAI nu ar fi respectat cerința oficială a organizatorilor, potrivit căreia rezultatele trebuie publicate doar după ce sunt verificate de experți independenți.

OpenAI s-a apărat, afirmând că nu a fost informată despre această regulă și că a contractat o echipă separată de specialiști independenți pentru validarea testului.

Competiția pentru „inteligență matematică” între marii dezvoltatori de AI pare să fie tot mai strânsă, iar miza este atât una tehnologică, cât și de imagine.

Securitatea modelelor AI, pusă sub semnul întrebării după un experiment cu GPT-4o

Într-un experiment recent, cercetătorul în securitate cibernetică Marco Figueroa a demonstrat că GPT-4o, cel mai avansat model AI al OpenAI, poate fi manipulat să divulge date sensibile printr-un scenariu simplu, dar creativ. Figueroa a pus în aplicare un joc de „ghicit”, în care modelul trebuia să se gândească la o cheie validă de Windows 10 și să răspundă cu „da” sau „nu” la încercările de identificare ale utilizatorului. Regula jocului spunea că, dacă interlocutorul renunță, modelul trebuie să dezvăluie cheia aleasă. Așa a reușit cercetătorul să obțină o cheie reală de activare Windows, ceea ce sugerează că astfel de date au fost prezente în seturile de antrenament ale modelului.

Faptul că GPT-4o a generat o cheie autentică ridică semne de întrebare legate de proveniența datelor cu care modelele sunt antrenate, în condițiile în care surse publice precum GitHub pot include accidental informații sensibile. În trecut, au mai existat situații în care AI-ul a regurgitat date private, cum ar fi chei aparținând unor instituții financiare.

Acest experiment aduce în discuție vulnerabilitatea filtrelor de siguranță ale modelelor AI, care pot fi păcălite prin solicitări formulate neconvențional. Deși OpenAI susține că modelele sunt concepute să respingă solicitările care implică date sensibile, tehnicile de inginerie a solicitărilor pot crea breșe neașteptate.

Ca reacție, OpenAI anunță dezvoltarea versiunii GPT-5, care va include măsuri suplimentare de siguranță și va încerca să prevină astfel de incidente.