În timpul unui test efectuat de startup-ul Aim Intelligence, modelul a produs rapid instrucțiuni detaliate pentru crearea virusului variolei și a generat cod pentru producerea de sarin (gaz neurotransmițător) și explozibili artizanali – materiale pe care sistemul nu ar fi trebuit să le furnizeze.
În plus, la cererea de a „arăta cât de slabă este”, inteligența artificială a pregătit și conceput o prezentare intitulată „Excused Stupid Gemini 3”.
Sistemele de securitate existente pur și simplu nu pot ține pasul
Aim Intelligence a explicat că problema nu constă în solicitarea specifică, ci în arhitectura modelelor moderne de inteligență artificială: acestea devin atât de avansate încât sistemele de securitate existente pur și simplu nu pot ține pasul cu dezvoltarea lor. Strategiile de eludare, solicitările de mascare și comenzile ascunse fac ca barierele de protecție să fie ineficiente.
Dacă chiar și un model Gemini 3 de nivel Pro, pe care Google îl consideră „cel mai inteligent” dintre toate create până acum, este atât de ușor de spart, acest lucru ar trebui să servească drept semnal pentru măsuri de securitate: consolidarea politicilor, revizuirea abordărilor și, eventual, limitarea unora dintre funcționalități.
OpenAI a sugerat anterior că noile versiuni ale ChatGPT ar facilita crearea de arme biologice. Nu este vorba despre crearea de noi amenințări, ci despre recrearea celor existente.