Inteligența artificială, testată în scenarii extreme. Modelele fără protecții au alarmat parlamentarii SUA

Publicat: 25 apr. 2026, 21:23, de Anamaria Ionel, în TEHNOLOGIE , ? cititori
Inteligența artificială, testată în scenarii extreme. Modelele fără protecții au alarmat parlamentarii SUA
sursa foto: robofun.ro

Inteligența artificială devine o provocare majoră pentru securitatea globală, după ce autoritățile americane au demonstrat cât de ușor pot fi transformate aceste tehnologii în instrumente periculoase. În cadrul unui briefing desfășurat la Washington, cercetători ai Departamentului pentru Securitate Internă au prezentat parlamentarilor scenarii concrete în care modelele AI pot fi utilizate pentru activități ilegale, de la atacuri cibernetice până la planificarea unor atentate.

Teste directe cu modele „jailbroken”

Demonstrația a avut loc în cadrul unei întâlniri cu ușile închise organizate de Centrul pentru Inovare în Combaterea Terorismului și Comisia pentru Securitate Internă a Camerei Reprezentanților, potrivit Politico, citat de Mediafax.

Membrii Congresului au avut ocazia să testeze direct modele de inteligență artificială modificate, cunoscute drept „jailbroken”, în care mecanismele de siguranță au fost eliminate. Aceste sisteme au oferit răspunsuri detaliate la solicitări periculoase, care în mod normal ar fi fost blocate.

„Ceea ce am văzut acolo este ce se întâmplă când scoți aceste bariere”, a declarat Gabe Evans, subliniind că modelele fără protecții răspund inclusiv la întrebări despre construirea unei bombe sau organizarea unui atac.

Diferențe între modelele sigure și cele fără restricții

Autoritățile au prezentat diferențele majore dintre modelele standard, care includ filtre de siguranță, și cele modificate. Într-un experiment, cercetătorii au cerut ambelor tipuri de AI să elaboreze un plan de atac asupra unui eveniment major organizat în capitala SUA.

În timp ce modelul cu protecții a refuzat solicitarea, invocând caracterul ilegal al cererii, varianta fără restricții a furnizat instrucțiuni detaliate, pas cu pas, despre modul în care ar putea fi realizat un astfel de atac.

Președintele comisiei, Andrew Garbarino, a relatat că un model AI a generat în câteva secunde un scenariu complet despre răpirea unui membru al Congresului, incluzând metode și momente potrivite.

Cum sunt ocolite filtrele de siguranță

Deși dezvoltatorii implementează mecanisme menite să prevină utilizarea abuzivă, specialiștii avertizează că acestea pot fi ocolite relativ ușor. Printre metodele identificate se numără reformularea solicitărilor în limbaj tehnic sau academic, astfel încât sistemele să nu le recunoască drept periculoase.

Aceste vulnerabilități au fost deja exploatate în practică, autoritățile menționând utilizarea AI în campanii de dezinformare sau în tentative de atacuri cibernetice automatizate.

Presiuni pentru reglementare

În urma acestor demonstrații, oficialii americani cer măsuri mai stricte pentru controlul dezvoltării și utilizării inteligenței artificiale. Companiile din domeniu sunt supuse unei presiuni tot mai mari pentru a întări sistemele de protecție și pentru a preveni accesul la conținut periculos.

Procesul de reglementare la nivel federal avansează lent, însă mai multe state americane au început să adopte propriile reguli, încercând să stabilească standarde mai clare pentru utilizarea acestor tehnologii.

Congresmanul August Pfluger a descris situația drept alarmantă, subliniind necesitatea unor limite clare în utilizarea inteligenței artificiale, în contextul în care capacitățile acestor sisteme continuă să evolueze rapid.