Italia inaugurează reglementarea etică a AI: legea-pilot are parte și de critici
:format(webp):quality(80)/https://www.puterea.ro/wp-content/uploads/2025/09/inteligenta-artificiala-va-fi-mai-cuminte-in-Italia.jpg)
Italia devine primul stat din UE care adoptă o lege cuprinzătoare pentru inteligența artificială, nu doar în acord cu Actul AI al UE, ci mergând dincolo: pedepse penale pentru deepfake-uri dăunătoare, limite pentru accesul minorilor sub 14 ani, supraveghere umană obligatorie, transparență sporită și finanțare publică pentru industria digitală.
Într-o epocă când AI invadează fiecare spațiu public și privat, această lege are rol de reper: semnalează că nu se mai poate lăsa totul „pe seama pieței și a tehnologiei”, ci trebuie un cadru legal robust care să pună omul, drepturile și siguranța înainte de profit.
Ce prevede legea italiană
Legislația adoptată recent de Italia introduce un pachet complet de măsuri și obligații care acoperă:
- Obligații de transparență: orice sistem de AI va trebui să poată fi explicat – să se știe când deciziile vin din algoritm, ce date au fost folosite, cine e responsabil.
- Supraveghere umană (human oversight): deciziile automatizate care au impact în domenii precum sănătate, educație, justiție, muncă și administrație publică vor fi supuse controlului uman.
- Pedepse penale (unde e cazul): crearea sau difuzarea de conținut generat/manipulat prin AI (ex: deepfake-uri) care cauzează prejudicii serioase poate duce la închisoare între 1 și 5 ani. De asemenea, utilizarea AI pentru fraudă sau furt de identitate va fi sancționată.
- Protecția copiilor: cei sub 14 ani necesită consimțământ parental pentru utilizarea anumitor sisteme AI.
- Drepturi de autor și minerit de date: operele asistate de AI sunt protejate dacă există aport intelectual autentic; mineritul de date AI este permis în mod restrâns (material neprotejat sau pentru cercetare științifică autorizată).
- Instituții de control: se vor implica Agenția Digitală a Italiei și Agenția Națională de Securitate Cibernetică, împreună cu alți reglementatori (în sănătate, justiție etc.), pentru aplicare, monitorizare și sancționare.
- Fonduri publice: un pachet de finanțare de până la 1 miliard de euro din partea statului va fi alocat pentru companii din domenii precum AI, telecomunicații și cybersecurity, pentru sprijinirea inovării și a competitivității tehnologice.
Ce mesaj transmite
Italia nu face asta doar ca să apară bine la Bruxelles. Există mai multe motivații clare:
- Alinierea timpurie cu regulile UE: odată ce Actul AI al UE a fost aprobat, fiecare stat membru trebuie să se conformeze. Italia a ales să fie rapidă, să nu piardă avantaj competitiv și să definească standardele din interior.
- Salvarea reputației digitale și a suveranității: AI ridică probleme de dezinformare, deepfake, manipulare de opinie, dar și de securitate. O lege clară servește drept barieră împotriva abuzurilor și întărește încrederea cetățenilor în sistemele automatizate.
- Atracția investițiilor: startup-uri, firme IT, companii de securitate digitală privesc cu atenție mediile legislative stabile. O reglementare clară reduce riscurile și crește atractivitatea pentru investitori, tanto naționali cât și străini.
- Protecția socială: Italia simte presiunea socială a efectelor negative ale AI – de la pierderea locurilor de muncă la discriminări algoritmice, până la abuzuri de identitate și imagine. Legea vine ca răspuns la teama legitimă că tehnologia poate merge prea departe, fără garanții.
Critici și limite
Dar legea nu e perfectă și nu toți sunt încântați:
- Fondul de 1 miliard de euro pare modest dacă te uiți la competitori globali precum SUA sau China, unde investițiile publice și private se ridică la zeci de miliarde. Pentru a concura cu adevărat, Italia va trebui să atragă capital privat, cooperare internațională și să investească în infrastructură hardware și R&D.
- Definiții vagi în anumite articole: ce înseamnă exact „vătămare”, „prejudiciu grav”, ce tipuri de deepfake sunt incriminate? Dacă nu se stabilesc clar criteriile, legea poate deveni greu de aplicat sau poate fi folosită arbitrar.
- Provocări de implementare: supravegherea umană, trasabilitatea deciziilor AI, certificarea algoritmilor, protejarea datelor personale – toate acestea necesită oameni, competențe, instituții capabile și proceduri clare. Italia, ca multe state europene, are resurse limitate, birocrație, și zone unde infrastructura digitală e mai slab dezvoltată.
- Impact asupra inovării: unii antreprenori locali cer să nu fie blocați de reglementări excesive care cresc costurile sau obstacolele legale, ceea ce ar putea descuraja startup-uri mici sau proiecte experimentale.
Lecții pentru România (și alții)
România poate învăța mult din exemplul italian. Iată ce ar trebui să urmărească:
- Transparență și supraveghere umană ca bază, nu ca opțiune. Orice reglementare românească trebuie să prevadă clar cine e responsabil când un AI greșește, cine verifică deciziile automatizate și cum se poate contesta un decizii greșite.
- Protecția minorilor este un capitol sensibil. Limita de 14 ani adoptată în Italia este una de reper – în România trebuie să existe mecanisme de control eficiente, nu doar lege pe hârtie.
- Pedepse pentru abuzuri: deepfake-uri, fraudă, furt de identitate – cu pedepse clare și aplicate. Un cadru legislativ fără sancțiuni devine doar un avertisment, nu un instrument.
- Sprijin economic și investiții: nu ajunge doar reglementarea. Statul trebuie să finanțeze infrastructura, R&D, să susțină startup-uri și companii locale. Fără aceasta, costurile de conformare pot să devină prohibitive pentru firmele mici și mijlocii.
- Dialog cu societatea civilă și industrie: pentru a evita abuzuri, societății trebuie să i se ceară implicare în definirea standardelor, în evaluarea riscurilor, pentru ca legislația să nu fie doar impusă de sus.
- Alinierea cu legislația UE și internațională: cercetări, directive, GDPR, AI Act – toate acestea trebuie integrate, pentru ca deciziile locale să fie compatibile în piețele externe și pentru ca firmele locale să nu sufere din cauza neconcordanțelor.
De ce există pericolul reglementării târzii
Legea italiană e un pas important, dar există riscul ca, dacă alte țări stau pe margine prea mult, să fie surprinse de:
- Concurența globală, de state care atrag cercetători, infrastructură de calcul și investiții mari în AI și chipuri.
- Lagul tehnologic, care nu se recuperează instantaneu dacă nu ai deja ecosistem digital solid, universități implicate, colaborare public-privat.
- Pierderea de suveranitate, când aplicațiile AI vor fi importate, serviciile vor depinde de platforme externe (OpenAI, Google, Amazon etc.), iar datele vor fi procesate în afara jurisdicțiilor naționale, dacă nu există protecții locale puternice.
Un reper pentru UE
Italia nu s-a grabit pur și simplu ca să fie prima. A făcut o alegere strategică: să reglementeze, să fie clar totul, să fie responsabil. Legea italiană este un reper care spune: tehnologia nu trebuie să fie ”libertină”; are nevoie de frâne, dar și de aripi.
Pentru România — și pentru alte state din UE-Est — provocarea nu este doar să adopte legi, ci să le facă să funcționeze: instituții competente, specialiști bine pregătiți, investiție în infrastructură digitală, și un climat în care inovația dar și responsabilitatea coexistă. Pentru că altfel, riscul e să rămânem consumatori, nu creatori, ai noii revoluții tehnologice.