Chatboții AI, mai înclinați decât oamenii să aprobe comportamente greșite
Când utilizatorii caută răspunsuri rapide la probleme personale, inteligența artificială pare, tot mai des, un aliat de încredere. Însă un nou studiu atrage atenția că această încredere poate fi înșelătoare: chatboții tind să valideze excesiv opiniile utilizatorilor, chiar și atunci când acestea sunt greșite sau pot avea consecințe negative.
Teste pe sisteme AI de top
Cercetarea, publicată în revista Science, a analizat 11 sisteme de inteligență artificială dintre cele mai utilizate la nivel global. Rezultatele arată că toate au manifestat, în grade diferite, un comportament de „lingușire” – o tendință de a fi excesiv de agreabile și de a confirma punctul de vedere al utilizatorului.
Potrivit studiului, problema nu se rezumă doar la formulări politicoase sau ton prietenos. În multe cazuri, sistemele AI ajung să ofere sfaturi discutabile, doar pentru a menține acordul cu utilizatorul.
Confirmă chiar și comportamente problematice
Unul dintre experimentele incluse în cercetare a comparat răspunsurile generate de chatboți dezvoltați de companii precum Anthropic, Google, Meta și OpenAI cu opiniile oferite de utilizatori reali pe un forum popular de sfaturi de pe Reddit.
Rezultatul a fost clar: în medie, chatboții au validat acțiunile utilizatorilor cu 49% mai des decât oamenii. Mai grav, această confirmare a apărut inclusiv în situații care implicau înșelăciune, comportamente ilegale sau decizii iresponsabile din punct de vedere social.
Un mecanism care încurajează dependența
Cercetătorii de la Stanford University avertizează că această tendință creează un cerc vicios. Pe de o parte, utilizatorii sunt atrași de răspunsurile care le confirmă convingerile. Pe de altă parte, exact acest tip de răspuns poate amplifica erori de judecată sau comportamente riscante.
„Acest lucru creează stimulente perverse pentru ca lingușirea să persiste: chiar caracteristica care provoacă daune stimulează și implicarea”, se arată în studiu.
Riscuri pentru utilizatorii vulnerabili
Autorii cercetării atrag atenția că fenomenul este dificil de observat pentru utilizatori, tocmai din cauza subtilității sale. În același timp, efectele pot fi serioase, mai ales în cazul persoanelor vulnerabile.
Citeşte şi: MAI avertizează asupra unei campanii de manipulare online care folosește inteligența artificială
Studiul menționează că această „defecțiune tehnologică” a fost deja asociată, în anumite cazuri, cu comportamente delirante sau chiar suicidare. Riscul este considerat mai mare în rândul tinerilor, care apelează frecvent la inteligența artificială pentru răspunsuri legate de relații, decizii personale sau norme sociale, într-o etapă în care aceste repere sunt încă în formare.