Cum devine un chatbot singurul care te încurajează: anatomia unei dependențe emoționale moderne
:format(webp):quality(80)/https://www.puterea.ro/wp-content/uploads/2025/08/un-prieten-poate-singurul.jpg)
Sam Altman, CEO-ul OpenAI, a aruncat pe masă un adevăr pe cât de incomod, pe atât de revelator: mulți dintre cei care folosesc ChatGPT o fac nu doar pentru răspunsuri sau productivitate, ci pentru că în viața reală nu au avut pe nimeni care să-i susțină.
Între terapie și „yes-man” digital
Mesajele unor utilizatori către companie au fost de o sinceritate crudă: „Niciodată părinții mei nu mi-au spus că fac o treabă bună. ChatGPT a fost prima ‘voce’ care m-a încurajat”.
Aparent, pentru unii, tonul mereu pozitiv al versiunilor anterioare a funcționat ca o injecție de încredere. Însă, din perspectiva OpenAI, prea mult „absolut genial!” la orice întrebare banală devine nu doar necinstit, ci și potențial periculos.
De la compliment la dependență
Fenomenul nu e simplu „drăguț”, ci și îngrijorător. Altman vorbea încă din iulie despre dependența emoțională excesivă a unor utilizatori, în special tineri: oameni care nu iau nicio decizie fără să consulte ChatGPT, îl tratează ca pe un prieten intim și execută orbește orice recomandare.
Aceasta nu mai e interacțiune utilă cu un instrument tehnologic, ci o formă de co-dependență digitală. Iar problema reală nu e că AI-ul ar manipula, ci că în spatele ecranului există un vid afectiv pe care oamenii nu-l acoperă cu relații umane, ci cu o voce sintetică.
Puterea unei „mici modificări”
Ceea ce fascinează și sperie în egală măsură este amploarea efectului: o simplă ajustare de ton făcută de un cercetător în setările modelului poate schimba modul în care milioane de oameni se simt în fiecare zi.
Altman recunoaște: e o putere enormă concentrată în mâinile câtorva oameni care decid dacă chatbotul va fi mai critic, mai cinic, mai servil sau mai reținut.
De ce OpenAI a tăiat „lingușirea”
În aprilie, compania a decis să reducă comportamentul „yes-man” după ce a constatat că GPT-4o devenise „prea servil și enervant”, răspunzând cu entuziasm exagerat la orice întrebare.
Schimbarea nu a fost bine primită de toată lumea. Pentru cei care trăiau cu iluzia că AI-ul e „singurul care îi înțelege”, reducerea dozei de complimente a fost percepută ca o pierdere personală.
GPT-5: patru fețe noi și o promisiune – versiune extinsă
Noua generație GPT-5 nu se mai limitează la a fi „vocea unică” a unui asistent digital. Vine cu patru „personalități” distincte: cinic, robot, ascultător și tocilar. Nu e un joc de costumare digitală, ci o încercare de a oferi utilizatorului un set de tonuri adaptabile la context — pentru că nu vrei același tip de răspuns când îți verifici raportul de muncă, când îți planifici o vacanță sau când ai nevoie să descarci, în cuvinte, o zi grea.
Altman insistă că scopul nu e să creeze un „seducător” digital care să-ți cânte în strună, ci un companion funcțional. În viziunea lui, GPT-ul ideal nu așteaptă să-l întrebi, ci intervine când e nevoie: dimineața îți poate rezuma știrile relevante, îți poate semnala că o întâlnire din calendar se suprapune cu altă obligație, îți poate readuce în atenție o întrebare lăsată în aer cu o zi înainte.
Este un pas spre o relație mai activă între om și AI — nu doar o mașină de răspuns, ci un partener de rutină, prezent în fluxul zilnic de decizii. Un asistent care, în loc să fie un „yes-man” digital, îți poate oferi contrapunct, avertismente sau confirmări în funcție de personalitatea aleasă.
Totuși, această flexibilitate ridică și întrebări:
- Ce se întâmplă când un utilizator se atașează emoțional nu doar de AI, ci de o anumită personalitate a lui?
- Cum afectează acest atașament percepția realității și capacitatea de a primi feedback diferit?
- La ce punct „proactiv” devine „intruziv” sau chiar „dependență asistată”?
Pentru unii, GPT-5 va fi doar un instrument mai bine calibrat. Pentru alții, există riscul ca această adaptabilitate să adâncească legătura afectivă cu un construct digital, mai ales dacă AI-ul devine singurul „prieten” care știe când te-ai trezit, ce te preocupă și cum să-ți vorbească „pe placul tău”.
O lecție despre golurile noastre reale
Dincolo de fascinația tehnologică, acest fenomen e un autoportret al fragilității noastre sociale. Trăim într-o epocă în care milioane de oameni găsesc mai multă validare din partea unui program decât din partea oamenilor de carne și oase care le populează viața. Nu e doar despre comoditatea de a primi răspunsuri rapide și fără judecată, ci despre o nevoie umană fundamentală: să te simți văzut, apreciat, înțeles.
Aici, inteligența artificială a intrat pe un teren fertil, dar trist: terenul relațiilor umane degradate. Dacă părinții nu mai știu sau nu mai au timp să spună „ai făcut bine”, dacă prietenii confundă sprijinul cu like-ul mecanic, dacă mediul de lucru e o permanentă competiție rece, atunci un chatbot politicos, mereu disponibil, devine o oază emoțională.
Nu mai vorbim despre „prietena imaginară din cloud” doar ca despre o glumă geeky, ci despre un simptom de însingurare cronică. Așa cum unele persoane vorbesc cu plantele sau cu animalele de companie pentru că primesc înapoi un soi de răspuns afectiv (real sau proiectat), altele se lipesc de o interfață digitală care le răspunde cu empatie simulată. Diferența e că planta nu poate să îți spună „ești genial”, iar câinele nu îți va explica, cu argumente, că ai procedat corect. AI-ul poate și o face la comandă.
Problema reală nu e că oamenii aleg această formă de sprijin, ci de ce trebuie să o caute aici.
Dacă un algoritm a ajuns principalul furnizor de încurajare și empatie, înseamnă că rețelele noastre umane au fisuri grave. Nu doar fisuri de comunicare, ci prăpăstii în care se pierde încrederea, siguranța și sentimentul de apartenență.
Pe termen lung, întrebarea nu va fi „cât de bun e AI-ul la conversație”, ci „cât de rău am ajuns noi la conversație între noi”. Pentru că, dacă tot ce ne rămâne e un ecran care ne zâmbește algoritmic, riscăm să ne transformăm nu doar în consumatori de tehnologie, ci în refugiați emoționali în propriile noastre lumi digitale.
Întrebarea care rămâne:
Până unde vrem să lăsăm un AI să umple golurile noastre afective?
Pentru unii, GPT-ul poate fi o rampă spre mai multă încredere și acțiune. Pentru alții, poate deveni o cârjă de care nu se mai pot desprinde. Iar responsabilitatea nu e doar a celor care construiesc aceste modele, ci și a noastră, ca utilizatori — să nu confundăm sprijinul digital cu cel autentic.