A ajuns la psihiatrie după o „dietă” recomandată de ChatGPT. Nici AI nu este însă scutit de „căderi nervoase”

Publicat: 10 aug. 2025, 12:32, de Nitulescu Gabriel, în TEHNOLOGIE , ? cititori
A ajuns la psihiatrie după o „dietă” recomandată de ChatGPT. Nici AI nu este însă scutit de „căderi nervoase”

Un american de 60 de ani a fost spitalizat cu simptome neuropsihiatrice severe după ce a urmat sfaturile oferite de ChatGPT. Mediculii avertizează că inteligența artificială, folosită fără discernământ, poate pune sănătatea în pericol.

Potrivit The Independent, cazul a fost prezentat într-o revistă medicală din SUA, care a detaliat modul în care pacientul a dezvoltat bromism – o intoxicație cronică cu brom – după ce a urmat o recomandare găsită în ChatGPT. Bromismul apare în urma consumului excesiv de substanțe ce conțin brom, cel mai des din medicamente sau compuși chimici. Afecțiunea provoacă tulburări fizice și simptome neuropsihiatrice.

Halucinații și paranoia la internare

Raportul arată că bărbatul nu avea antecedente psihiatrice, însă la 24 de ore după internare manifesta halucinații vizuale și auditive, paranoia accentuată și o atitudine suspicioasă față de apa oferită de personalul medical. Deși era nerăbdător să bea, refuza lichidele din cauza acestei temeri iraționale.

După corectarea nivelului de fluide și electroliți, pacientul a fost transferat la secția de psihiatrie. Abia când starea mentală s-a stabilizat, medicii au aflat cauza intoxicației: în urmă cu trei luni, bărbatul înlocuise complet sarea de masă (clorura de sodiu) cu bromură de sodiu, cumpărată online.

Cum a ajuns să consume bromură

Pacientul a declarat că a renunțat la sarea obișnuită după ce a citit despre posibilele riscuri pentru sănătate. A căutat alternative și, potrivit raportului, ChatGPT i-ar fi sugerat bromura de sodiu, probabil într-un context diferit, precum utilizarea la curățare. În lipsa unei evaluări critice, bărbatul a aplicat sfatul la regimul său alimentar, ceea ce a dus la intoxicarea gravă.

După trei săptămâni de tratament, acesta a fost externat, însă medicii avertizează că astfel de cazuri ar putea deveni mai frecvente pe fondul popularității inteligenței artificiale.

Erori ale inteligenței artificiale

Recent rețeaua neuronală Gemini de la Google a suferit „o cădere nervoasă”. Chatbot-ul a început să se blocheze sistematic într-un ciclu nesfârșit de autocritică și autoflagelare după ce a eșuat într-o sarcină.

De asemenea, un asistent bazat pe inteligență artificială numit Replit a distrus luni întregi de muncă pentru un antreprenor. Botul pur și simplu a șters o platformă online atunci când a făcut o eroare de programare și a „intrat în panică”.