Scandal şocant pe masa de operaţie. Medic luat la rost după ce a operat mai repede decât estima ChatGPT

Publicat: 16 dec. 2025, 14:31, de Anamaria Ionel, în NECONVENTIONAL , ? cititori
Scandal şocant pe masa de operaţie. Medic luat la rost după ce a operat mai repede decât estima ChatGPT
Scandal şocant pe masa de operaţie. Medic luat la rost după ce a operat mai repede decât estima ChatGPT. Colaj Puterea

Un bărbat din Galați a ajuns pe masa de operație cu o complicație provocată de un abces, iar discuția cu chirurgul nu a început cu întrebări despre tratament sau recuperare, ci cu o comparație cu un „sfat” primit online. Pacientul i-a cerut explicații medicului pentru durata intervenției, susținând că ChatGPT i-ar fi indicat o operație de o oră, nu de 20 de minute. 

Când „specialistul” online întârzie prezentarea la medic

Dincolo de disputa despre minutele petrecute în sala de operație, miza reală a cazului din Galați este alta: același „consult” online l-ar fi determinat pe bărbat să rămână acasă inițial, până când starea s-a agravat, iar intervenția a devenit necesară. Medicii atrag atenția că acesta este scenariul cel mai riscant: nu faptul că un pacient se informează, ci faptul că își amână decizia corectă pe baza unei interpretări greșite a informațiilor obținute dintr-un chatbot.

În practică, un abces poate evolua, iar severitatea și conduita depind de elemente pe care un algoritm nu le poate verifica: aspectul clinic, localizarea, semnele de complicație, starea generală, analizele și investigațiile.

Diagnosticul online: rapid, dar frecvent greșit

Cazul de la Galați se suprapune peste un fenomen tot mai vizibil: pacienți care vin la consultație cu „diagnosticul” deja formulat de AI și își contrazic medicii invocând răspunsuri primite de pe ChatGPT. Specialiștii avertizează că acest tip de validare online poate fi înșelător: algoritmii oferă răspunsuri coerente și convingătoare, dar fără examinare și fără context complet, erorile sunt frecvente.

Potrivit specialiștilor, studiile indică faptul că inteligența artificială poate greși în jur de 50% din cazuri. Cu alte cuvinte, viteza nu este echivalentă cu acuratețea, iar „siguranța” cu care sunt formulate unele răspunsuri poate împinge pacientul spre decizii greșite.

Medicii: „Provocarea e să demontezi o certitudine falsă”

Medicul internațional radiolog intervenționist Dan Mihoc spune că s-a întâlnit de mai multe ori cu situații în care pacienții vin cu concluzii preluate din ChatGPT sau Google. Uneori, spune el, pare „amuzant”, dar devine rapid complicat când trebuie să convingi un pacient că ceea ce a citit „nu e chiar real”.

În opinia sa, problema nu este accesul la informație, ci lipsa bazei medicale necesare pentru a filtra corect: fără pregătire, pacientul poate interpreta greșit riscurile, severitatea, urgența sau logica unui tratament. Cazul din Galați arată exact această ruptură: o recomandare generală, aplicată ca regulă, într-o situație care avea nevoie de evaluare medicală directă.

AI în cabinet, dar cu „filtru” profesional

Nu toți medicii resping utilizarea inteligenței artificiale. Medicul specialist neurolog Răzvan Radu spune că folosește AI ca unealtă în practica sa, inclusiv în timpul consultațiilor, având ChatGPT deschis lângă el. Diferența, subliniază el, este filtrul profesional: medicul pornește de la cunoștințe medicale și integrează informația în contextul clinic real.

Radu consideră că opoziția totală față de aceste instrumente poate deveni un dezavantaj: medicina evoluează, iar AI va avea un rol tot mai mare, însă utilitatea ei depinde de cine o folosește și cum.

Specialiștii invocă și date comparative: un studiu italian arată că medicii stabilesc diagnosticul corect în 75% din cazuri, în timp ce inteligența artificială reușește în aproximativ 50%, chiar și când este corect ghidată. Alte cercetări arată rezultate și mai slabe în pediatrie: doar 17% diagnostice corecte oferite de ChatGPT la copii.

Medicii insistă că diagnosticul nu înseamnă doar potrivirea simptomelor cu o listă de boli. Înseamnă întrebări țintite, examinare, diferențiere între cauze similare, interpretarea investigațiilor și evaluarea riscurilor. Cazul din Galați, în care „sfatul” online a influențat atât momentul prezentării la medic, cât și așteptările față de intervenție, este folosit ca avertisment despre cât de repede poate deveni periculos un răspuns tratat ca verdict medical.