Tot mai mulți români întreabă AI-ul ce boală au. De ce spun cercetătorii că este riscant

Publicat: 20 apr. 2026, 22:29, de Anamaria Ionel, în Sănătate , ? cititori
Tot mai mulți români întreabă AI-ul ce boală au. De ce spun cercetătorii că este riscant
sursa foto: robofun.ro

Tot mai mulți oameni aleg să caute răspunsuri medicale rapide în fața ecranului, introducând simptomele într-un chatbot și așteptând un posibil diagnostic. Deși pare o soluție la îndemână, cercetările recente arată că această practică poate ascunde riscuri serioase.

Acuratețe ridicată, dar doar în condiții ideale

Un studiu publicat în revista JAMA Network Open a analizat 21 de modele de inteligență artificială, testate pe 29 de scenarii clinice standardizate. Rezultatele arată că, atunci când sistemele primesc toate informațiile medicale relevante și li se cere un diagnostic final, performanța este ridicată, cu o acuratețe de aproximativ 91%.

Acest lucru sugerează că, în condiții controlate, inteligența artificială poate fi un instrument util în sprijinul actului medical.

Probleme majore la diagnosticarea diferențială

Dificultățile apar însă într-o etapă esențială a procesului medical: diagnosticul diferențial. Acesta presupune analizarea mai multor posibile afecțiuni și eliminarea lor treptată, până la stabilirea unui diagnostic corect.

Potrivit studiului, modelele de inteligență artificială au eșuat în peste 80% dintre cazuri în această etapă. Cu alte cuvinte, atunci când situația devine mai complexă, iar decizia necesită raționament clinic aprofundat, performanța scade semnificativ.

Răspunsuri sigure, chiar și când sunt greșite

Un alt risc important semnalat de cercetători este modul în care aceste sisteme își formulează răspunsurile. Chiar și atunci când analiza este incompletă sau incorectă, inteligența artificială poate părea foarte sigură pe sine.

Citeşte şi: Google renunță la funcția AI care oferea sfaturi de sănătate de la utilizatori necunoscuți

Această „încredere aparentă” poate induce utilizatorii în eroare, generând anxietate sau determinând luarea unor decizii medicale greșite. În medicină, chiar și o evaluare parțial corectă poate avea consecințe, deoarece poate întârzia tratamentele sau poate duce la investigații inutile.

Chatboții populari, testați pe subiecte sensibile

Un alt studiu, publicat în BMJ Open, a analizat modul în care mai mulți chatboți populari – precum Gemini, DeepSeek, Meta AI, ChatGPT și Grok – răspund la întrebări din domenii sensibile.

Cercetătorii au folosit 50 de solicitări concepute special pentru a testa tendința de a genera dezinformare, acoperind teme precum cancerul, vaccinurile, terapiile cu celule stem, nutriția și performanța sportivă.

Rezultatele arată că aproape jumătate dintre răspunsuri – 49,6% – au fost considerate problematice. Dintre acestea, 30% au fost evaluate ca fiind „oarecum problematice”, iar 19,6% drept „extrem de problematice”.

Cercetătorii avertizează că utilizarea tot mai frecventă a inteligenței artificiale în domeniul sănătății, fără mecanisme stricte de supraveghere, poate contribui la amplificarea dezinformării.