L’intelligenza artificiale e il futuro della salute: perché non è ancora il momento di fidarsi

L'intelligenza artificiale e il futuro della salute: perché non è ancora il momento di fidarsi

L'intelligenza artificiale e il futuro della salute: perché non è ancora il momento di fidarsi

Matteo Rigamonti

Febbraio 15, 2026

Milano, 15 febbraio 2026 – I chatbot basati sull’intelligenza artificiale non sono ancora pronti a dare consigli affidabili sulla salute. A dirlo è uno studio pubblicato ieri su Nature Medicine dall’Università di Oxford, che ha coinvolto quasi 1.300 persone in un esperimento online per valutare come i modelli linguistici più recenti si comportano nel supportare decisioni mediche di tutti i giorni.

Test a grande scala: chatbot e salute sotto esame

Nel dettaglio, i ricercatori di Oxford hanno proposto ai partecipanti dieci situazioni mediche diverse, dal giovane con un forte mal di testa dopo una serata fuori fino alla neomamma stanca e senza fiato. Ogni caso chiedeva agli utenti di capire quale potesse essere il problema di salute e se fosse il caso di chiamare il medico di famiglia o addirittura l’ambulanza. I partecipanti potevano scegliere se affidarsi a un modello linguistico di grandi dimensioni – come GPT-4o, Llama 3 o Command R+ – oppure usare i tradizionali motori di ricerca online.

Parallelamente, gli stessi scenari sono stati sottoposti direttamente ai chatbot, senza l’intervento umano, per vedere come se la cavano in condizioni più controllate. Il confronto tra le due modalità ha permesso di capire quanto l’intelligenza artificiale sia davvero utile nel rapporto medico-paziente.

I risultati: aspettative deluse e limiti evidenti

I dati mostrano una differenza netta tra le prestazioni dei chatbot testati da soli e quelle ottenute quando interagiscono con gli utenti. Da soli, i modelli riuscivano a individuare il problema di salute nel 94,9% dei casi e a suggerire cosa fare nel 56,3%. Ma quando erano gli utenti a dialogare con l’IA, le cose cambiavano: solo nel 34,5% dei casi si individuava il problema giusto e la scelta dell’azione corretta scendeva al 44,2%.

Gli autori dello studio sottolineano che questi numeri non sono molto diversi da quelli del gruppo che ha usato i classici motori di ricerca. “Non abbiamo visto un vantaggio significativo nell’uso dei chatbot rispetto alle risorse online già disponibili”, ha spiegato uno dei ricercatori, il dottor James O’Connor.

Dove si inceppa il sistema: informazioni incomplete e risposte sbagliate

Per capire il motivo di questi problemi, gli studiosi hanno esaminato a mano 30 conversazioni tra utenti e chatbot. È emerso che spesso le persone fornivano all’IA dati incompleti o sbagliati sui sintomi. Ma non è tutto: in vari casi i chatbot stessi hanno dato risposte imprecise o fuorvianti, aumentando il rischio di errori nel giudizio.

“Abbiamo capito che la qualità del dialogo è fondamentale”, ha ammesso la professoressa Emily Carter, coautrice dello studio. “Se chi usa il sistema non spiega bene i sintomi o se il chatbot fraintende, il rischio di diagnosi sbagliata o di consigli errati sale parecchio”.

Il futuro dei chatbot in medicina: tra speranze e precauzioni

Alla luce di questi dati, gli autori invitano a non affidarsi troppo ai chatbot per consigli sanitari, almeno finché non saranno messi a punto sistemi più efficaci e capaci di gestire la complessità delle conversazioni umane. “L’intelligenza artificiale può essere uno strumento valido – ha aggiunto O’Connor – ma oggi non può sostituire il giudizio di un medico o la consulenza diretta di un professionista della salute”.

Il tema resta aperto. Con il rapido sviluppo delle tecnologie digitali, la tentazione di usare soluzioni automatiche per problemi di salute è sempre più forte. Ma, come dimostra lo studio dell’Università di Oxford, la strada per un uso sicuro e affidabile dell’intelligenza artificiale in medicina è ancora lunga.