Hai già scaricato la mia app?

L’AI sta rivoluzionando la medicina, ma c’è un problema.

L’intelligenza artificiale sta rivoluzionando la medicina, ma c’è un problema che non possiamo ignorare: le allucinazioni. Non parlo di pazienti sotto il delirio pre-anestesia, ma di modelli di IA che si inventano diagnosi, sintomi e terapie, spacciandole per verità assolute.

Un gruppo di 25 esperti del MIT, della Harvard Medical School e di Google ha pubblicato uno studio che analizza questo fenomeno. Le IA, soprattutto nei contesti clinici, tendono a generare informazioni che sembrano plausibili, con tanto di linguaggio medico sofisticato. Il problema? Sono completamente false. E il rischio di errori gravi è dietro l’angolo.

Questo è un tema che conosco bene, lo insegno nel mio corso di Cyber-Humanities all’Università Vita-Salute San Raffaele di Milano all’interno del Corso di Laurea in Medicina e Chirurgia. Un corso per gli studenti del terzo anno che ha l’obiettivo è formare futuri medici a comprendere l’impatto della tecnologia nel loro lavoro, tra opportunità e rischi concreti. E proprio questo è il punto: l’intelligenza artificiale può essere un alleato straordinario, ma solo se chi la usa sa interpretarla con spirito critico.

Un esempio? Whisper, il sistema di trascrizione di OpenAI adottato in diversi ospedali. Un aiuto prezioso per trasformare le conversazioni medico-paziente in documenti digitali, se non fosse che ogni tanto si inventa frasi mai dette. Ora, immaginate un medico che legge una trascrizione errata e prende una decisione sbagliata. Basta poco per trasformare una tecnologia promettente in un problema serio.

Ecco perché è fondamentale che chi opera in ambito sanitario sia formato a riconoscere i limiti di questi strumenti. Non possiamo permetterci di delegare ciecamente a un algoritmo decisioni che riguardano la vita delle persone. Il futuro della medicina digitale non si costruisce con la fiducia cieca nell’IA, ma con conoscenza, controllo umano e consapevolezza critica.

Condividi su: