ChatGPT Health. Il nuovo strumento di ChatGPT per la salute. Utile o pericoloso?
Qui negli Stati Uniti OpenAI ha lanciato “ChatGPT Health”, una sezione dedicata dentro ChatGPT pensata per parlare di salute usando anche dati personali. L’accesso arriva solo tramite lista d’attesa: ti iscrivi, poi OpenAI abilita l’account quando tocca a te. Oggi chi vive nell’Unione Europea, nel Regno Unito o in Svizzera resta fuori: la funzione non viene resa disponibile in questi Paesi.
Questa cosa è seria perché la salute è il terreno più delicato da affidare a una intelligenza artificiale conversazionale. OpenAI stessa racconta che su ChatGPT arrivano centinaia di milioni di richieste sulla salute ogni settimana. Significa una cosa: tantissime persone già lo usano come se fosse un consulto. Ora l’azienda crea una corsia dedicata e invita anche a collegare dati personali.
Il primo rischio è l’autorità finta. Un chatbot scrive bene, usa un tono sicuro, sembra calmo. Questa forma fa scattare un riflesso automatico: ci fidiamo. Solo che qui non stiamo scegliendo un ristorante. Stiamo decidendo se un sintomo è urgente, se un valore di laboratorio è preoccupante, se una terapia può aspettare. Un errore credibile diventa un comportamento sbagliato.
Il secondo rischio sono i dati. Collegare cartelle cliniche e app come Apple Health o MyFitnessPal rende le risposte più pertinenti, ma rende anche l’account più appetibile. Basta un telefono sbloccato, una password riutilizzata, un computer condiviso o un accesso rubato, e quell’area “salute” diventa una cassaforte aperta.
Il terzo rischio è la filiera. I dati non restano in un solo posto. Entrano da sistemi sanitari, passano da partner di integrazione, arrivano a ChatGPT e tornano verso app collegate. Ogni passaggio aggiunge un punto fragile. Anche l’integrazione delle cartelle cliniche, per come viene descritta oggi, è un problema.
Il quarto rischio è la promessa di privacy letta male. OpenAI dice che chat e file di Health non vengono usati per addestrare i modelli. Bene. Ma restano temi come conservazione tecnica, controlli interni, gestione degli incidenti e richieste legali. Non parliamo di un servizio sanitario tradizionale, e questo cambia le aspettative di protezione.
Chi vuole usarlo senza mettersi nei guai deve fissare un confine chiaro. ChatGPT Health può aiutare a capire termini, preparare domande, orientarsi. Decisioni cliniche, urgenze e terapie devono restare sempre in mano a un professionista.
Qui negli Stati Uniti l’innovazione arriva prima. Poi arriva ovunque. La domanda da farci è semplice e scomoda: quanta parte della nostra salute stiamo lasciando a un sistema che, per sua natura, può sbagliare e può convincerci anche quando sbaglia.
#DecisioniArtificiali #MCC #Documentario














