Scarica l'App NewsRoom.
Non perderti le ULTIME notizie e le ALLERTA METEO in tempo reale.

Scarica GRATIS

È arrivato ChatGPT Health, può leggere i tuoi esami e fare diagnosi personalizzate

OpenAI lancia ChatGPT Health per collegare cartelle cliniche e app di benessere, offrendo analisi personalizzate.

OpenAI ha lanciato il 7 gennaio 2026 ChatGPT Health, una funzionalità dedicata che trasforma il celebre chatbot di intelligenza artificiale in un assistente sanitario personale capace di analizzare cartelle cliniche elettroniche, interpretare referti medici e fornire indicazioni personalizzate su alimentazione e attività fisica. La piattaforma, sviluppata dopo oltre due anni di collaborazione con più di 260 medici provenienti da 60 paesi, rappresenta l’ingresso ufficiale della società di Sam Altman nel settore sanitario digitale, un ambito in cui già oltre 230 milioni di persone nel mondo utilizzano settimanalmente ChatGPT per quesiti legati alla salute.

La nuova esperienza si distingue per la capacità di integrarsi direttamente con le cartelle cliniche elettroniche attraverso la partnership con b.well Connected Health, una piattaforma che unifica i dati sanitari dei pazienti collegando medici, farmacie, laboratori e dispositivi indossabili in un unico sistema. Gli utenti possono collegare in modo sicuro applicazioni di monitoraggio del benessere diffuse come Apple Health, MyFitnessPal, Function Health, Peloton, Weight Watchers, AllTrails e Instacart per ottenere un’analisi contestualizzata delle proprie informazioni sanitarie. ChatGPT Health opera come uno spazio isolato all’interno del chatbot, con conversazioni, file e applicazioni connesse memorizzate separatamente dal resto delle interazioni dell’utente, secondo quanto dichiarato dall’azienda che ha specificato come i dati sanitari non verranno utilizzati per addestrare i modelli di base dell’intelligenza artificiale.

OpenAI ha sottolineato che ChatGPT Health non è progettato per effettuare diagnosi né prescrivere terapie e non deve sostituire l’assistenza medica professionale, ma piuttosto aiutare gli utenti a interpretare informazioni sanitarie, prepararsi alle visite mediche, comprendere i risultati degli esami del sangue nel tempo, valutare il sonno rispetto allo stress e creare liste della spesa coerenti con piani alimentari personalizzati. La funzionalità consente di caricare foto e file, utilizzare la ricerca avanzata, la modalità vocale e, quando pertinente, ChatGPT può fare riferimento automaticamente alle informazioni connesse dall’utente per fornire risposte più rilevanti e personalizzate. Al momento ChatGPT Health è accessibile attraverso una lista di attesa per un gruppo selezionato di utenti con piani Free, Go, Plus e Pro, con un rilascio graduale previsto su piattaforme web e iOS nelle prossime settimane, mentre le integrazioni più complesse come l’accesso ai record clinici sono disponibili esclusivamente negli Stati Uniti.

Gli utenti nell’Unione Europea, nel Regno Unito e in Svizzera non possono ancora collegare dati sanitari a causa di normative sulla privacy più stringenti, in particolare il Regolamento Generale sulla Protezione dei Dati che impone requisiti rigorosi per il trattamento di informazioni sensibili. La questione della privacy costituisce uno dei nodi più critici del progetto, considerando che OpenAI ha implementato quella che definisce una protezione stratificata che include crittografia appositamente sviluppata e isolamento dei dati sanitari, aggiungendosi ai sistemi di sicurezza già presenti in ChatGPT. L’azienda si impegna esplicitamente a non utilizzare le informazioni sanitarie degli utenti per l’addestramento dei propri modelli linguistici e consente agli utenti di connettere e disconnettere fonti di dati sanitarie o applicazioni in qualsiasi momento, cancellare la memoria o chat specifiche e attivare l’autenticazione a più fattori per un ulteriore livello di protezione.

Tuttavia, la protezione non è di tipo end-to-end nel senso più restrittivo e le informazioni, pur essendo crittografate, sono soggette a richieste legali valide e non rientrano automaticamente nelle normative sanitarie come l’HIPAA statunitense, trattandosi di un prodotto consumer e non clinico. Il Garante italiano per la Protezione dei Dati Personali ha già lanciato l’allarme sull’abuso delle piattaforme di intelligenza artificiale in ambito sanitario, sottolineando i rischi connessi al caricamento di referti medici per ottenere indicazioni senza adeguate garanzie di sicurezza e tracciabilità. L’Autorità italiana per la protezione dei dati aveva già notificato a OpenAI nel gennaio 2024 presunte violazioni del GDPR in seguito a un’indagine plurimensile su ChatGPT, con particolare riferimento alla mancanza di una base giuridica adeguata per la raccolta e il trattamento di dati personali ai fini dell’addestramento degli algoritmi e alla tendenza dello strumento a produrre informazioni inesatte sugli individui, il fenomeno delle allucinazioni.

Sul fronte dell’accuratezza diagnostica, diversi studi scientifici hanno evidenziato limiti significativi nell’utilizzo di ChatGPT per scopi medici, con una ricerca pubblicata su PLOS ONE che ha rilevato un’accuratezza diagnostica del 49 percento su 150 casi clinici complessi tratti da Medscape Clinical Challenges, con una precisione del 48,67 percento e una sensibilità del 48,67 percento, indicando la necessità di miglioramenti sostanziali per identificare in modo affidabile la diagnosi corretta. Un altro studio condotto presso l’Università di Western Ontario ha confermato che ChatGPT fornisce risposte corrette solo nel 49 percento dei casi clinici complessi, risultando particolarmente convincente nelle spiegazioni indipendentemente dalla correttezza della risposta, un elemento che aumenta il rischio di affidamento eccessivo da parte degli utenti. Una ricerca pubblicata su JEMA Pediatrics ha rilevato che ChatGPT commette errori nell’83 percento delle diagnosi pediatriche, con 11 casi su 100 formulati in modo troppo generico e incapacità di formare relazioni importanti come quella tra autismo e carenze vitaminiche.

Gli esperti sottolineano che un chatbot non può sostituire una valutazione clinica professionale e l’interpretazione di informazioni mediche deve sempre avvenire sotto la guida di un medico qualificato, considerando che gli algoritmi di intelligenza artificiale possono compiere errori per varie ragioni quali dataset incompleti, bias nei dati di addestramento, bug o difetti di programmazione, oppure situazioni cliniche atipiche non contemplate dal modello. Il dottor Adam Rodman, specialista in medicina interna presso il Beth Israel Deaconess Medical Center di Boston, ha espresso sorpresa nel constatare che ChatGPT da solo ha superato i medici nell’accuratezza diagnostica raggiungendo un tasso medio del 90 percento, mentre i medici che utilizzavano il chatbot hanno ottenuto un punteggio medio del 76 percento e quelli senza il chatbot del 74 percento, evidenziando una tendenza dei medici a mantenere le proprie diagnosi anche quando il chatbot proponeva alternative potenzialmente più accurate.

Il fenomeno dell’utilizzo di ChatGPT per questioni sanitarie ha assunto dimensioni considerevoli, con oltre 40 milioni di persone a livello globale che utilizzano quotidianamente il chatbot per informazioni sanitarie, rappresentando oltre il 5 percento di tutti i messaggi globali inviati a ChatGPT. Nelle aree rurali degli Stati Uniti con accesso limitato ai servizi sanitari, gli utenti inviano quasi 600.000 messaggi ogni settimana su temi sanitari e il 70 percento delle conversazioni sulla salute avviene fuori dagli orari di ricevimento medico, segno che ChatGPT viene utilizzato quando il sistema tradizionale non è disponibile. Un’indagine condotta da Pew Research ha rilevato che il 60 percento degli adulti americani si sente a disagio con la prospettiva che i medici si affidino all’intelligenza artificiale per diagnosticare malattie e suggerire trattamenti, mentre un sondaggio condotto su 2.410 operatori sanitari in Europa e negli Stati Uniti ha rivelato che il 72 percento è almeno moderatamente preoccupato per la possibilità che i modelli di intelligenza artificiale generativa diventino la principale fonte di autodiagnosi per i pazienti.

La questione della responsabilità medica in caso di errori diagnostici derivanti dall’utilizzo di sistemi di intelligenza artificiale rappresenta un nodo giuridico di rilevante complessità, considerando che il medico mantiene una posizione di garanzia nei confronti del paziente con il dovere di verificare l’attendibilità dello strumento diagnostico e di valutarne criticamente i risultati, non potendo affidarsi passivamente alle indicazioni fornite dall’algoritmo. L’articolo 590-sexies del codice penale italiano disciplina la responsabilità colposa per morte o lesioni personali in ambito sanitario, prevedendo che il medico possa andare esente da responsabilità se ha rispettato le linee guida e le buone pratiche clinico-assistenziali, ma l’applicazione di questa norma ai sistemi di intelligenza artificiale risulta problematica in quanto le best practice in materia sono in continua evoluzione e spesso non codificate in modo uniforme. In Italia, il Senato ha approvato nel settembre 2025 con 77 voti favorevoli e 55 contrari la legge quadro sull’intelligenza artificiale che chiarisce come i sistemi di intelligenza artificiale contribuiscano al miglioramento del sistema sanitario ma restino uno strumento di supporto, con la decisione clinica in prevenzione, diagnosi, terapia e prescrizione che resta sempre prerogativa del medico.

Sul fronte delle alternative tecnologiche, Google ha sviluppato Med-PaLM 2, un modello linguistico specificamente addestrato su dati medici che secondo gli studi ha fornito risposte concordanti con quelle dei medici nel 92,6 percento dei casi contro il 61,9 percento del modello generico Flan-PaLM, con solo il 5,8 percento delle risposte potenzialmente pericolose per il paziente. La Food and Drug Administration statunitense ha approvato oltre 950 dispositivi medici abilitati dall’intelligenza artificiale e dall’apprendimento automatico, con un aumento del 37 percento rispetto al totale di 692 dispositivi dell’anno precedente, di cui 750 utilizzati in radiologia, 98 in cardiologia e 34 in neurologia. L’arrivo di ChatGPT Health rappresenta un passaggio cruciale da strumento generico ad assistente personale per la salute che può integrare dati reali per fornire risposte più contestualizzate, ma gli esperti invitano alla cautela sottolineando che un chatbot non può sostituire una valutazione clinica professionale e che l’interpretazione di informazioni mediche deve sempre avvenire sotto la guida di un medico qualificato, considerando i rischi di errori diagnostici, disinformazione, ritardi nelle cure e disuguaglianze nell’accesso alle tecnologie. Per restare sempre aggiornato scarica GRATIS la nostra App!