Dottor Google, addio. Se per anni il motore di ricerca è stato l’interlocutore di riferimento per chi cercava risposte rapide su sintomi, referti o stili di vita, ora OpenAI sta per andare oltre dando vita a ChatGPT Salute: una sezione interamente dedicata alle conversazioni su salute e benessere, pensata per aiutare le persone a sentirsi più informate, preparate e sicure. Con una precisazione che l’azienda ribadisce più volte: il servizio affianca le cure dei professionisti sanitari, non le sostituisce.
Secondo OpenAI, 230 milioni di utenti ogni settimana già utilizzano l’intelligenza artificiale per porre domande e avere diagnosi, spesso caricando analisi, referti ed esami. Il problema è che le informazioni sanitarie sono sparse tra portali, app, dispositivi indossabili, PDF e note mediche. Il risultato è una visione frammentata che costringe le persone a orientarsi da sole in un marasma che può lasciare spaesati.
ChatGPT Salute nasce proprio per ‘organizzare’ e dare un senso a questo utilizzo, offrendo uno spazio separato in cui chiedere chiarimenti su sintomi, esami, terapie, stili di vita e benessere, con la possibilità – su base volontaria – di collegare dati provenienti da app di fitness e dalle cartelle cliniche elettroniche.
A cosa serve ChatGPT Salute
L’obiettivo dichiarato è offrire risposte più pertinenti e contestualizzate, capaci di spiegare risultati clinici in un linguaggio accessibile, aiutare a preparare le domande per una visita, interpretare i dati dei dispositivi indossabili, riassumere le istruzioni per la cura, ricevere indicazioni su alimentazione e sport e comprendere l’evoluzione del proprio stato di salute nel tempo.
La novità principale è proprio l’integrazione di cartelle cliniche elettroniche e app di wellness: tra le piattaforme citate da OpenAI figurano Apple Health, MyFitnessPal, Peloton, Weight Watchers e AllTrails, oltre ad altri servizi dedicati a nutrizione, attività fisica e allenamento. Collegando queste app, ChatGPT Salute può analizzare dati su movimento, alimentazione e routine sportive, restituendo una visione più ordinata e comprensibile del proprio percorso di benessere.
In questo modo, spiega l’azienda, il modello può offrire “risposte più mirate e utili”. L’esperienza resta quella tipica di ChatGPT: si possono caricare file e foto, usare la ricerca, la funzione Deep Research, la modalità vocale e la dettatura. Ma il sistema fa riferimento alle informazioni collegate per fornire risposte più pertinenti e contestualizzate.
Gli utenti possono anche impostare istruzioni personalizzate per la sezione Salute, indicando su cosa concentrarsi, quali argomenti evitare o come preferiscono che vengano formulate le risposte. Queste istruzioni valgono solo per le chat di Salute e possono essere modificate o rimosse in qualsiasi momento.
Perché è meglio non farsi fare diagnosi
Lo sviluppo del modello, precisa l’azienda, è avvenuto in collaborazione con oltre 260 medici attivi in 60 Paesi e in decine di specialità, i quali in due anni hanno fornito oltre 600mila feedback. Un lavoro che ha influenzato non solo cosa il sistema può fare, ma anche come risponde: quando incoraggiare un follow-up medico, come comunicare con chiarezza senza semplificare e come dare priorità alla sicurezza.
Ma attenzione, c’è un punto fondamentale da considerare: ChatGPT Salute “non è pensato per fare diagnosi”. OpenAI è esplicita: ChatGPT Salute non è uno strumento medico. E dunque non sarà responsabile – e l’azienda nemmeno – delle risposte che darà.
Come in tutti gli altri casi di uso dell’intelligenza artificiale infatti, anche ChatGpt Salute può avere allucinazioni e sbagliarsi, anche perché, per quanto personalizzate siano le informazioni a sua disposizione, il modello lavora pur sempre su base statistica. Senza contare che i dati che l’utente collega o carica possono essere incompleti, non aggiornati o male interpretati. Va poi tenuto in conto che, per definizione, l’AI è obbligata a dare una risposta, e questo porta a invenzioni, errori e imprecisioni, che possono avere conseguenze gravi in un ambito delicato come quello della salute.
Come tutelarsi
Il problema è che il rischio di diagnosi percepita è elevato, perché un linguaggio chiaro, ben strutturato e personalizzato può indurre l’utente a considerare la risposta come clinicamente attendibile, soprattutto in situazioni di ansia o fragilità.
Come tutelarsi? Innanzitutto ricordandosi sempre di rivolgersi a un medico in carne e ossa. Poi è è bene fare un utilizzo selettivo e minimo dei dati, evitare il collegamento delle cartelle cliniche se non strettamente necessario e usare ChatGPT Salute soprattutto per spiegazioni generiche, preparazione alle visite, lettura guidata dei referti e non come archivio sanitario centrale.
Privacy e separazione dei dati
C’è poi un’altra questione legata alla sicurezza: la privacy. ChatGPT Salute funziona come uno spazio separato, con memorie dedicate e tutele avanzate per i dati sensibili. Le conversazioni di Salute non vengono utilizzate per addestrare i modelli di base e non si mescolano con le chat standard. App collegate, file e conversazioni sono archiviati separatamente, mentre le chat restano visibili nella cronologia per essere ritrovate facilmente, ma le informazioni sanitarie rimangono confinate all’interno di Salute.
Quando utile, ChatGPT Salute può considerare il contesto non sanitario (come un recente trasloco o un cambiamento nello stile di vita) per rendere una risposta più pertinente. Ma il flusso è a senso unico: le informazioni sanitarie non confluiscono nelle chat principali e le conversazioni fuori da Salute non possono accedere a file o conversazioni create in Salute.
Ma in Europa c’è il Gdpr
Al momento ChatGPT Salute è disponibile negli Usa per un piccolo gruppo di utenti iniziali in modo da raccogliere feedback, ma l’intenzione è di rendere il modello disponibile a tutti gli utenti su web e iOS “nelle prossime settimane”. Chi ha fretta, si può iscrivere alla lista d’attesa. Le integrazioni con cartelle cliniche elettroniche e alcune app, però, sono limitate agli Stati Uniti. In Europa, Svizzera e Regno Unito il servizio è infatti escluso dalla fase iniziale. Nell’Unione il Gdpr (il regolamento sulla protezione dei dati personali) impone standard molto stringenti per il trattamento dei dati sanitari, richiedendo consenso esplicito e condizioni specifiche. Resta poi una preoccupazione più ampia: affidare informazioni mediche dettagliate a una piattaforma privata statunitense in questo momento, considerando i turbolenti rapporti con l’altra sponda dell’Atlantico, fa sorgere qualche dubbio e magari invita alla prudenza.
—
Popolazione
content.lab@adnkronos.com (Redazione)



