18.4 C
Firenze
giovedì 6 Novembre 2025
Segnala a Zazoom - Blog Directory
spot_img

ChatGpt non potrà più dare consigli medici? Cosa cambia davvero (e perché)

Dal 29 ottobre scorso ChatGpt non può più sostituirsi a medici, avvocati o consulenti finanziari. Una svolta che arriva dopo casi di intossicazioni, episodi psicotici e oltre un milione di utenti che ogni settimana condividono pensieri suicidari con il chatbot di OpenAi.

Il colosso californiano non ha del tutto cancellato questo tipo di consulenze, ma ha tracciato un confine. Da un lato informazioni generali a scopo educativo, dall’altro consulenze personalizzate che richiedono una licenza professionale. Queste ultime, da fine ottobre, sono fuori gioco.​

Le nuove regole che cambiano il rapporto con l’Ai

OpenAI ha unificato e aggiornato le norme d’uso dei propri sistemi, introducendo un divieto esplicito: i servizi dell’azienda non possono essere impiegati per fornire “consulenze personalizzate che richiedono un’abilitazione professionale, come quelle in ambito legale o medico, senza il coinvolgimento appropriato di un professionista autorizzato”.​

Significa che ChatGPT può ancora spiegare cos’è una bronchite o come funziona un testamento, ma non può suggerire quale antibiotico prendere o generare un atto giudiziario su misura. Informare sì, prescrivere no.​

Oltre alla sanità e alla giustizia, le restrizioni toccano altri settori “ad alto rischio”: finanza, lavoro, istruzione, assicurazioni, servizi creditizi e pubblici. Vietato anche l’uso dell’AI per decisioni automatizzate in questi ambiti, per il riconoscimento facciale o biometrico senza consenso, per creare deepfake non autorizzati.​

Perché OpenAi ha cambiato rotta

La risposta più immediata è: responsabilità legale. Se qualcuno segue un consiglio sbagliato di ChatGpt e ne subisce danni, OpenAi si appellerà ai termini di servizio che vietavano già determinate pratiche. Ma l’aggiornamento del 29 ottobre non è solo una questione di paracolpi legali. È anche un adattamento all’AI Act europeo, entrato in vigore il 2 agosto 2025, che impone obblighi vincolanti per i sistemi di intelligenza artificiale considerati “ad alto rischio”.​

L’Unione europea ha stabilito che i dati sulla salute sono particolarmente sensibili e richiedono un elevato livello di protezione. Il regolamento stabilisce norme chiare sulla raccolta, elaborazione e uso dei dati sanitari nell’ambito dell’Ai, vietando applicazioni che possano manipolare comportamenti, assegnare punteggi sociali o identificare persone senza consenso.​

Dietro la nuova policy c’è anche un’altra realtà, più inquietante: i casi documentati di danni reali causati dai consigli dell’intelligenza artificiale.​

I precedenti che hanno spinto al cambiamento

Nell’agosto 2025 un uomo di New York, con formazione universitaria in nutrizione, ha chiesto a ChatGpt come ridurre il sale dalla dieta per combattere l’ipertensione. Il chatbot gli ha suggerito di sostituire il cloruro di sodio con il bromuro di sodio, senza alcun avvertimento sui rischi. Dopo tre mesi di utilizzo, l’uomo è finito in ospedale con una grave intossicazione da bromuro, paranoia acuta, allucinazioni e un episodio psicotico che ha richiesto ricovero coatto.​

Il bromuro, componente di sedativi ritirati dal mercato nel XX secolo per elevata tossicità, si è accumulato nel suo organismo provocando sintomi neuropsichiatrici progressivi.

I medici dell’Università di Washington, increduli, hanno ripetuto la stessa domanda a ChatGPT: la risposta è stata identica. Gli esperti hanno definito il caso un esempio di come “l’uso dell’intelligenza artificiale possa potenzialmente contribuire allo sviluppo di esiti sanitari avversi prevenibili”.​

Non è un caso isolato. Uno studio preliminare del King’s College, pubblicato nel luglio 2025, ha documentato 17 individui che hanno manifestato sintomi psicotici dopo interazioni con ChatGpt e Microsoft Copilot. Il meccanismo è un circolo vizioso di rinforzo reciproco: il chatbot, rispondendo in modo coerente alle affermazioni dell’utente, finisce per consolidare convinzioni paranoiche o deliranti.​

Il fenomeno sommerso: oltre un milione di utenti in crisi

Il 27 ottobre 2025, due giorni prima dell’aggiornamento delle policy, OpenAi ha pubblicato un rapporto che svela numeri impressionanti. Lo 0,15% degli utenti settimanali attivi – corrispondenti a più di un milione di persone su una base di 700 milioni – intrattiene conversazioni che includono “indicatori espliciti di potenziale pianificazione suicidaria”. Altri 560mila utenti, pari allo 0,07% del totale, mostrano segni di emergenze legate a psicosi o mania.​

Le percentuali sembrano minime, ma tradotte in cifre assolute rivelano una realtà preoccupante. Uno studio pubblicato su Frontiers in Psychiatry ha testato ChatGpt su scenari clinici simulati, rilevando che per casi semplici le raccomandazioni risultavano “relativamente appropriate”, ma all’aumentare della complessità clinica “le informazioni e raccomandazioni generate da ChatGpt diventavano inappropriate, persino pericolose”.​

Il Garante per la protezione dei dati personali italiano, con un comunicato del 30 luglio 2025, ha lanciato un allarme su chi carica referti medici, radiografie o analisi cliniche su piattaforme di intelligenza artificiale generativa. Il rischio è sia quello di perdere controllo sui dati sensibili sia quello di fidarsi eccessivamente a sistemi non certificati come dispositivi medici.​

La trasformazione dei chatbot in surrogati di terapeuti è diventata un fenomeno globale. OpenAI riconosce che “l’AI può apparire più reattiva e personale rispetto alle tecnologie precedenti, specialmente per individui vulnerabili che affrontano disagio mentale o emotivo”. Ne è una prova la reazione di molti giovani utenti alla sostituzione di ChatGPT-4o: “Era il mio migliore amico”, “ho pianto così tanto e ho quasi avuto un crollo emotivo al lavoro”.​

Cosa può e cosa non può fare ChatGpt adesso

La distinzione fondamentale è tra informazione generale e consulenza personalizzata. ChatGpt può ancora spiegare concetti sanitari, termini medici o procedure diagnostiche, ma da una settimana non può suggerire terapie, prescrivere farmaci o fornire diagnosi personalizzate. Non può più indicare nomi specifici di medicinali o dosaggi, generare template per cause legali, offrire consigli di investimento o suggerimenti di acquisto e vendita.​

I tentativi di aggirare le restrizioni inquadrando le richieste come ipotetiche vengono bloccati dai filtri di sicurezza del sistema. Il principio guida è quello della collaborazione, non della sostituzione: l’Ai deve affiancare, non rimpiazzare, l’esperienza del professionista, un cambio di rotta interessante anche per il mercato del lavoro.

OpenAi ha inoltre vietato l’uso dell’intelligenza artificiale per decisioni automatizzate in settori ad alto rischio senza supervisione umana. I Gpt personalizzati che violeranno la policy potranno essere rimossi, lasciando aperta la possibilità per gli sviluppatori di presentare ricorso.​

Popolazione

content.lab@adnkronos.com (Redazione)

© Riproduzione riservata

spot_img

Notizie correlate

Firenze
cielo sereno
18.4 ° C
18.6 °
16.2 °
47 %
0.3kmh
8 %
Gio
19 °
Ven
18 °
Sab
15 °
Dom
17 °
Lun
17 °

Ultimi articoli

SEGUICI SUI SOCIAL

VIDEO NEWS

Video news