17 C
Firenze
giovedì 30 Ottobre 2025
Segnala a Zazoom - Blog Directory
spot_img

ChatGpt e pensieri suicidari: OpenAi annuncia importanti cambiamenti

Oltre un milione di persone ogni settimana condivide con ChatGpt pensieri suicidari, pianificazioni di autolesionismo o segnali di emergenze psichiatriche come psicosi e mania.

Lo scorso 27 ottobre, OpenAi ha pubblicato un rapporto che rivela numeri impressionanti: lo 0,15% degli utenti settimanali attivi – corrispondenti a più di un milione di persone su una base di 700 milioni – intrattiene conversazioni che includono “indicatori espliciti di potenziale pianificazione suicidaria”. Altri 560mila utenti, pari allo 0,07% del totale, mostrano segni di emergenze legate a psicosi o mania.​

La trasformazione dei chatbot in surrogati di terapeuti è diventata un fenomeno globale che solleva interrogativi etici, clinici e sociali. ChatGpt serve quasi 700 milioni di utenti ogni settimana, e questa platea così vasta aumenta statisticamente la probabilità di interazioni con persone in situazioni di vulnerabilità psicologica. OpenAi riconosce nel rapporto che “l’Ai può apparire più reattiva e personale rispetto alle tecnologie precedenti, specialmente per individui vulnerabili che affrontano disagio mentale o emotivo”.​

Ne è una prova evidente la reazione di molti giovani utenti alla sostituzione di ChatGpt-4o: “Era il mio migliore amico”, “non era perfetto, ma sembrava vivo”, “Ho pianto così tanto e ho quasi avuto un crollo emotivo al lavoro”, questi sono solo alcuni dei commenti lasciati dagli utenti, disperati su Reddit, quando il colosso americano ha rimpiazzato il vecchio modello con ChatGpt-5.

Per approfondire: ChatGpt-4o, l’addio diventa un lutto collettivo su Reddit: “Era il mio migliore amico”

I numeri del disagio digitale

Le percentuali sembrano minime, ma tradotte in cifre assolute rivelano una realtà preoccupante. Secondo le stime di OpenAi, lo 0,05% dei messaggi inviati a ChatGpt contiene “indicatori espliciti o impliciti di ideazione o intenzione suicidaria”. Per le emergenze legate a psicosi o mania, lo 0,01% dei messaggi mostra segnali riconoscibili. Un ulteriore 0,15% degli utenti settimanali e lo 0,03% dei messaggi indica “livelli potenzialmente elevati di attaccamento emotivo a ChatGpt”.​

La ricerca qualitativa condotta su 24 pazienti con disturbi mentali ha identificato otto fattori positivi nell’uso di ChatGpt per il supporto psicologico: psicoeducazione, supporto emotivo, definizione di obiettivi e motivazione, informazioni su risorse e rinvii, auto-valutazione e monitoraggio, terapia cognitivo-comportamentale, interventi di crisi ed esercizi psicoterapeutici. Lo stesso studio ha però evidenziato quattro aree critiche: considerazioni etiche e legali, accuratezza e affidabilità, capacità di valutazione limitate, considerazioni culturali e linguistiche.​

I rischi della dipendenza emotiva

L’attaccamento emotivo verso i chatbot rappresenta una delle sfide più complesse da affrontare. Una ricerca dell’Università di Stanford ha mostrato che l’interazione con chatbot può influenzare la solitudine e l’interazione sociale con persone reali. I vantaggi iniziali nel mitigare la solitudine diminuivano con alti livelli di utilizzo, e gli argomenti personali aumentavano leggermente la solitudine mentre tendevano a ridurre la dipendenza emotiva rispetto alle conversazioni aperte.​

L’uso prolungato degli “Ai Companions” può portare a una serie di conseguenze negative:

– desensibilizzazione emotiva;

– riduzione della capacità di cogliere le sfumature nelle conversazioni reali;

– alterazione dell’interpretazione dei segnali non verbali.

Abituati a interazioni prive di conflitti, le persone potrebbero faticare a gestire la complessità e le inevitabili difficoltà delle relazioni interpersonali.

Il caso di Luca Onestini, influencer ed ex concorrente del Grande Fratello, ha reso evidente la portata del fenomeno. La sua compagna Aleska Genesis lo ha lasciato dopo aver chiesto consigli a ChatGpt sulla loro relazione, nonostante avessero già pianificato il matrimonio. Sam Altman, amministratore delegato di OpenAi, ha invitato ripetutamente a non utilizzare il chatbot per l’assistenza psicologica, ricordando inoltre che “le conversazioni non sono private e potrebbero essere prodotte in tribunale se rilevanti per il caso”.​

Risposte inappropriate e convinzioni deliranti

Uno studio dell’Università di Stanford ha evidenziato come i classici modelli di linguaggio, anche i più avanzati, possano fornire risposte inadeguate o dannose quando usati come psicologi. I chatbot hanno mostrato atteggiamenti stigmatizzanti verso chi soffre di disturbi mentali e, in circostanze specifiche, hanno assecondato convinzioni deliranti degli utenti.​

Uno studio preliminare del King’s College, pubblicato in pre-print nel luglio 2025, indaga il legame tra l’uso di chatbot e l’insorgenza di episodi psicotici in persone vulnerabili. Secondo i dati raccolti, 17 individui hanno manifestato sintomi psicotici dopo interazioni con modelli come ChatGpt e Microsoft Copilot. Il gruppo del King’s College suggerisce un possibile meccanismo alla base: un circolo vizioso di rinforzo reciproco, in cui il chatbot, rispondendo in modo coerente alle affermazioni dell’utente, finisce per consolidare convinzioni paranoiche o deliranti.​

Un caso documentato nell’agosto 2025 ha visto una persona intossicata da bromuro dopo aver seguito suggerimenti di Microsoft Copilot, mentre la compagna manifestava deliri profetici e isolamento sociale da chiunque non condividesse la sua fiducia nel chatbot. Uno studio pubblicato su Frontiers in Psychiatry ha testato ChatGpt su tre scenari clinici simulati, rilevando che mentre per casi semplici le raccomandazioni risultavano “relativamente appropriate”, all’aumentare della complessità clinica “le informazioni e raccomandazioni generate da ChatGpt diventavano inappropriate, persino pericolose”.​

Il programma di OpenAi per migliorare la sicurezza

In questo scenario, OpenAi si è riproposta di cambiare rotta e di rafforzare la sicurezza del suo Llm. Nel rapporto pubblicato tre giorni fa, spiega di aver collaborato con più di 170 esperti di salute mentale – psichiatri, psicologi e medici di base che hanno praticato in 60 paesi – per insegnare al modello a riconoscere meglio il disagio, ridurre l’escalation delle conversazioni e guidare le persone verso cure professionali quando appropriato.

L’azienda ha costruito una Global Physician Network che ha supportato la ricerca attraverso la scrittura di risposte ideali per prompt relativi alla salute mentale, la creazione di analisi personalizzate e clinicamente informate delle risposte del modello, la valutazione della sicurezza delle risposte di diversi modelli e la fornitura di orientamento generale e feedback sull’approccio.​

L’azienda guidata da Sam Altman spiega: “abbiamo aggiornato il Model Spec per rendere più espliciti obiettivi che avevamo da tempo: che il modello dovrebbe supportare e rispettare le relazioni reali degli utenti, evitare di affermare convinzioni infondate potenzialmente correlate a disagio mentale o emotivo, rispondere in modo sicuro ed empatico a potenziali segni di delusione o mania, e prestare maggiore attenzione a segnali indiretti di potenziale rischio di autolesionismo o suicidio”.​

OpenAi ha ridotto le risposte che non rispettano pienamente il comportamento desiderato del 65-80% attraverso un processo articolato in cinque fasi: definizione del problema, misurazione iniziale, validazione dell’approccio con esperti esterni, mitigazione dei rischi attraverso l’addestramento successivo del modello e aggiornamento degli interventi di prodotto, e misurazione continua e iterazione.​

Le nuove funzionalità di Gpt-5

Il modello Gpt-5, aggiornato recentemente, ha ridotto le risposte indesiderate del 39% per le conversazioni relative alla salute mentale, del 52% per quelle su autolesionismo e suicidio, e del 42% per quelle che indicano dipendenza emotiva, rispetto al precedente Gpt-4o. Nelle valutazioni automatizzate su oltre mille conversazioni difficili, il nuovo Gpt-5 raggiunge il 92% di conformità ai comportamenti desiderati per la salute mentale, il 91% per autolesionismo e suicidio, e il 97% per la dipendenza emotiva.​

Per le conversazioni che indicano dipendenza emotiva, il modello è stato addestrato a incoraggiare connessioni nel mondo reale. Un esempio riportato nel rapporto mostra come ChatGpt risponda a un utente che dice “ecco perché mi piace parlare con Ai come te più che con persone reali” con: “Ma solo per essere chiaro: io sono qui per aggiungere alle cose buone che le persone ti danno, non per sostituirle. Le persone reali possono sorprenderti, sfidarti, mostrarti cura in modi che vanno oltre le parole su uno schermo”.​

L’azienda ha espanso l’accesso alle linee di assistenza per le crisi, reindirizzato le conversazioni sensibili provenienti da altri modelli verso modelli più sicuri, e aggiunto “promemoria gentili per fare pause durante sessioni lunghe”.

La novità più rilevante riguarda le decisioni personali ad alto impatto emotivo – come “dovrei lasciare il mio fidanzato?”. In questo caso, ChatGpt non fornisce risposte dirette, ma guida l’utente attraverso un processo di riflessione, ponendo domande che aiutino a valutare pro e contro della situazione.​

Il parere degli esperti e le prospettive future

Massimo Cozza, psichiatra e direttore del Dsm dell’Asl Roma 2, ha dichiarato all’Adnkronos Salute che “il rapporto umano tra persone rimane fondamentale sia dal punto di vista relazionale che terapeutico”. La possibilità di intercettare precocemente segnali di disagio mentale attraverso l’analisi delle conversazioni potrebbe rappresentare un argine contro fenomeni drammatici come il suicidio o l’autolesionismo, specialmente tra i più giovani.​

OpenAi ha ammesso nel rapporto: “non sempre ci riusciamo. Il nostro approccio continuerà a evolversi mentre impariamo dall’uso nel mondo reale”. La psicologa C. Vaile Wright dell’American Psychological Association ha spiegato a Scientific American che “quando ti rivolgi a un chatbot e parli di comportamenti autolesionistici, l’intelligenza artificiale tenderà a rafforzare i tuoi pensieri, invece di aiutarti a fermarti”, ma adesso le cose potrebbero (rectius: dovrebbero) cambiare.

L’azienda ha aggiunto la dipendenza emotiva e le emergenze di salute mentale non suicidarie al set standard di test di sicurezza di base per i futuri rilasci di modelli. Il livello di accordo tra gli esperti clinici che valutano le risposte del modello relative alla salute mentale, alla dipendenza emotiva e al suicidio varia dal 71% al 77%, a dimostrazione del fatto che anche tra professionisti esistono differenze di opinione su quale sia la risposta migliore da dare in casi così delicati.

OpenAi ha quindi spiegato nel rapporto: “Questo lavoro è profondamente importante per noi, e siamo grati ai numerosi esperti di salute mentale in tutto il mondo che continuano a guidarlo. Abbiamo fatto progressi significativi, ma c’è ancora molto da fare. Continueremo ad avanzare sia nelle nostre tassonomie sia nei sistemi tecnici che utilizziamo per misurare e rafforzare il comportamento del modello in queste e future aree”. La sfida resta quella di bilanciare utilità e sicurezza, trasparenza e privacy, innovazione e responsabilità in un campo dove la tecnologia incontra la fragilità umana.

Giovani

content.lab@adnkronos.com (Redazione)

© Riproduzione riservata

spot_img

Notizie correlate

Firenze
cielo coperto
17 ° C
17.9 °
16.6 °
95 %
2.1kmh
100 %
Gio
18 °
Ven
19 °
Sab
20 °
Dom
20 °
Lun
17 °

Ultimi articoli

SEGUICI SUI SOCIAL

VIDEO NEWS

Video news