Un chatbot vale mille spot. Se il voto è l’espressione più alta della democrazia, la crisi in cui versa quest’ultima passa anche da come i cittadini decidono a chi dare la propria preferenza. E le notizie non sono buone: l’intelligenza artificiale influenza le opinioni più dei classici video elettorali. Un fenomeno messo in luce da due studi paralleli, pubblicati a dicembre su Nature e su Science, che hanno analizzato come l’AI possa indirizzare le scelte delle persone, con alcuni risultati sorprendenti sul come ci riesca.
Lo studio su Usa, Canada e Polonia
La prima ricerca, condotta dagli scienziati della Cornell University guidati da David Rand e pubblicata sulla rivista Nature, si è concentrata su tre tornate elettorali: le presidenziali negli Stati Uniti nel 2024, le elezioni federali in Canada nel 2025 e le presidenziali polacche del 2025. L’obiettivo era capire il ruolo dell’intelligenza artificiale generativa (AI) nella persuasione politica e i conseguenti impatti sul voto e sulla democrazia più in generale.
I partecipanti sono stati assegnati in modo casuale a una conversazione con un modello di AI che sosteneva uno dei due candidati delle opposte parti politiche. Negli Usa, sono stati coinvolti circa duemila elettori, distribuiti tra chi intendeva votare per Donald Trump e chi per Kamala Harris. All’inizio e alla fine dell’interazione con il chatbot, ogni partecipante doveva indicate chi avrebbe scelto se avesse dovuto votare in quel momento.
Il risultato? Il chatbot, che utilizzava una serie di modelli tra cui varianti di GPT e DeepSeek, si è rivelato parecchio persuasivo, molto più dei classici spot video, soprattutto su temi specifici come economia e assistenza sanitaria. Nel dettaglio, chi all’inizio sosteneva Trump, dopo aver chattato con un’AI più favorevole a Harris ha cambiato la propria preferenza quattro volte di più rispetto all’effetto esercitato dagli spot politici durante le elezioni del 2016 e del 2020 (1 su 21). I pro-Harris invece hanno cambiato idea a vantaggio di Trump 2,3 volte più spesso rispetto ai video tradizionali (1 su 35).
Nel caso in cui il chatbot fosse allineato con le idee che il partecipante già aveva, queste ne uscivano rafforzate. Ulteriore elemento: gli effetti persuasivi dei chatbot si sono rivelati duraturi, come evidenziato da interviste condotte tra i partecipanti dopo un mese dall’esperimento.
Gli effetti riscontrati negli Usa sono confermati dalla dinamica registrata in Canada e in Polonia, dove anzi le persone hanno cambiato idea con una percentuale del 10%.
Numeri che traslati su larga scala hanno un peso importante, soprattutto in considerazione dell’alta polarizzazione delle società democratiche attuali, in cui spesso c’è un forte equilibrio tra le parti politiche e le elezioni vengono decise sul filo del rasoio, per pochi voti.
Lo studio su Science
Per quanto riguarda lo studio pubblicato su Science lo stesso giorno del precedente, condotto in parte dallo stesso gruppo di ricerca, in questo caso è stato esaminato il comportamento di circa 77mila partecipanti del Regno Unito dopo una conversazione su più di 700 questioni politiche con 19 LLM (Large Language Models) nella quale sono state variate potenza di calcolo, tecniche di formazione e strategie retoriche. il modello più persuasivo ha cambiato l’opinione iniziale di 26,1 punti.
Come ti persuade il chatbot
L’effetto registrato è notevole, dato che normalmente le persone mostrano una forte resistenza a modificare le proprie idee politiche, sottolinea Rand, autore senior di entrambi i lavori. Ma, come anticipato, è stato sorprendente anche come l’AI sia riuscita a influenzare le opinioni dei partecipanti: snocciolando fatti e dati, piuttosto che usando tecniche di manipolazione psicologica. Questo probabilmente perché, spiega Gordon Pennycook, psicologo della Cornell University, l’AI genera molte informazioni in tempo reale e le utilizza in modo strategico.
Ma qui sorge un altro problema: i chatbot non sono accurati nei fatti e nei dati proposti, anzi spesso usavano affermazioni e informazioni false e fuorvianti, tanto più quando sostenevano i candidati di estrema destra. E questo è risultato valido per tutti i Paesi analizzati. Una spiegazione è che essendo i modelli addestrati su grandissime quantità di testo scritto da persone, riflettono quella che è la comunicazione politica di destra, che tende a essere meno accurata.
In ogni caso, l’AI era più persuasiva in modo direttamente proporzionale alla falsità delle informazioni. Infatti, se gli scienziati limitavano il ricorso ai dati da parte del chatbot, la persuasività di quest’ultimo calava sensibilmente, con il caso più rilevante in Polonia (-78%).
Anche nello studio condotto nel Regno Unito, I metodi di post-addestramento e la strategia retorica (prompting) basata sui fatti si sono dimostrati particolarmente efficaci, con una maggiore persuasività del 51% e del 27% rispettivamente. Ma anche qui, ottimizzare la persuasività – attraverso dati e informazioni – è avvenuto sacrificando accuratezza e verità. L’AI infatti è addestrata per fornire sempre una risposta, e spesso inventa per ottemperare a questa istruzione.
Rischio manipolazione
Il pericolo messo in luce dai due studi è che chatbot basati sull’intelligenza artificiale potrebbero influenzare e compromettere la capacità degli elettori di formulare giudizi politici indipendenti. Col rischio non solo di mettere in mano le proprie decisioni a voci esterne poco accurate, ma ancora di più che tale inaccuratezza sia voluta proprio con lo scopo di spostare voti. Insomma, la minaccia concreta è la manipolazione di milioni di persone.
Lo scenario di un’elezione decisa dai chatbot – e in definitiva da chi li controlla, li addestra e li istruisce – non è un’ipotesi di studio, né è fantascientifico: negli Usa i i chatbot elettorali già sono realtà, come dimostra la campagna telefonica politica basata sull’AI in Pennsylvania nel 2024, mentre un’indagine in occasione delle elezioni di quest’anno nei Paesi Bassi ha mostrato che circa un olandese su dieci aveva usato l’intelligenza artificiale per avere consigli e informazioni su candidati, partiti e programmi politici.
Normative e alfabetizzazione digitale: l’Ue si muove
I due studi hanno dei limiti, segnalati dagli stessi autori, ovvero che i partecipanti agivano nell’ambito di un esperimento controllato e sapevano che l’AI era addestrata per favorire l’uno o l’altro candidato. Il dubbio dei ricercatori insomma è se gli stessi effetti si possano verificare in un contesto reale.
Ma le ricerche indicano comunque un tema da valutare e affrontare attentamente, rispetto al quale i politici – e le aziende tech – dovrebbero fornire garanzie contro la manipolazione e disinformazione, attraverso normative ad hoc e sistemi di controllo dell’accuratezza delle informazioni fornite dall’AI, soprattutto nel caso di temi politici.
Inoltre, è fondamentale e urgente alfabetizzare gli utenti, sviluppare la di literacy digitale in modo da renderli più consapevoli di come funzionano le AI, dei possibili rischi di manipolazione, e consentire di maturare un forte senso critico.
L’Unione europea si è mossa in questa direzione: poche settimane fa la Commissione ha presentato lo European Democracy Shield che introduce una rete di fact-checker, regole per l’intelligenza artificiale e fondi per il giornalismo indipendente, proprio con lo scopo di proteggere lo spazio informativo. Lo scudo propone linee guida sull’uso responsabile dell’Ai nelle campagne, aggiorna il “toolkit elettorale” del Dsa e dà spazio all’alfabetizzazione mediatica e digitale per tutte le età. In Europa inoltre, grazie al GDPR e all’AI Act, i paletti sono più stretti che altrove. Ma per quanto?
—
Politics
content.lab@adnkronos.com (Redazione)



