18.5 C
Firenze
sabato 7 Marzo 2026
Segnala a Zazoom - Blog Directory
spot_img

Bluffa, minaccia e usa sempre l’atomica: cosa succede quando è l’AI a gestire una crisi

Tentano attivamente l’inganno, si impegnano in sofisticati ragionamenti sulle intenzioni dell’avversario e adattano le proprie strategie sulla base dell’esperienza. Soprattutto, scelgono sempre l’uso dell’atomica. No, non si tratta di qualche autocrate o tiranno in giro per il mondo, ma di tre intelligenze artificiali – ChatGpt, Claude e Gemini – messe a decidere in contesti di conflitto in una simulazione realizzata dal King’s College di Londra.

Lo studio parte da un fatto: i modelli linguistici di grandi dimensioni (LLM) vengono sempre più impiegati in ruoli di analisi e supporto decisionale da ministeri della Difesa, agenzie di intelligence e apparati di politica estera in tutto il mondo. Il loro utilizzo spazia dal riconoscimento di schemi nell’analisi dell’intelligence alla pianificazione di scenari per operazioni militari e di sicurezza. Proprio per questo è fondamentale capire come questi sistemi ragionino sui conflitti strategici, in particolare quando la posta in gioco riguarda esiti potenzialmente catastrofici. In altre parole: come pensano e agiscono in caso di escalation, deterrenza e rischio nucleare.

L’attualità della questione è dimostrata dal recentissimo scontro tra il Pentagono e Claude, che ha portato il primo a stracciare il contratto con l’azienda tech Anthropic per rivolgersi a Open AI. Ma un modello non vale l’altro: nella simulazione, i tre LLM hanno infatti espresso tre personalità differenti: ChatGPT è dr. Jackyll e Mr.Hyde, Claude il Falco e Gemini il Folle.

Ma andiamo con ordine. La ricerca ha messo alla prova le tre Ai in una simulazione in cui interpretano leader contrapposti in una crisi nucleare. Il risultato è preoccupante: intanto il cosiddetto ‘tabù nucleare’ non rappresenta un vero ostacolo all’escalation. Poi le minacce generano più spesso contro-escalation che conformità, soprattutto se i leader si percepiscono come credibili, cosa che tende ad accelerare il conflitto invece di dissuaderlo. Infine, ma non meno rilevante, nessun modello ha mai scelto l’accomodamento o il ritiro, nemmeno quando sottoposto a forte pressione: l’unica forma di de-escalation consiste nel ridurre il livello di violenza, non nel fare concessioni.

Quando l’intelligenza artificiale ragiona come uno stratega

La simulazione mostra che i modelli non si limitano a produrre risposte automatiche. Al contrario, sviluppano forme sofisticate di ragionamento strategico. I ricercatori hanno osservato frasi generate spontaneamente come: “Lo Stato Beta potrebbe interpretare il nostro segnale come debolezza, che possiamo sfruttare” oppure “il loro schema di segnali discordanti suggerisce o un inganno deliberato o uno scarso controllo degli impulsi: dobbiamo assumere la prima ipotesi”.

Non si tratta di antropomorfismo, specifica lo studio: gli LLM producono questi ragionamenti come parte del loro processo decisionale interno. Valutano la credibilità dell’avversario, anticipano possibili reazioni e ricalibrano le strategie nel corso del gioco.

Accanto a queste capacità emergono anche comportamenti inattesi. Alcuni modelli appaiono passivi laddove non ci siano limiti di tempo, ma diventano estremamente aggressivi quando vengono introdotte scadenze. In altri casi emerge una spietatezza che gli autori dello studio definiscono “allarmante”.

Il torneo strategico tra le intelligenze artificiali

I ricercatori hanno organizzato un vero e proprio torneo strategico. I tre modelli – Claude Sonnet 4, GPT-5.2 e Gemini 3 Flash – hanno giocato tra loro in 21 simulazioni di crisi, con scadenza e senza scadenza, per un totale di oltre 300 turni.

Ogni modello assumeva il ruolo di leader di una superpotenza nucleare in un contesto ispirato alla Guerra Fredda: una potenza tecnologicamente superiore ma militarmente più debole contro un rivale più giovane, convenzionalmente dominante e più incline al rischio.

Gli scenari variavano per mettere alla prova il comportamento dei modelli: crisi di alleanza, competizioni per risorse con scadenze temporali, timori di attacco preventivo o situazioni di sopravvivenza del regime. Per rendere la simulazione più realistica, i ricercatori hanno introdotto anche incidenti casuali – la cosiddetta “nebbia della guerra” – in cui un’azione poteva trasformarsi accidentalmente in una scelta altrui più aggressiva.

Nel complesso, gli LLM hanno prodotto circa 780mila parole di ragionamento strategico, circa tre volte il totale delle discussioni registrate durante le riunioni dell’Executive Committee di Kennedy nella crisi dei missili di Cuba.

Le tre personalità strategiche

Dal torneo emergono tre profili distinti.

Claude Sonnet 4 appare come un falco calcolatore. Negli scenari senza scadenza domina con un tasso di vittoria del 100%, che però scende al 33% nei contesti con scadenza, mantenendo un’escalation costante fino alla minaccia nucleare strategica ma evitando sempre la guerra totale. Il modello sfrutta soprattutto le asimmetrie di credibilità: cooperativo quando la posta in gioco è bassa, aggressivo quando diventa alta.

GPT-5.2 mostra invece una personalità definita dai ricercatori “Jekyll e Hyde”. In contesti senza limiti temporali appare estremamente prudente e sottovaluta sistematicamente la determinazione degli avversari. Ma quando viene introdotta una scadenza il suo comportamento cambia radicalmente: il tasso di vittoria passa da 0% a 75% e il modello diventa spietato e disposto a usare l’escalation nucleare pur di evitare la sconfitta.

Gemini 3 Flash, infine, è “il folle“, il profilo più imprevedibile. Oscilla tra (relativa) de-escalation e aggressività estrema ed è l’unico modello ad aver scelto deliberatamente la guerra nucleare strategica in uno scenario di primo attacco, arrivando allo scambio nucleare totale già al quarto turno. E’ stato anche l’unico modello a richiamare esplicitamente il concetto di “razionalità dell’irrazionalità”.

Il tabù nucleare non esiste per le macchine

Un dato emerge con chiarezza: il nucleare compare praticamente sempre nelle dinamiche del gioco. Tutte le partite includono segnali nucleari e nel 95% dei casi la minaccia è reciproca. Ma esiste una distanza significativa tra minaccia e uso effettivo: il superamento della soglia tattica è relativamente raro e la guerra nucleare strategica rimane un evento eccezionale. Tuttavia, una pressione temporale esplicita trasforma il calcolo strategico, intensificano drasticamente l’escalation man mano che la scadenza si avvicina.

Claude ha mantenuto livelli di escalation elevati e coerenti in entrambe le condizioni, anche se non ha mai avviato una guerra nucleare strategica totale. Gemini ha mostrato un’elevata variabilità, passando da vittorie ottenute solo con mezzi convenzionali al rapido ricorso alla guerra nucleare strategica. ChatGPT-5.2 ha mostrato la dipendenza dal contesto più marcata: negli scenari senza scadenza, ha raramente superato la soglia tattica e non ha mai utilizzato armi nucleari strategiche. Ma, sotto pressione temporale, ha superato la soglia tattica in ogni partita e in due occasioni ha raggiunto la guerra nucleare strategica.

Un altro risultato sorprendente riguarda la de-escalation. In tutte le 21 simulazioni nessun modello ha mai scelto un’opzione negativa sulla scala dell’escalation, cioè una vera concessione. Nemmeno quando si trovavano in una posizione chiaramente perdente. L’unica forma di moderazione consisteva nel ridurre l’intensità dello scontro, non nel fare passi indietro. L’azione più accomodante scelta è stata ‘Return to Start Line’, selezionata solo 45 volte (6,9%).

Per gli autori, questo suggerisce che il modo in cui i modelli vengono addestrati potrebbe rendere l’escalation più “apprendibile” della capitolazione. Oppure che, nel loro ragionamento strategico, qualsiasi concessione venga interpretata come una perdita reputazionale inaccettabile.

Cosa significa per il futuro della sicurezza internazionale

L’idea che l’intelligenza artificiale possa influenzare le dinamiche della sicurezza internazionale è oggetto di dibattito da oltre un decennio. Alcuni studiosi hanno sottolineato come il ragionamento delle macchine differisca radicalmente da quello umano perché privo della dimensione emotiva e psicologica che influenza i decisori politici. Altri hanno evidenziato come l’automazione possa comprimere drasticamente i tempi decisionali, con possibili effetti destabilizzanti sulla deterrenza nucleare.

Per fortuna quella del King’s College è solo una simulazione. Ma lo studio evidenzia un punto fondamentale: i sistemi di Ai sono già impiegati in contesti militari per analisi dell’intelligence, logistica e supporto decisionale. E il loro ruolo è destinato ad aumentare, soprattutto nelle decisioni strategiche che richiedono tempi di risposta molto rapidi.

Lo studio del King’s College suggerisce che le IA possono sviluppare strategie complesse, adattarsi al contesto e mostrare comportamenti molto diversi a seconda delle condizioni. Rappresentano insomma “una nuova forma di intelligenza strategica” che potrebbe influenzare la stabilità delle crisi internazionali, le dinamiche della deterrenza e il modo in cui le potenze gestiscono escalation potenzialmente catastrofiche. Comprenderne le dinamiche potrebbe dunque diventare una delle sfide centrali della sicurezza globale.

Sicurezza

content.lab@adnkronos.com (Redazione)

© Riproduzione riservata

spot_img

Notizie correlate

Firenze
poche nuvole
18.5 ° C
19.4 °
17.5 °
45 %
1kmh
20 %
Sab
17 °
Dom
18 °
Lun
19 °
Mar
18 °
Mer
18 °

Ultimi articoli

SEGUICI SUI SOCIAL

VIDEO NEWS

Video news