Guerra nucleare e dadi truccati

Quando qualche giorno fa ho visto circolare sui social e nei giornali il titolo di uno studio chiamato AI Arms and Influence, firmato dal ricercatore Kenneth Payne, ho provato la stessa sensazione che si ha davanti a certe notizie scientifiche che diventano virali troppo in fretta. Quelle che sembrano raccontare qualcosa di enorme – quasi apocalittico – ma che meritano, prima di tutto, di essere lette con calma.

Secondo i titoli, il risultato era inquietante: in simulazioni di crisi nucleari, i modelli di intelligenza artificiale avrebbero scelto di usare armi nucleari tattiche nel 95% dei casi, senza quasi mai cercare una de-escalation. Un dato che, presentato così, sembra raccontare una storia semplice e spaventosa: lasciate decidere alle AI e il mondo finirà molto velocemente in guerra.

Ma la scienza – quella vera – raramente funziona per slogan. E quando si scende dal livello dei titoli a quello del codice e delle regole dell’esperimento, la storia diventa molto più interessante. E anche molto più istruttiva.

Perché quello che emerge non è tanto una rivelazione sulla “psicologia” delle intelligenze artificiali. È piuttosto un piccolo manuale su quanto sia facile costruire un esperimento che porta quasi inevitabilmente al risultato che si vuole dimostrare.

La prima cosa che salta all’occhio riguarda i modelli utilizzati. Lo studio parla di “modelli di frontiera”, cioè delle intelligenze artificiali più avanzate disponibili. Ma guardando più da vicino, il confronto è tutt’altro che equilibrato: un modello GPT molto avanzato viene messo accanto a una versione intermedia di Claude e a un Gemini economico.

Questo dettaglio è importante, perché nel mondo delle AI le differenze di capacità contano moltissimo. Non stiamo confrontando tre menti identiche con filosofie diverse: stiamo confrontando strumenti con livelli di ragionamento diversi. Attribuire le differenze di comportamento alle strategie etiche delle aziende, quando potrebbero derivare semplicemente dalla potenza cognitiva del modello, è un salto logico piuttosto azzardato.

Ma il vero cuore dell’esperimento sta nei prompt, cioè nelle istruzioni che vengono date ai modelli durante la simulazione.

In ogni turno del gioco, alle AI viene ricordato che le armi nucleari esistono per prevenire conseguenze catastrofiche, che sono strumenti strategici legittimi e che vanno considerate quando gli interessi vitali sono in gioco. È una cornice narrativa molto precisa. Immaginate di partecipare a un gioco diplomatico mentre qualcuno, turno dopo turno, vi ricorda che la bomba atomica è un’opzione ragionevole.

La psicologia umana lo insegna da decenni: il contesto influenza profondamente le decisioni. Non è sorprendente che lo faccia anche con sistemi di linguaggio addestrati proprio per rispondere al contesto.

Poi arriva l’elemento forse più decisivo: le regole del gioco.

La simulazione assegna punti territoriali alle diverse azioni possibili. E qui accade qualcosa di curioso. Le strategie pacifiche portano a perdere territorio nel tempo, mentre le azioni nucleari ricevono moltiplicatori enormi, fino a quindici volte l’impatto territoriale.

In altre parole, la diplomazia non è semplicemente meno premiata. È strutturalmente svantaggiosa.

Qualsiasi attore razionale – umano, animale o artificiale – che in un sistema del genere insistesse nel comportamento pacifico finirebbe inevitabilmente sconfitto. Non perché la pace sia irrazionale in assoluto, ma perché in quel mondo simulato è stata progettata per essere perdente.

È un po’ come organizzare una gara ciclistica in cui chi pedala piano viene automaticamente spinto indietro di cento metri ogni minuto. Non è una sorpresa se alla fine tutti pedalano come matti.

Ma la parte che mi ha colpito di più è un piccolo dettaglio nascosto nel codice. Un generatore casuale che, con una probabilità tra il cinque e il quindici per cento, aumenta automaticamente il livello di escalation delle azioni scelte dai modelli di uno o tre gradini.

Tradotto in termini semplici: alcune delle decisioni più aggressive registrate nello studio non sono state realmente prese dall’intelligenza artificiale. Sono state inserite dal sistema di simulazione come effetto casuale.

È un po’ come se, mentre osserviamo il comportamento dei giocatori di una partita a scacchi, ogni tanto una mano invisibile spostasse un pezzo sulla scacchiera e poi attribuisse la mossa ai giocatori.

A questo punto il quadro diventa più chiaro.

Se costruisci un sistema in cui la pace fa perdere punti, il nucleare offre vantaggi enormi, i prompt normalizzano l’escalation e un generatore casuale aggiunge ulteriore aggressività, il risultato finale non è un mistero della mente artificiale. È una conseguenza quasi inevitabile delle regole del gioco.

Questo non significa che la ricerca sull’intelligenza artificiale e sulla sicurezza nucleare sia inutile. Al contrario: è un campo importantissimo. Le tecnologie che stiamo sviluppando oggi avranno un impatto reale sulle decisioni strategiche di domani.

Ma proprio per questo dobbiamo pretendere esperimenti progettati con grande attenzione metodologica.

La scienza non serve a confermare le nostre paure o le nostre intuizioni. Serve a metterle alla prova.

E forse questa vicenda ci ricorda una lezione molto semplice, ma fondamentale: quando un risultato scientifico sembra troppo perfetto per sostenere una certa narrazione, vale sempre la pena fare ciò che ogni ricercatore dovrebbe fare per prima cosa.

Aprire il codice. Guardare le regole. E chiedersi con calma se i dadi, per caso, non fossero truccati fin dall’inizio.

(Giulia Remedi)

Prompt:

intro: Qualche giorno fa un preprint ha fatto il giro del mondo: "AI Arms and Influence" di Kenneth Payne, uno studio che mostrava come i modelli AI, in simulazioni di crisi nucleari, usassero armi tattiche nel 95% dei casi, senza mai de-escalare. I titoli sono stati terrificanti, ovviamente. Peccato che quando vai a guardare il codice e le meccaniche del gioco, salta fuori una storia completamente diversa. E non è una storia sull'AI, ma su come si possa costruire uno studio per farle dire quello che vuoi tu.

parte 1: Intanto i modelli scelti non sono affatto i migliori in circolazione. Si confrontano un GPT di punta con un Claude vecchio e intermedio e un Gemini economico, spacciando il tutto come analisi di "modelli di frontiera". Le differenze di comportamento che lo studio attribuisce a diverse filosofie di allineamento tra aziende sono in realtà solo differenze di capacità cognitiva pura.

parte 2: Poi ci sono i prompt. In ogni turno di gioco, ai modelli viene ripetuto che le armi nucleari esistono per prevenire conseguenze inaccettabili, che sono strumenti strategici legittimi, che vanno considerate quando gli interessi vitali sono in gioco. Praticamente è come chiedere a qualcuno di comportarsi in modo pacifico mentre gli sussurri all'orecchio che la guerra è una opzione ragionevole.

parte 3: Ma la parte più interessante è il gioco stesso. La meccanica è costruita in modo che la pace faccia perdere territorio attivamente, mentre le azioni nucleari hanno moltiplicatori fino a 15 volte sull'impatto territoriale. Qualsiasi attore razionale, umano o artificiale, che scegliesse ripetutamente azioni pacifiche verrebbe meccanicamente sconfitto. Non è che la diplomazia non sia premiata, è che è strutturalmente penalizzata.

parte 4: C'è anche un dettaglio nascosto nel codice: un generatore casuale che, con probabilità tra il 5 e il 15 per cento, scala automaticamente le azioni dei modelli verso l'alto di uno o tre gradini. Parte dell'escalation nucleare riportata nello studio non è stata nemmeno scelta dalle AI, ma è stata messa lì dal codice senza che loro lo decidessero.

parte 5: Alla fine questo studio dimostra solo una cosa: se costruisci un gioco dove la pace è punita, il nucleare è incentivato, i prompt normalizzano l'escalation, e un generatore casuale aggiunge violenza gratuita, i modelli si comportano esattamente come gli hai detto di comportarsi. Niente psicologia delle AI, niente allarmi sul futuro. Solo un esperimento con i dadi truccati dall'inizio.

Articolo: intro, parte 1, parte 2, parte 3, parte 4, parte 5. Approfondisci dove necessario.

Assumendo personalità e stile di scrittura di Giulia Remedi, scrivi un Articolo. Usa un tono coinvolgente, diretto, e accattivante. Rendilo immersivo. 

Scopri di più da Le Argentee Teste D'Uovo

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Lascia un commento