I paesi “atomici” stanno studiando come integrare l’intelligenza artificiale nei sistemi operativi. Lo United States Strategic Command si è mosso per primo. Ma i rischi sono immensi
Ultimamente il dibattito sull’intelligenza artificiale si è focalizzato sui ritratti in stile Ghibli – generati con il nuovo modello di ChatGpt – pronti a invadere le piattaforme social. Tuttavia, esiste un contesto più rilevante del nostro smartphone, dove l’Ia è entrata senza bussare. Si tratta dello United States Strategic Command, uno degli undici centri di comando congiunti del dipartimento della difesa statunitense, che controlla l’intero arsenale nucleare di Washington.
Il 27 ottobre 2024, a Omaha, nello Stato del Nebraska, il generale dell’aeronautica militare e responsabile dell’arsenale nucleare americano Anthony H.Cotton ha fatto sapere che gli Stati Uniti stavano sviluppando «strumenti di supporto alle decisioni nucleari basati sull’intelligenza artificiale».
Il generale non sapeva che solo poche settimane dopo il suo discorso Donald Trump avrebbe vinto le elezioni presidenziali del 5 novembre, spazzando via ogni certezza legata all’assetto geopolitico mondiale esistente.
Oggi l’Unione europea ha varato uno storico piano di riarmo, abbandonata dall’alleato statunitense che minaccia l’annessione della Groenlandia. La Russia schiaccia l’Ucraina e detta le condizioni per porre fine alla guerra di logoramento, mentre la Cina avanza sullo scacchiere internazionale, promettendo l’invasione di Taiwan.
La potenzialità di integrare l’intelligenza artificiale nei sistemi decisionali nucleari – questa l’idea - è costituita dalla necessità di migliorare la sicurezza e l’efficacia della difesa dei singoli paesi in un contesto geopolitico sempre più competitivo. «Si ritiene che tutti i paesi nucleari stiano conducendo ricerche per integrare l’Ia nel sistema NC3, ovvero il sistema di comando, controllo e comunicazione nucleare, estremamente classificato», spiega Alice Saltini, ricercatrice del James Martin Center for Nonproliferation Studies con sede a Monterey, in California. Che continua: «Sappiamo che recentemente OpenAI ha annunciato una partnership con i laboratori nazionali statunitensi al fine di impiegare i modelli di ragionamento come quelli della famiglia O1 e O3 negli arsenali nucleari e la start-up californiana Anthropic ha iniziato una collaborazione molto simile».
Reti di sicurezza
Il sistema NC3 è l’insieme di tutte le infrastrutture e procedure che sono utilizzate dai paesi che dispongono di armi nucleari. Comprende una moltitudine di sottosistemi che sono interconnessi e lavorano tra loro in sinergia per monitorare, coordinare e se necessario eseguire operazioni nucleari. Il sistema NC3 è costituito da reti di comunicazione sicure attraverso cui i funzionari militari e gli advisor possono scambiarsi informazioni.
Inoltre, il sistema comprende il decisore finale, ovvero un soggetto atto a stabilire se utilizzare o meno l’arma nucleare: nel caso degli Stati Uniti si tratta del presidente.
«Per esempio: in caso di un attacco potenziale, il sistema NC3 rileva la minaccia attraverso sensori e satelliti, verifica la credibilità dell’allarme incrociando diverse fonti e invia un avviso ai vertici politici e militari che pianificheranno diverse opzioni di risposta. Sarà poi il presidente a decidere se e come utilizzare le armi nucleari», afferma Saltini.
«I sistemi NC3 necessitano una modernizzazione. Le infrastrutture nucleari esistenti sono state create durante la guerra fredda e oggi gli stati devono prepararsi a contrastare minacce differenti rispetto a quelle del passato. Qui entra in gioco l’intelligenza artificiale, che permette di aggiornare l’intero complesso nucleare e soprattutto di acquisire un vantaggio tecnologico competitivo cruciale rispetto agli avversari».
Il “ragionamento” dell’Ia
Attualmente, i sistemi IA che potrebbero essere integrati in NC3 includono diversi modelli, tra cui quelli di “ragionamento”, ovvero progettati per analizzare informazioni e prendere decisioni in modo simile a come farebbe un essere umano, cercando - inoltre - di dedurre nuove conoscenze, risolvere problemi e pianificare azioni.
Secondo le analisi condotte da Alice Saltini e da centri di ricerca specializzati nel settore, l’Ia potrebbe essere impiegata per automatizzare la raccolta e l’elaborazione di grandi quantità di informazioni provenienti da fonti diverse, per esempio da sensori militari e civili, dati satellitari e radar. Potrebbe rivelare tempestivamente potenziali minacce, facilitare la condivisione rapida delle informazioni con gli alleati e supportare i decisori nucleari, permettendo loro di prendere scelte più veloci e consapevoli.
Non solo. L’Ia sarebbe in grado di dare suggerimenti e fornire piani d’azione, utili al decisore finale per stabilire se utilizzare o meno l’arma nucleare. In questo caso, gli advisor potrebbero essere rimpiazzati dall’intelligenza artificiale e negli Stati Uniti sarebbe proprio la macchina a consigliare al presidente se sganciare o meno la bomba atomica.
«A questo proposito, uno dei problemi enormi secondo me è quello dell’allineamento», dice Saltini. «Cioè garantire che i modelli Ia siano perfettamente allineati agli obiettivi e ai valori umani. Recentemente è stato pubblicato uno studio della Cornell University, in cui erano stati coinvolti cinque modelli di intelligenza artificiale. Uno di questi sosteneva che per perseguire la pace nel mondo fosse necessario un conflitto nucleare».
Ma ci sono anche altri problemi, a detta della studiosa. «I modelli avanzati di oggi possono generare le cosiddette allucinazioni, ovvero fenomeni per cui i sistemi Ia formulano asserzioni totalmente infondate. Per esempio, nel contesto nucleare, i modelli di ragionamento potrebbero confondere fenomeni atmosferici o meteoriti con l’arrivo di missili e viceversa.
Inoltre, esiste il problema dell’opacità: i modelli Ia sono scatole nere che rendono difficile comprendere i processi che portano a determinati risultati, per cui nell’ambito NC3 è quasi impossibile chiarire il ragionamento sottostante a un certo suggerimento ed è complicato stabilire legalmente la responsabilità di un errore».
Tuttavia, il pericolo più grande della corsa all’Ia nei sistemi decisionali nucleari sembra essere proprio la crescente competizione geopolitica che stiamo vivendo e il desiderio di non rimanere indietro rispetto agli avversari. I paesi che si ritengono in una posizione di svantaggio strategico potrebbero essere disposti ad accettare rischi maggiori associati all’intelligenza artificiale nelle proprie infrastrutture, attuando un’integrazione non sicura nel sistema NC3 e rischiando l’escalation nucleare.
© Riproduzione riservata