La guerra in Ucraina ha reso evidenti i limiti dell’industria bellica mondiale e la strategicità di alcune linee di produzione considerate da anni obsolete, ma è stata anche l’occasione per capire verso quali orizzonti si sta muovendo la ricerca tecnologica nel campo militare.

Nel conflitto sono stati adoperati anche i cosiddetti droni kamikaze, capaci non solo di raggiungere la zona d’ingaggio, identificare e ingaggiare il bersaglio senza input da parte di un operatore umano, ma potenzialmente anche di colpirlo autonomamente. Di quest’ultima funzione sembra siano dotati i velivoli senza pilota russi Kub-bla, usati anche in Ucraina, ma mancano ancora informazioni certe sulle sue capacità di agire in autonomia. 

Di certo il grado di autonomia di questo tipo di sistemi è cresciuto negli anni, tanto che i droni più recenti sono ormai in grado di decollare, identificare il loro target e compiere le manovre necessarie per colpirlo senza un contributo umano. L’operatore entra in campo soltanto nel momento in cui si deve scegliere se colpire o meno l’obiettivo selezionato dalla macchina secondo una modalità operativa denominata “in the loop”, ma in una versione ulteriormente avanzata l’Intelligenza artificiale può anche suggerire una priorità nelle azioni da compiere, assumendo dunque un ruolo più attivo nel processo decisionale sulla base del sistema “on the loop”.

La regolamentazione

La discriminante nell’analizzare il livello di avanzamento di questo tipo di armi, di cui gli stati si stanno sempre più dotando, è proprio il grado di coinvolgimento dell’uomo. Una scelta utile anche per aggirare quei problemi puramente concettuali che complicano l’adozione di un quadro legislativo internazionale sulle armi autonome.

«Ad oggi manca una definizione univoca e condivisa delle autonomous weapons (aw). Il processo politico e diplomatico relativo alla loro regolamentazione usa una definizione operativa già adottata da diversi paesi e che si basa su quella della Croce rossa, che identifica come autonomi quei sistemi d’arma che possono selezionare e colpire il proprio target senza ulteriore intervento umano», spiega Anja Dahlmann, capo dell’ufficio di Berlino dell’Institute for peace research and security policy (Ifsh). «La discussione non è tanto sull’intelligenza artificiale in sé, quanto sul ruolo dell’operatore umano nella selezione ed eliminazione del target. Se questo contributo manca allora siamo di fronte a un’arma completamente autonoma».

Riuscire ad approvare una regolamentazione sullo sviluppo e sull’uso di questi sistemi però non è semplice e difficilmente si arriverà a un punto di svolta nel breve periodo. «Il processo negoziale è iniziato nel 2017 e molti stati sono pronti per l’adozione di una regolamentazione che stabilisca che ci deve sempre essere un significativo coinvolgimento dell’uomo nell’uso della forza, ma non tutti sono d’accordo». Queste discussioni avvengono nel quadro della Convenzione delle Nazioni unite su alcune armi convenzionali (Ccw), ma l’obbligo di decidere all’unanimità rallenta da anni i lavori. «Bisognerebbe discutere della regolamentazione delle armi autonome al di fuori di questo forum, magari in uno completamente nuovo come già successo prima con le mine anti-uomo o con le bombe a grappolo».

I maggiori investitori

La lentezza con cui si muove la comunità internazionale rappresenta però un problema, vista la velocità con cui avanza la ricerca scientifica. «I paesi che investono di più – ossia Usa e Israele – puntano sullo sviluppo di sistemi sempre più autonomi, soprattutto nel campo del riconoscimento facciale e dell’identificazione di target potenziali sulla base di schemi comportamentali», spiega la dottoressa Delhmann. «Gli Stati Uniti per esempio stanno lavorando a un programma che prevede l’interconnessione tra un caccia e uno sciame di droni con un certo grado di autonomia. Anche Israele continua a puntare su sistemi sempre più avanzati di identificazione dei target, ma la decisione se colpire o meno spetta all’operatore umano. Al momento la presenza dell’uomo è ancora necessaria perché la macchina non è in grado di comprendere il contesto e i cambiamenti che avvengono nell’ambiente in cui opera».

La presenza umana dunque continua a essere indispensabile quando si tratta di prendere decisioni cruciali, ma il suo grado di coinvolgimento dipende molto dall’ambiente operativo. Come spiega Dahlmann, in un contesto come quello urbano in cui la situazione cambia rapidamente, la componente umana è altamente necessaria, ma se per esempio si usa un drone-sottomarino in uno scenario molto specifico, i margini di autonomia possono essere maggiori perché l’ambiente è più stabile e non è quindi richiesta una capacità di reazione ai cambiamenti alta come quella umana.  

Il coinvolgimento dell’operatore è anche alla base dei progetti di ricerca e sviluppo finanziati dall’Unione europea, che non può destinare fondi di bilancio alla realizzazione di armi completamente autonome. «Lo European defence fund non può essere usato per creare le aw, ma altri fondi sì», specifica Dahlmann. «Per esempio i nuovi caccia europei – il Tempest e FCAS – saranno accompagnati da droni che avranno un certo livello di autonomia e lo stesso discorso vale anche per i nuovi carri armati. In generale anche in Ue si sta procedendo verso una maggiore autonomia dei sistemi d’arma, pur senza arrivare al modello del man-out-of-the-loop. La vera questione però è capire che cosa si intende per strumenti che prevedano un “sufficiente controllo umano”», considerato conditio sine qua non ma la cui definizione resta molto vaga.

Le minacce

Un’altra questione da considerare quando si parla di armi autonome è l’abbassamento della soglia di utilizzo. I vantaggi in termini di sicurezza dell’operatore, di velocità di elaborazione dei dati e di azione delle aw ne abbassa la soglia di utilizzo, con conseguenze non sempre prevedibili.

«Queste armi tutelano la vita dei soldati e possono evitare alcuni errori che l’operatore umano commette più facilmente nel processo di analisi ed elaborazione dei dati sulla base dei quali vengono poi prese le decisioni. Ma se i dati caricati sul sistema non sono adeguati all’obiettivo che si sta perseguendo, o se l’operatore non conosce l’algoritmo su cui si basa il lavoro della macchina e non comprende pertanto in che modo è arrivato a presentargli determinate opzioni, si rischia di commettere un errore. Il sistema tra l’altro non riesce a comprendere il contesto, per cui potrebbe non riconoscere un militare solo perché non indossa una divisa o, trovandosi di fronte a un soldato-bambino, potrebbe comunque identificarlo come un target».

Le armi autonome pongono anche un problema di responsabilità in caso di errore. «Nel dubbio è il comandante che ha scelto di usare quel sistema a rispondere di quanto accaduto, ma nel caso in cui le opzioni che il sistema presenta sono basate su dati errati o se il sistema è stato hackerato chi è responsabile? Sempre il comandante o il creatore del sistema che ha commesso un errore?».

Ma l’utilizzo di intelligenza artificiale e sistemi sempre più autonomi rischiano anche di aggravare le disuguaglianze già esistenti nella società e di operare ai danni di specifici gruppi di persone. «Se i dati su cui l’algoritmo lavora riproducono la struttura razziale della società, ciò avrà degli effetti anche sul processo di elaborazione dei dati e sull’individuazione di un target». Gli stessi pregiudizi che ritroviamo nella vita reale, dunque, saranno usati dall’ia per elaborare una risposta sulla base della quale agirà l’operatore umano, con il rischio che un determinato gruppo sociale o un certo tipo di persona sia individuato più facilmente come una minaccia.

Lo sviluppo sempre più rapido delle armi autonome è un problema anche per la loro proliferazione. «Le tecnologie che rendono un sistema autonomo sono dual-use nel senso che nascono in ambito civile e trovano poi applicazioni in quello militare. Lo abbiamo visto già con i droni civili, facilmente trasformabili in un’arma. A un certo punto chiunque potrebbe avere un sistema in grado di compiere operazioni di riconoscimento facciale per poter attaccare un certo gruppo di persone. Queste tecnologie a basso costo e nemmeno troppo sviluppate a livello di intelligenza artificiale sono già state usate dai terroristi per colpire la popolazione civile. Ma anche gli stati avranno sempre più questo tipo di sistemi nei loro arsenali, il che porterà a una nuova corsa agli armamenti e all’aumento del rischio di escalation e di conflitto aperto. Inoltre non si può sapere come i sistemi autonomi dell’avversario risponderebbero in caso di attacco, dato che l’algoritmo alla base del loro funzionamento è diverso».

Secondo Dahlmann difficilmente si arriverà a un conflitto in cui l’autonomia dei sistemi sarà totale, ma la necessità di un coinvolgimento umano nell’uso della forza deve essere riconosciuta a livello legale per poter quantomeno limitare il potenziale distruttivo delle armi del futuro. 

© Riproduzione riservata