È il 27 marzo 2020 quando in Libia, durante l’operazione Peace storm, le forze legate al generale Haftar vengono attaccate da uno sciame di droni lanciato dall’esercito fedele al primo ministro al-Sarraj. Non è la prima volta che dei droni vengono utilizzati nel corso di combattimenti, questi però – secondo quanto documentato da un report dell’Onu – hanno una particolarità: gli Stm Kargu-2, forniti al governo di Tripoli dalla Turchia (violando l’embargo dell’Onu), sono del tutto autonomi, privi di un operatore umano che li pilota da remoto o che decide se e quando fare fuoco.

Come segnala sempre il report, i droni impiegati quel 27 marzo – quadrirotori pesanti sette chili – «erano programmati per attaccare gli obiettivi senza che ci fosse una comunicazione tra l’operatore e le munizioni».

E come funziona allora? Prima di tutto, l’operatore inserisce nel software del Kargu-2 le coordinate prescelte. Poi lancia il drone, che viaggia fino al punto indicato, identifica i potenziali obiettivi grazie a un software di riconoscimento immagini e a quel punto piomba su di essi in picchiata, facendo detonare l’esplosivo che porta con sé. Il Kargu-2 è in tutto e per tutto un sistema “launch and forget”: una volta lanciato, l’operatore può dedicarsi ad altro senza più pensarci.

Superare la linea rossa

Quanto avvenuto in Libia ha rappresentato per la comunità internazionale il superamento di una linea rossa. Il momento in cui, per la prima volta, su un campo di battaglia è stata utilizzata un’arma completamente autonoma, in grado di cercare, individuare e colpire la potenziale minaccia utilizzando soltanto i software di deep learning (intelligenza artificiale), senza alcun intervento da parte dell’operatore umano.

Perché questo momento era tanto temuto, al punto che 140 ong, 30 nazioni, il parlamento europeo e 4.500 esperti di intelligenza artificiale hanno firmato l’appello per la messa al bando delle armi autonome?

«Al di là della questione morale, legata a cedere ad algoritmi le decisioni sulla vita e sulla morte di persone, bisogna considerare che le armi autonome diventeranno inevitabilmente armi di distruzione di massa, proprio perché non richiedono la supervisione umana e possono quindi essere dispiegate in vastissime quantità», ha scritto il docente di scienze informatiche Stuart Russell sul sito della Ieee, importante associazione internazionale di informatici e ingegneri.

C’è di più: come già dimostrato in passato, le intelligenze artificiali commettono ancora numerosi errori. Come segnala Foreign Policy, «anche le migliori intelligenze artificiali non sono sempre in grado di distinguere dei contadini da dei soldati e possono essere addestrate solo con dati provenienti da laboratori, uno scarso surrogato di ciò che realmente avviene sui campi di battaglia». Inoltre, un operatore umano potrebbe decidere di evitare un attacco nel caso in cui gli obiettivi individuati si trovino di fianco a un ospedale o a una scuola: un’intelligenza artificiale farebbe le stesse distinzioni? Come ha scritto il segretario generale dell’Onu António Guterres, «le macchine autonome con la capacità di selezionare obiettivi e fare vittime senza il coinvolgimento degli esseri umani sono politicamente inaccettabili, moralmente ripugnanti e dovrebbero essere vietate dalla legge internazionale».

Senza pilota

Eppure, nonostante i moniti e i timori, la strada verso l’impiego delle armi autonome sembra segnata. Gli Stati Uniti hanno investito nel 2020 3,7 miliardi per lo sviluppo di questi sistemi e nell’agosto dello stesso anno hanno dispiegato svariate dozzine di droni militari e di carri armati autonomi nei dintorni di Seattle, con l’obiettivo di individuare dei sospetti terroristi che si nascondevano all’interno di alcuni edifici. I robot coinvolti nell’operazione erano talmente numerosi che per un operatore umano sarebbe stato impossibile gestirli e controllarli tutti, ragion per cui avevano ricevuto l’istruzione di eliminare, senza attendere autorizzazioni, i terroristi individuati.

Fortunatamente, si trattava soltanto di un’esercitazione organizzata dalla Darpa (l’agenzia per la ricerca avanzata della difesa statunitense). Un’esercitazione che fa però temere un cambio di approccio da parte degli Stati Uniti, soprattutto se la si unisce alle dichiarazioni recentemente rilasciate da alti ufficiali dell’esercito a stelle strisce: «È davvero necessario che sia coinvolto un essere umano?», si è retoricamente chiesto il generale John Murray, parlando a un’accademia militare la scorsa primavera. Gli ha fatto eco l’ex responsabile dell’intelligenza artificiale dell’Air Force Michael Kanaan, che nel corso di una conferenza ha affermato che le intelligenze artificiali dovrebbero occuparsi sempre di più di riconoscere e distinguere i potenziali obiettivi, mentre gli esseri umani dovrebbero limitarsi alle decisioni “di livello superiore”.

La pressione per eliminare il coinvolgimento umano – che negli Stati Uniti è obbligatorio per legge dal 2012 (e che è considerato indispensabile anche in molte altre nazioni, tra cui Regno Unito, Italia e Francia) – si sta insomma intensificando, allo scopo di ottimizzare le potenzialità, soprattutto in termini di rapidità d’azione, di questi sistemi autonomi. Sistemi che, inoltre, hanno dimostrato di poter combattere meglio degli esseri umani: in una battaglia aerea simulata dalla Darpa, un’intelligenza artificiale ha sconfitto per cinque duelli a zero un pilota umano dell’aviazione Usa, che ha dichiarato che l’intelligenza artificiale stava utilizzando “tattiche suicide”. D’altra parte, un robot non prova paura o stanchezza, non si distrae e può assumersi rischi che per un essere umano sarebbero folli.

Gli altri

A spronare gli Stati Uniti verso l’impiego di queste armi c’è anche il timore che potenze come Cina e Russia (che quest’anno investirà 700 milioni per la ricerca nel settore) potrebbero non farsi gli stessi scrupoli morali. C’è anche il sospetto che Vladimir Putin abbia già autorizzato l’utilizzo di sistemi completamente autonomi in Siria. Non ci sono dati certi su quanto stia invece investendo la Cina, che però sta già vendendo droni autonomi da guerra ad altre nazioni, oltre ad aver varato nel 2017 il centro di ricerca battezzato Military science research steering committee (considerato la risposta cinese alla Darpa) e a spendere nei sistemi autonomi una parte crescente dei 200 miliardi di dollari destinati al settore militare.

«Lo sviluppo delle armi autonome si sta trasformando in una profezia che si autoavvera: una spirale in cui tutti temono che l’altro sia in vantaggio», ha affermato Chris Meserole del think tank Brookings Institution. Una corsa alle armi che, tra l’altro, non riguarda soltanto Cina, Russia e Stati Uniti. Israele – oltre ad aver sviluppato (e venduto) il suo Iai Harpy, uno dei droni autonomi più avanzati – sta impiegando un veicolo autonomo (ma programmato per attendere l’ordine di un essere umano) soprannominato Jaguar per pattugliare il confine con Gaza.

La coreana Samsung ha invece sviluppato la mitragliatrice (potenzialmente) autonoma Sg-A1, impiegata lungo il confine con la Corea del Sud. Il Regno Unito, da parte sua, sta sviluppando dal 2013 il drone Taranis (chiamato come il dio celtico del tuono), capace di svolgere in autonomia compiti di sorveglianza, monitorare potenziali bersagli, raccogliere informazioni e colpire in territorio nemico. Altri armi autonome sono sviluppate da colossi come Lockheed Martin, Boeing, Kalašnikov Koncern, Bae System e altre ancora. Nel complesso, si stima che il mercato globale delle armi autonome crescerà dai 12 miliardi del 2020 ai 13,3 del 2021, arrivando nel 2025 a toccare quota 20 miliardi.

Tutto questo, a meno che la comunità internazionale non decida di mettere al bando le armi autonome: una decisione che sarebbe peraltro appoggiata dalla popolazione. Secondo un sondaggio Ipsos, è contrario allo sviluppo di queste armi il 55 per cento degli statunitensi e il 53 per cento dei cinesi; percentuale che sale notevolmente in Europa, dove si oppone il 59 per cento degli italiani, il 56 per cento dei britannici e il 68 per cento dei tedeschi (ma non i francesi, dove i contrari sono solo il 47 per cento).

Chi invece non appoggia l’ipotesi della messa al bando – come gli autori del report recentemente stilato da un’agenzia governativa statunitense (la National Security Commission on Ai) – sottolinea il rischio che nazioni come Cina e Russia non rispettino gli accordi e che si fornisca un vantaggio strategico alle organizzazioni terroristiche, che in futuro potranno facilmente procurarsi i software per trasformare un drone commerciale in un’arma. Una posizione fermamente rifiutata da Max Tegmark, docente del Mit e voce prominente nella richiesta di mettere al bando questi sistemi: «Non farlo sarebbe un errore strategico di cui ci pentiremmo amaramente», ha spiegato durante un podcast. «Le armi autonome vanno stigmatizzate e vietate, com’è successo con le armi biologiche».

© Riproduzione riservata