Diritto alla privacy, diritto di richiedere asilo, diritto al consenso informato, per loro valgono solo fino a un certo punto.

Criminalizzati e schedati, i migranti stanno così diventando sempre più le cavie da laboratorio del “border industrial complex”, il complesso di aziende, governi, enti di ricerca che si occupa di mettere a punto tecnologie per sorvegliare i confini.

Accade negli Stati Uniti dove il muro fisico voluto da Donald Trump si sta trasformando sempre più in un muro digitale, fatto di torri di avvistamento, telecamere e sensori. Accade alle frontiere dell’Unione europea, sia marine sia terrestri, con droni, rilevatori di battito cardiaco e termocamere.

Il finanziamento per queste operazioni è imponente. In Europa, la UE ha stanziato quasi 35 miliardi per il periodo 2021-2027 per la gestione di confini, di questi 1,3 miliardi per “attrezzature per il controllo doganale”. Negli Stati Uniti, il muro intelligente, che piace ai democratici perché ritenuto più rispettoso della dignità umana rispetto a quello fisico di Trump, vale già diverse centinaia di milioni di dollari.

COME UN VIDEOGIOCO

L’aumento di tecnologia in questo settore non è di per sé una cosa negativa. Lo diventa però se facilita discriminazioni, respingimenti illegali, violenze, rendendo la “caccia al migrante” simile a un videogioco. Il gruppo di ong Border violence monitoring network (Bvmn), attivo in Grecia e nei Balcani, ha documentato diversi casi le guardie di frontiera croate, equipaggiate con droni, visori notturni, elicottori con termocamere, avrebbero respinto in maniera violenta tentativi dei migranti di richiedere asilo.

Respingimenti violenti e illegali sono stati denunciati anche alle frontiere marittime dell’Unione europea. La guarda costiera greca, in particolare, è stata spesso accusata di respingere in blocco i migranti senza tener conto delle leggi e delle convenzioni che impongono di esaminare le richieste di asilo dei singoli individui che possono aver diritto a protezione in base al diritto internazionale. Queste operazioni vengono agevolate da sistemi di monitoraggio basati su tecnologie avanzate.

Droni vengono dispiegati nel Mediterraneo nell’ambito del progetto Eurosur (European border surveillance system) per pattugliare le acque e avvisare la Guardia costiera libica, in modo che possa intercettare i barconi di disperati e riportarli verso la sponda africana. Altri droni di sorveglianza, in grado di operare sia singolarmente sia all’interno di sciami, sono stati utilizzati da 13 stati europei, fra cui l’Italia, nell’ambito del progetto Roborder, che si è concluso nel febbraio 2021.

Negli Stati Uniti, le torri di avvistamento iper tecnologiche hanno spinto i migranti a cercare strade più pericolose e meno battute. Secondo uno studio, questo ha portato al raddoppio del numero di decessi, trasformando il deserto dell’Arizona nella “terra delle tombe a cielo aperto(The land of the open graves è il titolo del libro scritto da Jason De Leon e Michael Wells per l’Università della California). Che il muro digitale sia più efficiente di quello puramente fisico è possibile: i progressi dell’intelligenza artificiale applicati al riconoscimento delle immagini hanno permesso di ridurre drasticamente i falsi allarmi dovuti all’attraversamento di qualche animale. Secondo Anduril, una startup che ha messo a punto un sistema di riconoscimento di questo tipo, la percentuale di successo si avvicina al 97 per cento. Che sia anche più umano, come sostengono negli Stati Uniti i democratici, è perlomeno dubbio.

Nei giorni scorsi si è molto parlato di uno studio diffuso da Ipvm, un gruppo di ricerca americano specializzato nella sorveglianza. Proverebbe che la Cina è all’avanguardia nell’utilizzo di tecnologie di riconoscimento facciale, capaci di distinguere le caratteristiche etniche di chi viene inquadrato. Il sospetto è che possano servire per politiche di discriminazione, in particolare nei confronti degli uiguri.

DATI, BIOMETRIA E POTERE

Ma ci sono altri casi in cui la tecnologia, utilizzata in modo opaco, può agevolare pratiche razziste e discriminatorie, disumanizzare o negare il processo di asilo, rendendo le procedure di attribuzione o meno del permesso di soggiorno, sentenze inappellabili emesse da un moderno oracolo algoritmico.

È la preoccupazione di E. Tendayi Achiume, relatrice speciale delle Nazioni Unite sulle forme contemporanee di razzismo, discriminazione e xenofobia. In un recente report cita diversi esempi dell’impatto discriminatorio delle tecnologie digitali su apolidi e rifugiati. Uno dei punti più controversi è quello relativo ai sistemi usati per identificare i rifugiati e a come vengono adoperati i dati così raccolti.

Il Programma alimentare mondiale delle Nazioni Unite (Pam), per esempio, è stato criticato per aver stretto una partnership con la società di data mining Palantir Technologies per un contratto da 45 milioni di dollari e per aver condiviso i dati di 92 milioni di beneficiari di aiuti.

Uno dei fondatori di Palantir è il venture capital filo trumpiano Peter Thiel e l’azienda è stata spesso criticata in passato per aver fornito la tecnologia che supporta i programmi di detenzione e deportazione gestiti dall’Ice (Immigration and customs enforcement) e dal Dhs (Department of homeland security) degli Stati Uniti.

Non è ben chiaro quale meccanismo di garanzia per il trattamento dei dati venga messo in atto durante la partnership Pam-Palantir o se i soggetti dei dati possano decidere di non aderire. Ma va sottolineato come il censimento di popolazioni vulnerabili non sia mai un atto neutro e si presti a potenziali abusi. Achiume ricorda il caso del censimento della popolazione ebraica in Germania, reso più efficiente da una collaborazione fra i nazisti e Ibm (anche se il ruolo di quest’ultima è controverso) e servito come preludio allo sterminio. Oppure la schedatura etnica dei Tutsi in Rwanda, che ha reso più semplice il genocidio del 1994. Pur senza arrivare a questi estremi, nel caso dei migranti è evidente lo squilibrio di potere fra chi raccoglie i dati e chi li fornisce. In alcuni campi per rifugiati in Afghanistan, Giordania, Bangladesh, l’identificazione tramite scansione dell’iride è condizione necessaria per aver accesso alla distribuzione di cibo e aiuti.

Anche se i migranti firmano una liberatoria, si può davvero parlare di libero consenso, se l’alternativa è morire di fame?

Un algoritmo per oracolo

Un altro problema è il modo semi-automatizzato con cui le richieste di asilo vengono elaborate.

Le dogane di molte nazioni si servono di software per effettuare un primo screening dei rifugiati.

Dal responso di questi programmi dipende l’essere accolti o meno, il percorso di inserimento e il grado di priorità della domanda. Il punto è che non sempre è chiaro come questi algoritmi operino, cosa che rende difficile fare appello, nel caso la decisione presa venga percepita come ingiusta.

Secondo l’Università di Toronto, che ha esaminato il sistema canadese, questi processi automatizzati «creano un laboratorio per esperimenti ad alto rischio all’interno di un sistema già altamente discrezionale e opaco».

Sistemi simili per la concessione dei visti sono in uso anche in Svizzera e nel Regno Unito e sono stati contestati per il loro potenziale discriminatorio. Il problema non è la mancanza di “calore umano” del processo, anche se pure questo andrebbe tenuto in considerazione. Il punto vero è che l’analisi automatizzata va a scardinare un sistema di garanzie giuridiche fatto per essere valutato da persone in carne e ossa.

Come può un giudice ribaltare la decisione presa dal software se non ha ben chiaro il modo con cui sono stati elaborati i parametri inseriti? Chi controlla che i dati di partenza e le loro associazioni non contengano bias e tengano conto dei principi di equità e giusto processo? Togliere di mezzo il fattore umano può rendere l’analisi delle domande più veloce, ma suscita altri interrogativi.

© Riproduzione riservata