Sistemi di Intelligenza artificiale come ChatGpt o modelli di decisione automatica per l’analisi dei curricula o dei mutui sono ormai parte integrante della nostra quotidianità, anche se non sempre ne siamo consapevoli. Negli ultimi anni anche le istituzioni europee hanno largamente investito nell’AI fino a trasformarla in uno dei pilastri delle politiche migratorie comunitarie, ma l’oggettività di questi sistemi - data ormai per scontata - è in realtà tutt’altro che confermata.

Uno dei problemi principali alla base delle AI e che si riverbera con forza anche nell’ambito dell’immigrazione è quello dei bias, ossia dei pregiudizi razziali, di classe, di genere e contro le persone Lgbtq esistenti nella nostra società e che si riproducono in ambito tecnologico, più o meno consapevolmente. Capire perché ciò succede è abbastanza semplice.

Ogni modello alla base di un sistema AI è realizzato da un informatico che potrebbe non essere sensibile o non sufficientemente consapevole delle dinamiche e delle discriminazioni presenti della società e degli effetti che il suo algoritmo può avere su certe categorie di persone. Si parla non a caso di “white guy problem” (il problema del maschio bianco), a sottolineare come questa criticità derivi dalla presenza ancora preponderante di giovani maschi bianchi cisgender, poco sensibili verso bias di genere o tematiche transgender tra coloro che progettano, disegnano e programmano i sistemi AI.

Anche realizzando un modello non discriminatorio, bisogna fare attenzione ai dati su cui lo si allena: potrebbero essere incompleti, non rappresentativi o presentare al loro interno dei bias.

In ultimo può esserci un problema di interpretazione della risposta fornita dall’AI, il che rischia di tradursi nella violazione di uno o più diritti fondamentali e in atteggiamenti discriminatori verso una certa categoria di persone. «Il punto centrale è che i sistemi di AI non sono neutri perché sono strettamente legati al contesto sociale e istituzionale», spiega Laura Sartori, docente di sociologia nel dipartimento di scienze politiche e sociali dell’università di Bologna. «La soluzione tecnica sia non sempre quella più giusta».

L’immigrazione

L’uso dell’AI presenta in effetti dei rischi per il rispetto dei diritti fondamentali, soprattutto nel caso delle persone più vulnerabili. L’Ue a questo proposito sta discutendo le prime norme al mondo sull’intelligenza artificiale, ma il regolamento stabilisce una differenza di trattamento tra i cittadini europei, maggiormente tutelati, e le persone migranti. I sistemi AI ad alto rischio di violazione di un diritto sono quelli maggiormente impiegati in ambito migratorio perché, nonostante le criticità, sono ritenuti più oggettivi e affidabili.

A riscuotere particolare successo sono i programmi predittivi dei movimenti migratori, su quali e quante persone arriveranno in Europa e secondo quali rotte. Tra questi rientra ITFlows, progetto finanziato dai fondi Ue di Horizon 2020 e sviluppato anche con la collaborazione della Croce rossa italiana.

ITFlows però usa dati pubblici come quelli di Eurostat sulle richieste di asilo, spesso incompleti o fuorvianti - non tutti fanno richiesta nel paese di primo arrivo - e si basa su un sistema di machine learning che non è necessariamente adatto per le previsioni sociali. Il rischio è che questi programmi non siano usati per migliorare l’accoglienza, ma per rafforzare politiche migratorie restrittive come quelle già messe in campo dall’Europa e dalle sue agenzie.

L’Ue ha invece previsto la messa al bando di IBorder Ctrl, un sistema finanziato con 4,5 milioni del programma Horizon 2020 e che tramite la lettura delle emozioni dovrebbe capire se una persona mente o meno. «L’AI ha cercato di creare sistemi per analizzare emozioni ed espressioni in maniera più oggettiva e affidabile rispetto al poligrafo del passato, ma non esistono espressioni universali. Gli informatici lavorano spesso con l’aiuto di psicologi cognitivi per superare il divario tra il loro algoritmo e la realtà, ma se nemmeno uno psicologo sa con certezza qual è il modello mentale che genera l’emozione alla base del mentire come fa una macchina a capirlo?», evidenzia Sartori.

Tecnosoluzionismo

La tecnologia dunque non è oggettiva e anzi, una sua applicazione acritica riproduce quelle stesse logiche genderizzate e razzializzate tipiche di una società discriminatoria e intersezionale. Superare questo scoglio è possibile se si comprende che i sistemi tecnologici dipendono dal contesto sociale e istituzionale in cui vengono disegnati.

L’AI può essere usata per ridurre le diseguaglianze, ma ha bisogno di un modello che le riconosca. «L’AI è usato anche usato dalle pubbliche amministrazioni per il welfare e il controllo dell’evasione fiscale o dalle agenzie Ue che si occupano di immigrazione, ma queste tecnologie danno un risultato diverso a seconda di come sono disegnate», sottolinea Sartori.

Essere consapevoli della non-neutralità dell’AI e della necessità di coniugare il lavoro degli informatici con quello dei sociologi è fondamentale per evitare il ripetersi delle discriminazioni e superare l’idea della presunta infallibilità della tecnologia. Quest’ultima permette di immaginare nuovi modelli di società o di gestione di flussi come quello migratorio, ed è allo stesso tempo uno strumento attraverso cui concretizzare una certa idea di futuro.

Ma ha una componente soggettiva ancora preponderante e che non può essere ignorata. Il rischio altrimenti è di condannare le prossime generazioni agli stessi schemi discriminatori attualmente esistenti e di continuare a criminalizzare le persone migranti sulla base di un’oggettività delle macchine ancora solo presunta.

© Riproduzione riservata