A seguito di un furto avvenuto nel 2019 in un’azienda di logistica francese, per tentare di identificare i responsabili si è fatto ricorso alla tecnologia di riconoscimento facciale tramite le riprese delle telecamere di sicurezza. Il funzionamento di questa tecnologia si basa sulla comparazione, ad esempio, tra immagini provenienti dalle telecamere a circuito chiuso con database di milioni di immagini di volti, spesso acquisite senza consenso o all’insaputa degli interessati.

Nel caso in questione, la polizia ha scelto il signor “H” dalla lista dei sospettati e lo ha accusato del furto, nonostante l’assenza di prove materiali che lo collegassero al reato.

Durante il processo, il tribunale ha negato la richiesta dell’avvocato del signor “H” di condividere informazioni su come il sistema avesse stilato la lista dei sospettati, sulla base della quale era stato incriminato il suo cliente. Il giudice ha deciso di fare affidamento su questa tecnologia, notoriamente discriminatoria, condannando il signor “H” a 18 mesi di prigione.

Indagati

La tecnologia di riconoscimento facciale “dal vivo” è spesso oggetto di critiche (ampiamente fondate), perché è usata per monitorare e rintracciare individui in tempo reale.

Tuttavia, l’utilizzo retrospettivo della tecnologia di riconoscimento facciale, ovvero dopo che un evento si è già verificato, è meno esposta a critiche, nonostante il suo impiego in casi come quello del signor “H”. La tecnologia di riconoscimento facciale retrospettiva risulta più agevole e diffusa grazie alla disponibilità di un gran numero di riprese delle telecamere di sicurezza e alle infrastrutture già esistenti.

Ora, nell’ambito dei negoziati per una nuova legge sulla regolamentazione dell’intelligenza artificiale, l’Ai Act, i governi dell’Unione europea stanno proponendo di consentire l’uso routinario del riconoscimento facciale retrospettivo nei confronti del pubblico generale, da parte della polizia, delle amministrazioni locali e persino delle aziende private.

La proposta dell’Unione europea parte dal presupposto che la tecnologia di riconoscimento facciale retrospettiva sia meno dannosa rispetto alla sua versione “dal vivo”. Secondo i governi dell’Unione europea, la possibilità di elaborare retrospettivamente i dati consente di mitigare i rischi, grazie al tempo aggiuntivo a disposizione per effettuare le dovute valutazioni e analisi.

Questo argomento è sbagliato. Non solo il tempo extra non riesce a risolvere le questioni chiave – il venir meno dell’anonimato e la soppressione dei diritti e delle libertà – ma introduce anche ulteriori problemi.

"Post Rbi”

L’identificazione biometrica a distanza, o Rbi, è un termine generico utilizzato per sistemi, come la tecnologia di riconoscimento facciale, che analizzano e identificano le persone utilizzando il loro volto – o altre parti del corpo – a distanza.

Nell’Ai Act, l’Unione europea propone di definire tali sistemi “post Rbi”, quando questi vengono utilizzati in maniera retrospettiva. Il “post Rbi” significa che un software potrebbe essere utilizzato per riconoscere persone in un flusso di immagini provenienti da spazi pubblici, anche ore, settimane o mesi dopo che le immagini stesse sono state acquisite: ad esempio, utilizzando la tecnologia di riconoscimento facciale su manifestanti ripresi da telecamere a circuito chiuso; o, come nel caso del signor “H”, confrontando le riprese delle telecamere di sorveglianza con un database governativo di ben otto milioni di volti. L’utilizzo di questi sistemi produce un effetto inibitorio sulla società, su quanto ci sentiamo a nostro agio partecipando a una protesta, cercando assistenza sanitaria – come un aborto in luoghi in cui viene criminalizzato – o parlando con un giornalista. Il solo sapere che la tecnologia di riconoscimento facciale retrospettiva è in uso ci fa temere che le informazioni sulla nostra vita personale potrebbero essere utilizzate, in futuro, contro di noi.

Le ricerche a disposizione suggeriscono che l’applicazione dell’Rbi colpisce in modo sproporzionato le comunità razzializzate. Amnesty International ha dimostrato che le persone che vivono in aree a maggior rischio di controlli di polizia razzisti – che dunque colpiscono in modo particolare le persone di colore – sono probabilmente più esposte alla raccolta di dati e alla tecnologia di riconoscimento facciale invasiva.

Dwreck Ingram, un organizzatore delle proteste del movimento Black Lives Matter di New York, è stato torturato dalle forze di polizia nel suo appartamento per quattro ore, senza mandato o accusa legittima, semplicemente perché era stato identificato dal “post Rbi” dopo la sua partecipazione a una manifestazione. Ingram ha dovuto intraprendere una lunga battaglia legale per far cadere le false accuse contro di lui, dopo che è emerso che la polizia aveva usato questa tecnologia sperimentale nei suoi confronti. La lista continua. Robert Williams, un residente di Detroit, nel Michigan, è stato arrestato ingiustamente per un furto commesso da qualcun altro. È finito in prigione in Louisiana, uno stato in cui non aveva mai messo piede, perché la polizia lo aveva erroneamente identificato, tramite riconoscimento facciale retrospettivo, come sospetto in una rapina. Soprattutto per le comunità razzializzate, l’uso massiccio della tecnologia di riconoscimento facciale equivale a perpetuare la loro condizione di costante sorveglianza e controllo.

La regolamentazione

Questa tecnologia distopica è stata utilizzata anche dai club di calcio olandesi per individuare tifosi violenti e ha portato a multare un tifoso che non era presente alla partita in questione. Si ritiene che la tecnologia di riconoscimento facciale sia stata utilizzata anche dalla polizia austriaca contro i manifestanti così come in Francia, con il pretesto di rendere le città “più sicure” ed efficienti, in realtà aumentando così la sorveglianza di massa.

Queste tecnologie sono spesso offerte a costi bassi o nulli. Una delle aziende che offre tali servizi è la Clearview Ai, che offre ricerche di riconoscimento facciale altamente invasive a migliaia di agenti e forze di polizia in tutta Europa, Stati Uniti e altrove. Le autorità nazionali per la protezione dei dati personali hanno assunto una posizione ferma contro queste pratiche: i regolatori italiani e greci hanno inflitto a Clearview Ai milioni di euro di multa per la raccolta illecita e senza base legale dei volti di cittadini dell’Unione europea. Allo stesso modo, i regolatori svedesi hanno multato la polizia nazionale per avere violato la privacy dei cittadini mediante l’uso di Clearview Ai.

Nonostante queste azioni incoraggianti per proteggere i nostri diritti umani dal riconoscimento facciale retrospettivo, i governi dell’Unione europea stanno ora cercando di attuare queste pratiche pericolose.

Gli esperimenti di identificazione biometrica in vari stati del mondo hanno dimostrato più volte che queste tecnologie e la raccolta di dati di massa ottenuta per loro tramite erodono i diritti delle persone più emarginate, tra cui le comunità razzializzate e le persone rifugiate, migranti e richiedenti asilo.

Stati europei hanno iniziato a legalizzare una serie di pratiche di sorveglianza di massa biometrica, minacciando di normalizzare l’uso di questi sistemi invasivi in tutta l’Unione europea. Ecco perché, più che mai, abbiamo bisogno di una forte regolamentazione su tutte le forme di sorveglianza di massa biometrica dal vivo e retrospettiva nelle nostre comunità e ai confini dell’Unione europea, compreso uno stop al “post Rbi” sin dall’inizio.

Con l’Ai Act, l’Unione europea ha un’occasione d’oro per porre fine alle crescenti violazioni dei diritti umani facilitare dalle tecnologie di sorveglianza di massa. È necessario istituire, in relazione a queste tecnologie emergenti, elevati standard di garanzie sui diritti umani soprattutto quando esse acuiscono le disuguaglianze già esistenti nelle nostre società.

Gli autori provengono dalle associazioni per i diritti European Digital Rights e Amnesty International. Questo articolo è stato inizialmente pubblicato in lingua inglese su euronews.com 

© Riproduzione riservata