Le democrazie illiberali stanno sempre più spesso utilizzando sistemi di intelligenza artificiale per identificare i manifestanti e reprimere il dissenso
Fin dal varo dell’AI Act, gli attivisti per la privacy e per i diritti in ambito digitale hanno sottolineato alcuni possibili punti deboli del regolamento dell’Unione Europea sull’intelligenza artificiale.
Critiche che si sono concentrate in particolare sulle eccezioni che consentono alle forze dell’ordine di fare uso – in caso di terrorismo o di minacce alla sicurezza nazionale – di tecnologie per la sorveglianza della popolazione, come il riconoscimento facciale in tempo reale.
A breve, scopriremo se queste eccezioni rappresentano in realtà una scappatoia, che consente alla polizia di abusare di questi sistemi – definiti dalla stessa UE “ad alto rischio” – per mettere in atto una sorveglianza di massa.
Lo scorso marzo, l’Ungheria ha infatti vietato per legge le manifestazioni del Pride in favore dei diritti LGBTQ+, annunciando che avrebbe inoltre impiegato il riconoscimento facciale per identificare i partecipanti.
Le cose da chiarire, da parte della Commissione Europea, sono fondamentalmente due: se l’Ungheria stia impiegando la sorveglianza biometrica in tempo reale (quella utilizzato a posteriori è infatti consentita, pur se con limiti stringenti) e se sia possibile far rientrare il Pride tra le eccezioni previste per le forze dell’ordine.
«Siamo convinti che le nostre azioni siano in linea con la costituzione e con la legge dell’Unione Europea», ha affermato un portavoce del governo di Viktor Orbán, aggiungendo inoltre che l’obiettivo è quello di difendere i bambini dalla “ideologia LGBTQ+”.
Da parte sua, come ha invece spiegato, parlando con Politico, il portavoce Thomas Regnier, la Commissione Europea sta «attualmente valutando» se la nuova legge ungherese sia in ottemperanza con l’AI Act.
Non è un compito facile: il regolamento europeo sull’intelligenza artificiale prevede multe fino a 35 milioni di euro per chi viola le norme, ma spetta alle singole nazioni dell’UE decidere quale autorità sarà incaricata di infliggerle. Bruxelles mantiene comunque un certo margine d’azione: gli Stati membri devono infatti informare la Commissione nel caso in cui decidano di autorizzare alcune pratiche vietate.
È possibile far rientrare il Pride tra le «minacce alla sicurezza nazionale» ? E se anche il riconoscimento facciale non è impiegato in tempo reale, qual è il lasso temporale che trascorre tra il momento in cui i manifestanti vengono ripresi dalle videocamere e quello in cui il loro volto viene identificato tramite gli appositi strumenti di sorveglianza?
Il caso ungherese
Secondo quanto riportato da Ádám Remport, esperto legale dell’Unione Ungherese per le Libertà Civili, la polizia utilizza le videocamere di sorveglianza per ottenere le riprese dei manifestanti e poi invia il materiale alla Polizia Scientifica, che si occupa dell’effettiva identificazione tramite intelligenza artificiale.
Al di là degli aspetti ancora da chiarire, è evidente che, soprattutto in un caso come quello del Pride, l’identificazione dei manifestanti non espone solo al rischio di una multa di circa 500 euro. In un contesto politico come quello ungherese, l’essere presenti a una manifestazione LGBTQ+ può implicare — a torto o a ragione — l’attribuzione di un orientamento sessuale o politico da parte di un governo estremamente conservatore, che considera l’omosessualità, come affermato implicitamente nel testo della legge che vieta il Pride, una “deviazione” rispetto al sesso alla nascita.
«Stiamo vedendo quali sono le conseguenze concrete della decisione di annacquare le leggi», ha affermato Remport, riferendosi alla decisione di consentire delle eccezioni nonostante la richiesta del Parlamento Europeo di vietare del tutto il riconoscimento facciale in tempo reale.
Secondo Laura Caroli, che ha seguito le negoziazioni dell’AI Act per il Parlamento Europeo, «anche se l’Ungheria invocasse la sicurezza nazionale o rappresentasse il Pride come una minaccia terroristica, starebbe comunque violando l’AI Act» – ha spiegato a EurActiv – perché il divieto di sorveglianza biometrica in tempo reale è stilato in modo da impedire l’abuso di questa tecnologia.
Come Russia e Cina
La situazione è però ancora peggiore in un’altra democrazia illiberale europea come la Turchia di Erdogan, dove le autorità hanno impiegato strumenti biometrici per identificare i manifestanti che dal 19 marzo protestano contro l’arresto del sindaco di Istanbul, e leader de facto dell’opposizione, Ekrem İmamoğlu, portando all’incarcerazione di migliaia di persone, molte delle quali sono state prelevate direttamente da casa dopo essere state riconosciute tramite i software di riconoscimento facciale.
Quanto sta avvenendo in Turchia e in Ungheria avvicina, insomma, le due nazioni alla Russia e alla Cina: qui il riconoscimento facciale è da anni ampiamente impiegato per reprimere il dissenso o per perseguitare minoranze come quella uigura.
L’effetto di questa tecnologia è inoltre duplice: non solo consente alle forze dell’ordine di identificare rapidamente i manifestanti, ma svolge anche un effetto deterrente, disincentivando la partecipazione alle proteste proprio per il timore di finire comunque, anche qualora si scampasse all’arresto durante la manifestazione, negli archivi della polizia.
Come ha spiegato all’emittente Al-Arabiya l’esperto di tecnologie digitali Orhan Sener, «durante le proteste di Gezi Park del 2013, i manifestanti dominavano i social network e la polizia non era in grado di identificarli. Oggi invece la situazione si è rovesciata: quando manifesti in Turchia, il tuo volto è riconosciuto dalle videocamere e il sistema è in grado di incrociare i dati con il tuo profilo sui social network e così individuarti».
In alternativa, oggi è possibile utilizzare sistemi come ClearviewAI, programma sviluppato da un’azienda statunitense (e venduto alle forze dell’ordine di tutto il mondo) che, setacciando il web, ha costruito un database estremamente accurato (abitazione, indirizzo email, numero di telefono e moltissimo altro) di ogni persona rintracciata online.
Per questa ragione, i manifestanti ricorrono sempre più spesso a maschere, trucchi o altri sistemi, come le immagini “adversarial” (pattern grafici che mandano in tilt le intelligenze artificiali), per confondere i software di sorveglianza.
Ogni forma di repressione, d’altra parte, genera nuove forme di resistenza. Ma l’utilizzo di sistemi di controllo sofisticati sta riducendo sempre di più lo spazio per il dissenso.
© Riproduzione riservata