Le tecnologie della sorveglianza sono sempre più sofisticate, più precise e, purtroppo, più diffuse. L’assenza di regole puntuali per l’utilizzo di sistemi di intelligenza artificiale ed in particolare di riconoscimento biometrico - riconoscimento facciale in primis - sta accelerando la proliferazione di tali dispositivi in diversi ambiti, dal controllo dei luoghi pubblici come piazze e strade per motivi di sicurezza, all’accesso a strutture come aeroporti, stadi e mezzi di trasporto pubblico. Le conseguenze di un uso indiscriminato di queste tecnologie, seppur non immediatamente evidenti, possono essere catastrofiche per ciò che concerne l’esercizio dei diritti fondamentali e delle libertà di tutti noi.

La proposta di moratoria

Per questo motivo i decisori politici, sia a livello nazionale che europeo, stanno correndo ai ripari, cercando di intervenire con leggi e regolamenti in grado di mettere dei paletti all’uso dei sistemi di tracciamento biometrico.

Si è mosso per primo in questa direzione Filippo Sensi, deputato del Pd, che il 12 aprile ha depositato alla Camera un disegno di legge per chiedere una moratoria, cioè una sospensione temporanea, «dell’installazione e dell’utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale operanti attraverso l’uso di dati biometrici in luoghi pubblici o aperti al pubblico». La proposta, per quanto timida e molto limitata, rappresenta un primo confortante segnale dell’interessamento da parte del Parlamento nei confronti di un tema di così forte impatto per il presente e soprattutto il futuro dei nostri diritti.

La bocciatura di Sari Real Time

La proposta di Sensi ha di certo smosso le acque e forse non è casuale l’immediata reazione del Garante per la protezione dei dati personali, che appena quattro giorni dopo, il 16 aprile, ha finalmente pubblicato il suo parere sull’utilizzo del sistema di riconoscimento facciale Sari Real Time, acquistato dal Ministero dell’interno ma non ancora attivato.

Quella del Garante è una bocciatura senza se e senza ma, come si legge infatti nel comunicato pubblicato sul sito istituzionale «il sistema, oltre ad essere privo di una base giuridica che legittimi il trattamento automatizzato dei dati biometrici per il riconoscimento facciale a fini di sicurezza, realizzerebbe per come è progettato una forma di sorveglianza indiscriminata/di massa».

Più in generale, il Garante ritiene di estrema delicatezza l’utilizzo di tecnologie di riconoscimento facciale per finalità di prevenzione e repressione dei reati, considerando che si andrebbe a realizzare un trattamento di dati personali automatizzato su larga scala che potrebbe riguardare anche persone presenti a manifestazioni politiche e sociali, non “attenzionate” da parte delle forze di polizia.

Preoccupazioni condivise anche a livello europeo, come dimostra la conferenza del 21 aprile in cui la Commissione europea ha presentato la sua proposta di regolamento sull’intelligenza artificiale: la Commissione riconosce che la sorveglianza biometrica di massa ha un impatto altamente invasivo sui diritti e le libertà delle persone, così come il fatto che l’uso di queste tecnologie possa «influenzare la vita privata di una grande parte della popolazione ed evocare una sensazione di sorveglianza costante».

Una scala di rischio

Margrethe Vestager, commissaria per la concorrenza, ha spiegato come la proposta europea intenda classificare le tecnologie di intelligenza artificiale secondo quattro livelli di rischio: inaccettabile, alto, limitato e minimo. In questa scala di rischio tutti i sistemi basati su identificazione biometrica remota sono considerati nelle fasce di rischio più elevato, ma ciò non ne determina immediatamente il divieto di utilizzo, cosa che ha sollevato ben più di qualche malumore nella comunità degli attivisti a difesa dei diritti digitali.

Secondo Edri, organizzazione europea che sta raccogliendo le firme per proporre il divieto di tutti i sistemi di riconoscimento facciale, la proposta della Commissione si contraddice, laddove pur riconoscendo l’incompatibilità di queste tecnologie con i diritti fondamentali e con le libertà protette in Europa, non ha il coraggio di vietarne l’utilizzo.

Sono infatti molte e troppo vaghe le eccezioni previste che permettono l’installazione e l’uso dei sistemi di riconoscimento biometrico da parte delle forze dell’ordine: più che un divieto sembra un tiepido invito a farne a meno. Difficile che un così pacato monito possa essere preso sul serio da chi su queste tecnologie sta investendo da anni risorse, tempo e ricerca.

Reclaim Your Face

Anche Laura Carrer del Centro Hermes per la trasparenza e i diritti digitali,  coordinatrice della campagna Reclaim Your Face in Italia, condivide le stesse preoccupazioni: «Se l’Europa non vieterà la sorveglianza biometrica, il rischio di sorveglianza di massa nelle nostre città sarà estremamente reale. La tecnologia non può avere il potere di definire chi siamo, nè di controllarci. Privacy significa potere. Reclamare il possesso delle nostre città e degli spazi pubblici è il primo step per riappropriarci della nostra faccia».

Le organizzazioni che aderiscono a Reclaim Your Face presentano proprio oggi un nuovo video che, si augurano, ispiri le persone a sottoscrivere l’iniziativa di legge europea per il divieto dei sistemi di riconoscimento facciale. La battaglia per riappropriarsi dei propri dati e «dei propri volti» è appena cominciata e viste le forze economiche in campo, non sarà facile vincerla.

© Riproduzione riservata