Andrey Chernyshov era da poco sceso nella metropolitana di Mosca, diretto a una manifestazione del maggio 2022 contro la guerra in Ucraina. Nel giro di pochi minuti, il 51enne – che solo una settimana prima aveva partecipato a un altro corteo – venne fermato dalle forze dell’ordine, che, senza ulteriori spiegazioni, lo prelevarono per portarlo a una stazione di polizia.

Chernyshov non era stato seguito e nemmeno riconosciuto da nessun agente della polizia. A identificarlo, e a segnalare la sua presenza, era invece stato Sfera: il sistema di riconoscimento facciale basato su deep learning (gli algoritmi ormai sinonimo di intelligenza artificiale) impiegato lungo tutta la rete della metropolitana moscovita.

Secondo quanto riporta OVD, associazione russa in difesa dei diritti umani, nel solo 2022 oltre 140 persone sono state arrestate in seguito alle segnalazioni di Sfera, che riprende i passeggeri della metro nel momento in cui oltrepassano i tornelli e confronta la loro immagine con quelle contenute all’interno del suo database. Quando il sistema individua una corrispondenza avvisa la polizia, che può intervenire immediatamente.

Sfera

Entrato in funzione nel settembre 2020, Sfera era stato presentato come uno strumento che avrebbe permesso di individuare tempestivamente criminali e ladri già noti alle forze dell’ordine. In uno stato autoritario come la Russia, pochi si sono sorpresi quando – come ha spiegato la ong in difesa dei diritti digitali Roskomsvoboda – le forze dell’ordine hanno iniziato a caricare all’interno del database di Sfera le fotografie dei leader dell’opposizione, degli attivisti più noti e, col tempo, anche di tantissime persone che avevano semplicemente partecipato a qualche manifestazione sgradita al governo. Uno strumento promosso come argine alla criminalità è così rapidamente diventato la testa d’ariete digitale della repressione, impiegato per arrestare o anche solo intimidire gli avversari del regime putiniano.

Il sistema di riconoscimento facciale, attivo su tutta la rete della metropolitana di Mosca, è però soltanto una parte dell’imponente, e in continua espansione, network di sorveglianza noto come SafeCity. Le origini di questo sistema – su cui torneremo tra poco – risalgono ai primi anni del decennio scorso. È infatti nel corso delle grandi proteste del 2011-12, organizzate principalmente online, che il Cremlino decide di prendere sul serio la minaccia posta dai mezzi di comunicazione digitali.

Vengono presto varate leggi che permettono di bloccare i siti web sgraditi e altre che obbligano gli operatori telefonici e gli internet service provider ad archiviare telefonate o messaggi che viaggiano sulle loro reti, e a condividere queste informazioni su richiesta della polizia. Nel 2014 entrano in vigore nuove e più severe “leggi anti-estremismo”, che permettono di prendere di mira gli utenti dei social media sulla base dei contenuti da loro diffusi, condivisi o a cui hanno anche semplicemente messo un like.

Armati di algoritmi

È in questa fase che, gradualmente, iniziano a venire utilizzati algoritmi di intelligenza artificiale in grado di scovare in pochissimo tempo i contenuti sgraditi presenti sulle piattaforme online, mentre i vari Facebook, Instagram, Twitter e il social network russo VKontakte vengono sfruttati dalle forze dell’ordine per fare incetta di fotografie di attivisti e personaggi sgraditi. Immagini che oggi, con tutta probabilità, sono diventate parte dei database impiegati per il riconoscimento facciale.

Sempre NTech aveva inoltre lanciato, nel 2016, la app FindFace, che permetteva a chiunque di riconoscere i volti inquadrati con lo smartphone confrontandoli con le immagini raccolte dal social network VKontakte. Scaricata da oltre 1 milione di persone in pochi mesi, questa inquietante app, oggi non più attiva, si è rivelata essere soprattutto uno strumento utile per l’addestramento dell’algoritmo impiegato oggi in tutti i sistemi di riconoscimento facciale attivi in Russia.

Città controllata

Anche grazie a questi primi esperimenti, nel 2017 la città di Mosca può infine annunciare il lancio di SafeCity, dotato al tempo di 160mila videocamere (nel frattempo diventate circa 250mila), di cui oltre 3mila dotate di riconoscimento facciale (oggi quasi raddoppiate). SafeCity – di cui Sfera è solo una parte, gestita dal ministero dei Trasporti – viene inaugurato in tempo per i Mondiali di calcio giocati in Russia e viene ulteriormente espanso nel 2020, con il pretesto, in tempo di Covid, di proteggere la salute collettiva individuando rapidamente chi avesse infranto il lockdown.

La videosorveglianza non è però l’unico elemento. Secondo quanto si legge sul sito del comune di Mosca, SafeCity raccoglie dati da 169 diverse fonti digitali, utilizzando dispositivi di riconoscimento vocale, sistemi di raccolta dati basata sulla geolocalizzazione dei telefoni cellulari, riconoscimento automatico delle targhe e moltissimo altro ancora.

A progettare l’infrastruttura tecnologica sono società russe come la già citata Ntech, Tevian, Rostec e VisionLabs, ma a fornire componenti utilizzati per SafeCity sono stati anche colossi statunitensi come Nvidia e Intel (che hanno affermato di aver interrotto qualunque esportazione in Russia in seguito all’invasione dell’Ucraina), sudcoreani come Samsung (che pure ha interrotto le esportazioni) e cinesi come Hikvision.

Il lavoro delle società russe coinvolte in SafeCity è stato ampiamente ripagato: nel 2022, il loro volume d’affari è cresciuto tra il 30 e il 35 per cento rispetto all’anno precedente, anche grazie – come riporta Kommersant – agli accordi commerciali siglati con nazioni mediorientali, del sudest asiatico e del Sudamerica, potendo inoltre contare su numerose sovvenzioni ed esenzioni fiscali garantite dal “piano strategico per l’intelligenza artificiale”.

Nel frattempo, SafeCity continua a crescere e a espandersi. Nel 2020, il governo ha annunciato la volontà investire 1,3 miliardi di dollari per la creazione di sistemi simili in tutta la Russia, partendo da città come San Pietroburgo, Novosibirsk e Kazan. Un altro più recente obiettivo è invece quello di centralizzare il flusso di riprese proveniente da tutte le videocamere dislocate sul territorio russo, in modo da poter monitorare le persone d’interesse a livello non più comunale, ma nazionale (anche con lo scopo di individuare chi cerca di sfuggire all’arruolamento).

Inoltre, Rostec starebbe sviluppando un algoritmo in grado di analizzare riprese video e le informazioni che circolano sui media e sui social network al fine di prevedere la formazione di manifestazioni anti-governative. «Le autorità russe dovrebbero interrompere l’espansione dei loro irresponsbaili e non regolamentati sistemi di riconoscimento facciale», ha dichiarato in un report Hugh Williamson, direttore per l’Europa e l’Asia Centrale di di Human Rights Watch. «Le preoccupazioni legate alla privacy prevalgono sui presunti benefici in termini di sicurezza. C’è inoltre la necessità di proteggere i diritti fondamentali contro gli abusi della tecnologia da parte del Cremlino».

Parole che si scontrano con il totale disinteresse proprio del Cremlino: i dissidenti che in passato hanno provato a rivolgersi alla Corte Europea dei Diritti dell’Uomo devono oggi fare i conti con la decisione della Russia di ritirarsi da questa istituzione, mentre la legge nota con il nome di “Sperimentazioni con l’intelligenza artificiale” permette di utilizzare queste tecnologie senza dover rispettare le normative sui dati personali. I parlamentari dell’opposizione che hanno chiesto maggiori informazioni sul funzionamento, sui database e sull’efficacia di questi sistemi (che hanno già in più occasioni provocato l’arresto di persone che erano state confuse per altre) si sono invece trovati di fronte a un muro di segretezza.

E così, questa opaca rete di controllo basata su algoritmi di intelligenza artificiale continua a restringere il margine di azione di oppositori e dissidenti, sia in rete sia nel mondo fisico. Dando vita a quello che sempre più spesso viene chiamato “gulag digitale”.

© Riproduzione riservata