Potrei dirvi che Donald Trump è uno str*nzo», afferma Barack Obama in un video visto su YouTube da oltre 8 milioni di persone. Eppure, l’ex presidente degli Stati Uniti non ha mai pronunciato quelle parole. Assieme a Vladimir Putin, Mark Zuckerberg e perfino Matteo Renzi, Obama (il cui video è stato però creato a scopi educativi) è infatti una delle vittime più note del deepfake: la tecnologia che sfrutta l’intelligenza artificiale per sovrapporre, nelle foto o nei video, il volto di una persona al corpo di un’altra, ricreandone anche la voce e sincronizzando il labiale. Uno strumento di cui negli ultimi anni si è parlato soprattutto per il timore che desse vita a una nuova forma di fake news, in cui affermazioni di ogni tipo potevano essere messe in bocca a personalità del mondo politico o economico.

Lo scambio dei volti

Eppure i deepfake hanno un’origine molto diversa e le vittime principali di questa tecnologia non sono certo i politici. È il dicembre 2017 quando la giornalista statunitense Samantha Cole scopre che un utente di Reddit – nascosto proprio dietro lo pseudonimo “deepfakes” – ha progettato e reso disponibile a tutti i frequentatori del sito un algoritmo di intelligenza artificiale specializzato in quello che in gergo si chiama face swapping (scambio dei volti), e che viene utilizzato su Reddit quasi esclusivamente per sostituire il volto di attrici di film porno con quello di celebrità del mondo dello spettacolo. Il rischio che si cela dietro uno strumento di questo tipo viene subito individuato dalla reporter: chiunque potrebbe trasformare una qualunque persona nella protagonista di un video porno, basta possedere un numero di fotografie sufficienti ad addestrare l’algoritmo di intelligenza artificiale.

Ci aveva visto giusto: le vittime di questa tecnologia sono oggi principalmente persone comuni, nella quasi totalità dei casi donne, che si ritrovano contro la loro volontà protagoniste di filmati porno manomessi e disseminati in rete. Secondo uno studio compiuto dalla società di ricerca Sensity AI, tra il 90 e il 95 per cento dei video deepfake scovati su internet dal dicembre 2018 a oggi rientrano nella categoria del porno non consensuale. Di questi, nel 90 per cento dei casi la vittima è una donna.

Revenge porn

Ad alzare il velo su questa forma ancora più subdola di revenge porn – la diffusione online di foto sessualmente esplicite senza il consenso della persona ritratta – è recentemente stata la poetessa e conduttrice britannica Helen Mort, che ha raccontato alla Bbc e ad altre testate come pochi mesi fa abbia casualmente scoperto in rete la presenza di immagini pornografiche manomesse, assolutamente verosimili, realizzate a partire da alcune sue normalissime fotografie, pubblicate da lei stessa sui social network tra il 2017 e il 2019.

Dopo aver compiuto qualche ricerca e scoperto dell’esistenza della tecnologia dei deepfake, Helen Mort ha chiamato la polizia per denunciare l’accaduto, sentendosi però rispondere dagli agenti che non avrebbero potuto farci niente. Nonostante il revenge porn sia ormai un reato in moltissimi paesi (compresa l’Italia), a oggi nessuna nazione si è dotata di strumenti legislativi per impedire la manomissione non consensuale di fotografie prive di diritto d’autore.

Un vuoto legislativo che ha permesso all’autore delle finte immagini pornografiche con protagonista Helen Mort di sfuggire a qualsiasi indagine e quindi di non venire mai identificato. E che soprattutto ha favorito la moltiplicazione dei software per la creazione di deepfake, facilmente reperibili online e scaricabili anche sotto forma di applicazioni per smartphone. Sempre secondo le ricerche di Sensity AI, per esempio, circa 100mila persone, incluse ragazze minorenni, sono state vittime del bot di Telegram noto come DeepNude.

A differenza delle immagini photoshoppate che circolano in rete fin dagli albori del web, le immagini e i video creati con deepfake non solo sono difficilmente riconoscibili in quanto falsi, ma possono essere creati anche da chi non possiede nemmeno una rudimentale competenza informatica. Basta un click sul software giusto per disseminare su internet immagini che, inevitabilmente, continueranno ciclicamente a riemergere e a perseguitare le vittime.

Identificare i colpevoli

Ma l’utilizzo di immagini scaricate anche dai social network e inserite in software di intelligenza artificiale usati con colpevole leggerezza non è solo all’origine dei deepfake. Un meccanismo simile è infatti anche la causa dell’arresto e della temporanea detenzione, negli ultimi 12 mesi, di almeno tre cittadini statunitensi innocenti. In questo caso, però, il porno non c’entra e la responsabilità non è degli utenti di Reddit o di Telegram, ma di agenti delle forze dell’ordine delle città di Detroit e dello stato del New Jersey e di uno strumento per la sorveglianza noto come riconoscimento facciale: un algoritmo che confronta le persone riprese da una videocamera di sicurezza con un database di foto personali, allo scopo di identificare un sospetto.

Come ha più volte dimostrato l’American Civil Liberties Union, questa identificazione è però tutt’altro che accurata. In un noto studio della ACLU del 2018, il software di riconoscimento facciale Rekognition, di proprietà di Amazon e venduto per lungo tempo alle polizie di tutto il mondo, ha per esempio scambiato per comuni criminali 28 rappresentanti del Congresso statunitense. Una ricerca commissionata dal NIST, agenzia governativa statunitense specializzata in tecnologia, ha invece mostrato come il software di riconoscimento facciale della società Rank One Computing fosse da 10 a 100 volte meno accurato quando doveva riconoscere volti di persone afroamericane o asiatiche rispetto ai volti di persone bianche.

Il razzismo degli algoritmi

Non è quindi un caso se, nel corso del 2020, le tre persone erroneamente arrestate negli Stati Uniti a causa di uno sbaglio del software di riconoscimento facciale – Robert Williams, Michael Olivier e Nijeer Parks – fossero tutte di colore. Una gravissima anomalia che ha portato la deputata statunitense Alexandria Ocasio-Cortez a denunciare il «razzismo degli algoritmi», causato con tutta probabilità dal fatto che per l’addestramento di questi sistemi vengono usate immagini stock – scaricate dagli archivi delle agenzie fotografiche – composte in larghissima parte da uomini bianchi. Il risultato è che, inevitabilmente, gli strumenti di riconoscimento facciale sono accurati quando si tratta di riconoscere uomini bianchi, meno accurati quando si tratta di uomini di etnie diverse e per niente accurati quando le persone da riconoscere sono, per esempio, donne nere.

È anche per questa ragione che in città come San Francisco od Oakland le tecnologie di riconoscimento facciale sono state messe al bando, e che colossi come Ibm, Microsoft o Amazon hanno sospeso la vendita dei loro software alle forze dell’ordine. Allo stesso tempo, però, società meno note e dai nomi come Vigilant Solutions, Cognitec, Rank One Computing e Clearview AI continuano a fornire i servizi di facial recognition che si stanno nel frattempo diffondendo in Europa e anche in Italia.

Dalle videocamere dotate di riconoscimento facciale installate nel parco di Como (e di prossima installazione anche a Firenze) alla sorveglianza eseguita per strada dalle forze dell’ordine londinesi, fino in Francia, dove il riconoscimento facciale è stato usato nelle scuole superiori e anche per identificare i manifestanti: questi casi, riportati dall’organizzazione italiana Hermes Center, fanno temere non solo che si usino con superficialità strumenti che penalizzano proprio le fasce della popolazione già discriminate, ma anche che la cittadinanza venga sottoposta a sorveglianza di massa senza nemmeno avere voce in capitolo.

I deepfake e il riconoscimento facciale mostrano quindi quali siano i rischi concreti posti oggi dall’intelligenza artificiale e quali siano i temi a cui la politica e la società civile dovrebbero prestare più attenzione. Da questo punto di vista, però, qualcosa si muove: nel Regno Unito e negli Stati Uniti, per esempio, sono state depositate nuove proposte di legge, o emendamenti a leggi già esistenti, allo scopo di ampliare il reato di revenge porn anche alle immagini manomesse tramite sistemi di deepfake o simili.

Per quanto invece riguarda il riconoscimento facciale, il 17 febbraio la coalizione Reclaim Your Face – sostenuta dall’Hermes Center con il supporto dell’Associazione Luca Coscioni, di Privacy Network e altre realtà – ha lanciato un’iniziativa che mira a raccogliere un milione di firme in sette paesi Ue nel corso dei prossimi 12 mesi, con lo scopo di «vietare l’uso di algoritmi di intelligenza artificiale che possono arrecare danni alla cittadinanza, come la sorveglianza biometrica di massa». Una raccolta firme organizzata all’interno del programma Eci (Iniziativa cittadini europei) dell’Unione europea e che quindi, se avrà successo, obbligherà la Commissione europea ad aprire un dibattito sul tema con gli stati membri del parlamento europeo.

© Riproduzione riservata