«Vi chiedo di deporre le armi e di tornare dalle vostre famiglie. Non vale la pena di morire in questa guerra. Il mio consiglio per voi è di continuare a vivere. Io farò lo stesso». Sono le parole pronunciate in un video, pubblicato il 16 marzo, in cui compare il presidente ucraino Volodymyr Zelensky, che si rivolge ai suoi connazionali da dietro un podio e indossando l’ormai iconica maglietta verde militare.

Nelle stesse ore, anche dalla bocca di Vladimir Putin – seduto al suo tavolo in giacca e cravatta – uscivano parole simili: «Siamo riusciti a raggiungere la pace con l’Ucraina. Voglio anche annunciare il ripristino dell’indipendenza della Crimea come repubblica interna all’Ucraina», ha affermato il presidente russo in un video pubblicato su Twitter.

Nulla di tutto ciò era vero: i due presidenti sono stati protagonisti di video manipolati. Per la precisione, si tratta di due deepfake: la tecnologia basata su deep learning (gli algoritmi ormai sinonimo di intelligenza artificiale) che permette di ricreare digitalmente le sembianze e la voce di qualunque persona, sincronizzando anche il labiale e riuscire così a far dire a chiunque tutto ciò che si vuole.

Falsi e innaturali

In entrambe le situazioni, a causa della scarsa qualità, il fatto che si trattasse di video falsificati è sùbito venuto a galla e i due deepfake non hanno avuto nessuna conseguenza. In particolare, il filmato con protagonista Zelensky è immediatamente riconoscibile come falso: la testa sembra appiccicata sul corpo, il livello di definizione è molto basso, i movimenti sono innaturali e anche la voce non è del tutto somigliante.

Eppure, anche un video di fattura così grezza è riuscito a creare qualche scompiglio, diffondendosi su Vk (il Facebook russo) e su Telegram al punto che Zelensky ha ritenuto necessario denunciare attraverso i suoi canali questa “provocazione infantile”. Non solo: una trascrizione del video è stata brevemente mostrata nelle scritte in sovraimpressione della rete televisiva Ukrayna 24, mentre sul sito web della stessa rete è comparso qualche fotogramma del deepfake. È stato lo stesso canale tv a spiegare su Facebook di aver subìto un attacco hacker, che ha anche reso inaccessibile il sito web per parecchie ore.

Il deepfake di Zelensky è stato pubblicato anche su Twitter, Facebook e YouTube, ma le piattaforme ci hanno messo poco a individuarlo e rimuoverlo perché in violazione delle loro norme sui “video manipolati e fuorvianti” (mentre sono consentiti i deepfake che indicano la falsità del contenuto in questione). «Il video era di qualità così grezza da poter essere riconosciuto come falso anche da spettatori disattenti; questo ha permesso alle piattaforme di vantare un facile successo», ha spiegato alla Bbc Nina Schick, autrice di un saggio sui deepfake. «Ma anche se questo video era fatto veramente male, in futuro non sarà più così».

Una questione di dati

A sorprendere, in effetti, non è tanto il fatto che durante una guerra si sia sperimentato (per quanto in maniera grossolana) l’uso dei deepfake a scopi di propaganda, ma che, fino a oggi, questo strumento sia stato impiegato così raramente in campo politico e con risultati così scarsi. Non si tratta infatti di una tecnologia nuova. La prima diffusione dei deepfake si deve a un utente di Reddit – noto non a caso come Deepfakes – che attorno al dicembre 2017 iniziò a diffondere sulla piattaforma filmati porno in cui le protagoniste femminili avevano il volto di alcune star di Hollywood.

A farne le spese fu soprattutto Gal Gadot, l’attrice diventata famosa grazie a Wonder Woman e che suo malgrado divenne la diva prescelta per la prima invasione di questi video manipolati su Reddit. Non è stata l’unica vittima: Jessica Alba, Taylor Swift, Daisy Ridley e un numero imprecisato di celebrità iniziò a ritrovarsi, a loro insaputa, vittima di deepfake dalla qualità tecnica peraltro superiore a quello con protagonista Zelensky.

È tutta una questione di risorse: con una quantità sufficiente di dati (immagini e video della persona che si vuole riprodurre) e di potere computazionale, è possibile già oggi creare deepfake praticamente indistinguibili dalla realtà. Il caso più noto ha come protagonista Barack Obama, che in un ormai celebre video manipolato del 2019 – creato a scopo informativo da BuzzFeed in collaborazione con il regista Jordan Peele – insulta Donald Trump e spiega come «si stia entrando in un’epoca in cui i nostri nemici possono farci dire quello che vogliono in qualunque momento».

Manipolazioni

Creare un video come quello di Obama – e altri ancora più impressionanti, tra cui il recente deepfake con protagonista Tom Cruise – richiede però ingenti risorse, notevoli capacità tecniche e giorni, se non settimane, di lavoro. Non sempre, però, è necessario creare filmati particolarmente accurati per confondere la popolazione: ne è una dimostrazione tutta italiana il deepfake mostrato a Striscia la Notizia nel settembre 2019 con protagonista Matteo Renzi.

Nel video, Renzi afferma che «Conte c’ha la faccia da cretino», «Zingaretti ha il carisma di Bombolo» e poi rivolge delle pernacchie a Mattarella. Nonostante la scarsa qualità del video, il fatto che questo deepfake fosse stato mandato in onda senza spiegare esattamente che cosa si stesse mostrando ha fatto sì che – per ammissione dello stesso programma televisivo – molti spettatori lo abbiano scambiato per vero.

Nel corso degli anni, i deepfake di personaggi politici non sono però stati creati solo a scopo informativo o satirico. Come segnala la Brookings Institution, «un sospetto deepfake potrebbe già aver giocato un ruolo nel fallito colpo di stato in Gabon del 2019 e anche in un tentativo di gettare discredito sul ministro dell’Economia malesiano per costringerlo alle dimissioni». In occidente, era invece ampiamente circolato il video manomesso (anche se non esattamente un deepfake) in cui un discorso della speaker della Camera statunitense Nancy Pelosi era stato rallentato fino a farla sembrare ubriaca.

Che i deepfake facessero comparsa anche durante la guerra tra Russia e Ucraina, insomma, era prevedibile. Al punto che lo stesso ministero della Difesa ucraino, già il 2 marzo, aveva messo in guardia la cittadinanza pubblicando su YouTube un video informativo sui deepfake, dove compaiono tra l’altro dei falsi Joe Biden e Boris Johnson.

Dubitare di tutto

Siamo solo agli inizi. Nonostante lo scarso successo del finto video di Zelensky, creare deepfake verosimili sta diventando sempre più facile. Non solo perché, inevitabilmente, il potere computazionale e il lavoro necessario all’addestramento dell’intelligenza artificiale tendono col tempo a ridursi, ma anche perché in rete è ormai semplicissimo trovare applicazioni – come Zao o Wombo – che permettono a chiunque, senza bisogno di alcuna competenza, di creare deepfake la cui qualità migliora ogni mese che passa.

«Al momento, i sistemi di rilevamento sono ancora abbastanza efficaci», ha spiegato sempre alla Brookings Institution il docente di scienze informatiche Subbarao Kambhampati. «Sul lungo termine, però, credo che diventerà impossibile distinguere tra contenuti reali e contenuti fasulli». E questo nonostante a lavorare a sistemi di rilevamento sempre più avanzati siano colossi come Facebook o addirittura la Darpa (l’agenzia statunitense per la ricerca militare avanzata).

Da una parte, si prospetta quindi la classica rincorsa in cui sistemi di rilevamento di ultima generazione vengono sconfitti da deepfake sempre più accurati; dall’altra, gli inevitabili errori dei software possono generare ulteriore confusione. Come racconta la Bbc, «la scorsa estate, un rilevatore online di deepfake aveva indicato, sbagliando, che il video in cui un politico del Myanmar confessava il suo caso di corruzione fosse un deepfake».

Il rischio che il caos informativo aumenti ulteriormente è elevato. Come si comporteranno i cittadini ucraini al prossimo video in cui Zelensky dirà qualcosa di inaspettato? E come potremo impedire che chi viene ripreso a dire o fare qualcosa di imbarazzante neghi tutto, accusando gli avversari di aver creato un deepfake? È forse questo, soprattutto guardando al futuro, il pericolo maggiore posto dai deepfake: che confondano ulteriormente le acque e gettino un’ombra su ogni contenuto pubblicato, portandoci così a dubitare di tutto. A non poter credere più a nulla.

© Riproduzione riservata