È documentato che in Myanmar l’incitamento all’odio su Facebook ha avuto un ruolo significativo nella campagna omicida contro la comunità Rohingya.

In modo simile, le piattaforme social hanno contribuito a fomentare la violenza etnica in Etiopia, l’estremismo di destra in Europa, i regimi autoritari e gli strongmen in tutto mondo, dalla Cina all’Ungheria, alle Filippine.

Il Brasile ha imparato a usare le piattaforme social per orientare la propria popolazione contro  le minoranze etniche, la comunità Lgbt, i giornalisti, gli oppositori politici. Ovviamente gli autocrati come Putin hanno usato queste piattaforme come armi strategiche contro i paesi democratici, che considerano una minaccia.

Spargere sporcizia

Persone come Putin e Steve Bannon, del resto, capiscono che non è necessario che le persone credano a queste informazioni per indebolire le istituzioni democratiche. Basta solo riempire la piazza di un paese con abbastanza liquame. Basta sollevare abbastanza domande, spargere abbastanza sporcizia, seminare abbastanza teorie cospirazioniste, che i cittadini non sapranno più a cosa credere.

Una volta persa la fiducia nei loro leader, nei media mainstream, nelle istituzioni politiche, gli uni negli altri, nella possibilità della verità, la partita è vinta. E come Putin ha scoperto nel periodo precedente alle elezioni del 2016, le nostre piattaforme social sono concepite per una missione simile.

I russi sono riusciti a studiare e manipolare i modelli che ordinano l’engagement di Facebook o YouTube. Di conseguenza, i troll del Cremlino sono quasi riusciti a fare in modo che qualunque informazione falsa raggiungesse milioni di persone in America. Più la storia era scandalosa, più rapidamente si diffondeva.

Essere consapevoli

Negli ultimi tempi ho scritto le mie memorie e ho riflettuto sugli eventi che hanno portato a quelle elezioni. Ciò che rimpiango, ciò che potrei essermi perso. Nessuno nella mia amministrazione è rimasto sorpreso dal fatto che la Russia stesse tentando di intromettersi nelle nostre elezioni. Lo facevano da anni. O che stesse usando i social media per questo scopo.

Prima delle elezioni ho chiesto ai nostri più alti ufficiali dell’intelligence di spiegare questi tentativi russi alla stampa e alla gente. Ciò che ancora mi assilla è non aver capito pienamente al tempo quanto fossimo diventati vulnerabili alle menzogne e alle teorie cospirazioniste, pur essendo stato io stesso un obiettivo della disinformazione per anni. 

Non è stato Putin a fare tutto ciò. Non ha avuto bisogno di farlo. Siamo stati noi stessi. Quindi come se ne esce? 

Sono convinto che, se non facciamo qualcosa, le tendenze che vediamo ora peggioreranno. Le nuove tecnologie mettono già alla prova il modo in cui regoliamo la valuta, come salvaguardiamo gli utenti dalle truffe. E con l’avvento dell’intelligenza artificiale la disinformazione sarà sempre più sofisticata. Mi è capitato di assistere a una dimostrazione di falsificazione tecnologica: sullo schermo ho visto quello che apparentemente ero io dire cose che non ho detto. È stata un’esperienza strana.

Senza certi limiti, le implicazioni di queste tecnologie sono profonde e spaventose: per queste elezioni, per il nostro sistema legale, per la nostra democrazia, per il regime probatorio, per il nostro intero ordine sociale.

Responsabilità e controllo

Dobbiamo occuparci di questa massa di informazioni tossiche in circolazione, ma anche della loro domanda. Dal lato dell’offerta, le piattaforme tecnologiche devono capire che hanno un ruolo unico: le loro decisioni hanno un impatto su ogni aspetto della società. A questo potere si accompagna la responsabilità e, almeno in democrazie come la nostra, il bisogno di un controllo democratico.

Per anni le società di social media hanno resistito a questa responsabilità. Non sono le uniche. Ogni azienda privata vuole fare ciò che vuole. Così le piattaforme social si sono definite neutrali rispetto a ciò che i loro utenti vedevano. Hanno insistito sul fatto che il contenuto che le persone vedono sui social non ha impatto sulle loro convinzioni o comportamenti, anche se i loro modelli di business e i loro profitti si basano sul dire ai pubblicitari l’esatto contrario.

La buona notizia è che quasi tutte le piattaforme di big tech ora riconoscono in parte la responsabilità dei contenuti sulle loro piattaforme e stanno investendo in team per monitorarli. Dato l’enorme volume di contenuti, questa strategia può sembrare una rincorsa infinita. Eppure, parlando con le persone di queste aziende, credo che siano sinceri nel cercare di limitare i contenuti che incitano all’odio, incoraggiano la violenza o minacciano la sicurezza pubblica. Sono sinceramente preoccupati e vogliono fare qualcosa al riguardo.

Ma anche se la moderazione può limitare la distribuzione di contenuti chiaramente pericolosi, questa non è sufficiente. Gli utenti che vogliono diffondere disinformazione sono diventati capaci di spingersi al limite di ciò che le politiche aziendali formalmente consentono. E su quei confini le piattaforme di social media tendono a non voler fare nulla, non solo perché non vogliono essere accusate di censura, ma perché hanno un incentivo finanziario a mantenere il maggior numero possibile di utenti.

Ancora più importante, queste aziende sono ancora troppo riservate circa il funzionamento esatto dei loro modelli o su come i loro sistemi di classificazione del coinvolgimento influenzano ciò che diventa virale e cosa no. 

Alcune società hanno fatto un passo oltre nella gestione dei contenuti tossici, sperimentando la progettazione di nuovi prodotti che, per usare un solo esempio, contribuiscono a rallentare un contenuto potenzialmente dannoso. Questo genere di innovazione è un passo nella direzione giusta.

Merita un plauso, ma penso anche che decisioni come questa non dovrebbero essere lasciate solo a interessi privati. Si tratta di decisioni che riguardano tutti noi e, proprio come ogni altro settore che ha un grande impatto nella nostra società, ciò significa che queste grandi piattaforme devono essere soggette a un certo livello di supervisione e regolamentazione pubblica.

Agire sulla domanda

Ora, parliamo del lato dell’equazione che riguarda la domanda.

All’inizio occorre far scoppiare le nostre bolle di informazione. So bene che ci sono tante persone in questo paese che hanno opinioni diametralmente opposte alle mie. Me lo ripetono continuamente e l’ho capito. Non dico che dovremmo passare le giornate a leggere opinioni con cui non siamo d’accordo o a cercare sui media i pezzi di chi fondamentalmente non condivide i nostri valori. Ma la nostra visione può essere ampliata. 

Recentemente è uscito uno studio interessante, ed è uno soltanto, quindi prendiamolo con le pinze. I ricercatori hanno pagato un folto gruppo di fruitori di Fox News perché guardassero la Cnn per quasi un mese. Non si trattava di elettori oscillanti, ma di irriducibili fan di Hannity, Carlson, ok? Proprio loro.

I ricercatori hanno scoperto che alla fine del mese, il punto di vista di queste persone su certe questioni, come se consentire il voto per posta o se l’elezione di Joe Biden avrebbe portato a più violenza nei confronti della polizia, su alcune di queste questioni il loro punto di vista era cambiato di cinque, otto, dieci punti. Queste persone non erano improvvisamente diventate liberali. Sono sicuro di non piacergli ancora. Avevano però ripensato le loro posizioni più marginali in modi significativi. 

Studi come questo mostrano che le nostre opinioni non sono fisse e questo significa che non lo sono nemmeno le nostre divisioni, anche se possiamo convenire su alcuni effetti di una linea comune su come discutiamo e risolviamo i nostri disaccordi. 

Le divisioni che esistono in questo paese non scompariranno presto, ma le informazioni che otteniamo, le storie che raccontiamo a noi stessi, come disse Lincoln, possono incoraggiare gli angeli migliori della nostra natura. Possono però muovere anche i peggiori.

Sforzo comune

Paesi come la Cina e la Russia hanno già tentato di dipingere la democrazia come un sistema che non funziona e l’autoritarismo come l’unica via per l’ordine. La Cina ha costruito un grande firewall attorno a internet, trasformandolo in un veicolo per l’indottrinamento e la sorveglianza interni. Ora stanno esportando alcune di quelle stesse tecnologie, le stesse, con prodotti di progettazione simile, in altri paesi.

In Russia Putin ha armato l’etnonazionalismo per mezzo della disinformazione, intraprendendo campagne d’odio contro gli oppositori interni, delegittimando la democrazia stessa. E naturalmente, ha intensificato questo genere di sforzi come parte della sua guerra in Ucraina. 

In quanto prima democrazia mondiale, dobbiamo dare un esempio migliore. Dovremmo guidare queste discussioni a livello internazionale, non nelle retrovie. Oggi l’Europa sta mettendo a punto alcune leggi molto radicali che più si avvicinano a regolamentare gli abusi che vediamo nella società di big tech. Il loro approccio potrebbe non essere quello giusto per gli Stati Uniti, ma parla di un bisogno di coordinamento tra le altre democrazie.

Ognuno di noi, sia che si lavori in un’azienda tecnologica sia che si utilizzino i social media, sia che sia un genitore, un legislatore, un inserzionista su una di queste piattaforme, è adesso chiamato a scegliere da che parte stare.

Proprio ora siamo di fronte a una scelta. Vogliamo lasciare che la nostra democrazia si indebolisca o vogliamo renderla migliore? Questa è la scelta che dobbiamo fare ed è una scelta che vale la pena abbracciare.

Da che parte stare

E ora, in Russia, chi controlla l’informazione ha spinto l’opinione pubblica sempre più in là, sempre più lontano dai fatti, fino a che, all’improvviso, quasi un quarto della potenza di combattimento del paese è stato danneggiato o distrutto in ciò che il governo afferma essere, cito, «un’operazione militare speciale». Questo è ciò che accade quando le società perdono traccia di cosa è vero.

D’altra parte, gli ultimi due mesi hanno anche mostrato cosa può succedere quando il mondo rifiuta questa modalità. Lo abbiamo visto nelle persone che si organizzano sui social media per aiutare i rifugiati ucraini, offrendo cibo, una casa, lavoro, trasporti. Lo abbiamo visto in un esercito informatico di volontari che lavorano per sfondare la propaganda russa e raggiungere le madri dei soldati russi perché chiedano a Putin che riporti a casa i loro figli. E lo abbiamo visto nella combinazione di media vecchi e nuovi, come l’immagine virale di una giornalista della televisione russa che appare in diretta con un cartellone scritto a mano in cui chiede la fine della guerra.

Il cartellone scritto a mano è stato uno strumento. La tv è uno strumento. Internet è uno strumento. I social media sono uno strumento. In fondo non sono gli strumenti a controllarci. Li controlliamo noi e possiamo riprogrammarli.

Sta a ciascuno di noi decidere a cosa dare valore e quindi utilizzare gli strumenti che abbiamo a disposizione per promuovere quei valori. E credo che dovremmo usare ogni strumento che abbiamo per mettere al sicuro il nostro dono più grande: un governo fatto di persone, che sta accanto a loro, che è per loro, per le generazioni a venire.

Spero che siate d’accordo con me e non vedo l’ora prendiate parte anche voi a questo lavoro.

Traduzione a cura di Monica Fava

© Riproduzione riservata