Era appena il 26 maggio 2020 quando Twitter segnalava per la prima volta ai propri utenti che due tweet di Donald Trump sul voto per corrispondenza erano fuorvianti e falsi, invitando gli utenti a un fact-checking su fonti autorevoli come Cnn e Washington Post; tre giorni dopo sarebbe stata la volta di un’altra segnalazione per un tweet presidenziale che inneggiava alla violenza dopo i disordini scatenati dalla brutale uccisione di George Floyd.

Nihil sub sole novum? Le tensioni legate alla neutralità delle piattaforme social non rappresentano un problema nuovo, ma la scarica elettrica che le ha attraversate nel corso degli ultimi giorni non ha precedenti. Appare chiaro che la perimetrazione della pubblica arena digitale attraverso l’esclusione dei soggetti indesiderati, quelli che nei dispacci diplomatici si definiscono persone non grate, appare insostenibile su larga scala.

Cosa ne sarà dei sempre più numerosi, e più o meno nocivi, altri gruppi estremisti? Dai No-Covid ai Terrapiattisti, passando per i redivivi No-vax, essi sono numerosi quanto i possibili parametri per escluderli. Dove porre l’asticella? Sulla prevenzione dei reati violenti? Sulla tutela della salute pubblica? Ricerche empiriche ci mostrano, inoltre, che la rimozione di post e profili hanno il solo effetto di polarizzare ancor di più l’opinione pubblica.

Soprattutto: chi controlla i controllori? Se, come da più parti invocato, la risposta non consiste nel restringere il campo, ma nell’allargare il recinto del free market of ideas, la soluzione non appare all’orizzonte, dal momento che le aziende del mondo digitale godono di posizioni di robusto monopolio.

Inoltre, questi recinti sono contenuti in altri, che riguardano i protocolli tecnici, e questi in altri ancora, che concernono le infrastrutture della rete. Quando, dopo il blocco, Trump ha provato a postare nuovamente su Parler, popolare social dell’estrema destra, Apple e Google hanno subito escluso la possibilità di scaricare la relativa app e Amazon ha sospeso il social network dai suoi server.

La società delle piattaforme

Di fatto siamo di fronte a piattaforme private che «stanno progressivamente infiltrando (e convergendo con) le istituzioni (offline, tradizionali) e le pratiche che strutturano sul piano organizzativo le società democratiche» – come scrivono Van Dijck, Poell e de Waal in Platform Society (2019). Piattaforme che incarnano la nuova sfera pubblica ma che rispondono innanzitutto a logiche private, di profitto.

La scelta di mostrarsi “neutrali” fino a tempi recenti – ma sappiamo bene che le piattaforme non sono mai neutrali, anzi portano iscritti nel linguaggio muto e opaco del codice i valori dei progettisti – era una scelta di business. Ma, sia che lascino circolare liberamente disinformazione e discorsi d’odio, sia che decidano di moderare e rimuovere i contenuti estremisti, in gioco c’è la credibilità (secondo alcuni la sopravvivenza) delle istituzioni democratiche.

Come intervenire? È ancora sostenibile farsi scudo dietro la (mancata) educazione digitale dei cittadini, estendendo allo spazio pubblico le logiche neo-liberiste dell’iper-responsabilizzazione individuale? E se l’autoregolamentazione non fosse sufficiente, è possibile disciplinare i social come gli altri media oppure occorrono misure ad hoc? In entrambi i casi: chi avrà il potere di deciderlo, un singolo stato oppure una governance ibrida interna/internazionale, pubblica/privata? Quali saranno gli attori rilevanti?

La rete delle reti

Di tutti questi problemi si occupa “Funzioni pubbliche / poteri privati”, un progetto di ricerca dell’Ateneo Cattolica che studia, da una prospettiva multidisciplinare, l’impatto degli algoritmi in ambito giuridico, politico e sanitario. I problemi, tutt’altro che semplici, vanno posti nella giusta prospettiva per evitare di scivolare in illusorie strategie risolutive.

Internet è una sorta di “rete delle reti” (l’espressione corretta è Intern-Net-Working), nata e prosperata in un contesto del tutto privo di controllo pubblici e internazionali. Non esiste alcun trattato generale che ne disciplini gli aspetti giuridici dal punto di vista strutturale e le norme internazionali che trovano applicazione – le sole in grado di avere una portata globale – sono per lo più quelle relative alla protezione dei dati (come il regolamento dell’Ue, che tuttavia riguarda solo uno degli aspetti del problema). Difficile immaginare, in un quadro simile, soluzioni prêt-à-porter.

In tale contesto il problema non è se l’algoritmo possa governare meglio certi processi. Certamente può farlo: se un’automobile senza conducente può districarsi tra i mille ostacoli di un ingorgo, come non immaginare un algoritmo che calcoli il pericolo di recidiva di un detenuto (esiste!), uno che riconosca da un colpo di tosse una patologia insorgente (esiste!), o uno che stabilisca cosa si possa o non si possa dire su una piattaforma social (esiste!... anche se la moderazione automatica dei contenuti ha in molti casi fallito).

La questione attuale della governance del mondo digitale risiede proprio nell’assenza di quel sistema di pesi e contrappesi stratificato nei secoli. In una prospettiva ottimistica è solo un problema di assestamento evolutivo; in una pessimistica è l’anticamera a nuove, nefaste, concentrazioni incontrollate di poteri.

Il 2 dicembre 2015 (nel meta-verso digitale: un secolo fa), l’Fbi richiese alla Apple di accedere ai contenuti di un iPhone trovato in possesso di un attentatore deceduto nell’attacco terroristico a San Bernardino, California. La ragione era semplice: l’iPhone del terrorista – il modello 5 – era il primo della serie a non essere dotato di una backdoor, ovvero di un software per aggirare la protezione dei dati garantita dal dispositivo.

Le informazioni contenute (messaggi, tracciamenti, ecc.) attenevano però a questioni relative alla sicurezza nazionale e l’Fbi riteneva di averne diritto di accesso. La lettera di diniego dell’azienda di Cupertino potrebbe figurare come introduzione per ogni studio futuro sulla sovranità: secondo Apple il governo Usa aveva richiesto qualcosa «troppo pericoloso da creare» che «nelle mani sbagliate» avrebbe determinato una concentrazione di potere eccessiva, dal momento che non si sarebbe potuto verificare se le autorità ne avrebbero fatto un uso circoscritto al caso.

Una concentrazione di potere eccessiva che nelle mani sbagliate sarebbe stata un pericolo troppo grande. Peccato che nel contesto il significato fosse rovesciato: non si sarebbe potuto dire meglio.

© Riproduzione riservata