Il blocco dell’account del presidente Donald Trump ci pone di fronte ad una questione fondamentale per la nostra democrazia che riguarda la regolazione delle grandi piattaforme digitali e il loro impatto sulle regole democratiche, sulle forme di relazione fra stato e cittadini e sul rispetto dei diritti fondamentali. 

La questione va ben oltre il fatto in sé, motivato da una situazione di forte eccezionalità e con una forte valenza politica, visto che stiamo parlando di un assalto armato al Senato degli Stati Uniti e dell’account del Presidente degli Stati Uniti, in procinto di essere rimosso.

È da tempo che i social media sono accusati di polarizzare l'opinione politica, normalizzare l'estremismo e mobilitare proteste violente. Le motivazioni date da Twitter per aver rimosso permanentemente l’account con i suoi 88milioni di follower, che ha agito sotto pressione di una petizione di centinaia di suoi dipendenti, sono chiare: secondo il «rischio di ulteriore incitamento alla violenza»… in quanto «i piani per le future proteste armate hanno già iniziato a proliferare su e fuori Twitter, compreso un secondo attacco proposto al Campidoglio degli Stati Uniti il 17 gennaio 2021».

Anche Facebook ha preso le stesse misure, privando il presidente del suo account. Anche Youtube, TikTok, Pinterest e SnapChat hanno introdotto delle restrizioni. Nel frattempo, Apple, Google e Amazon hanno adottato misure per reprimere Parler, il social di nicchia utilizzato da molti dei più ferventi sostenitori dell’ultra destra di Trump.

Troppo o troppo tardi?

Molti critici del presidente Trump hanno applaudito l’azione dei giganti di Internet, ma tanti altri hanno sostenuto che le piattaforme sono arrivate in ritardo di quattro anni dato che Trump ha continuamente infranto le regole degli utenti durante la sua presidenza, usando i social come arma. Quindi le piattaforme agiscono nel loro interesse e cercano di evitare le critiche dai Democratici americani e dunque possibili  azioni regolatorie, da parte della nuova amministrazione Biden.

Come hanno sottolineato  la cancelliera Angela Merkel e David Kaye, Special Rapporteur dell’Onu sulla libertà di espressione, il caso Trump potrebbe diventare un precedente pericoloso per quanto riguarda la protezione della libertà di espressione. La libertà d’espressione è un diritto fondamentale alla base della costituzione Americana, ai sensi del primo emendamento mento, che include anche l’istigazione alla violenza, in quanto si valuta che le parole possano incendiare azioni concrete, come avvenuto nel caso dell’insurrezione di Capitol Hill. Quindi era legittimo che le piattaforme segnalassero i contenuti illeciti o offensivi, ma spingersi fino alla rimozione dell’account? Chi ha l’autorità per farlo?

Nelle ore successive al “ban”, Twitter ha bloccato centinaia di altri account connessi con l’insurrezione di Capitol Hill, ma ci sono stati anche altri casi clamorosi che stanno facendo discutere, uno fra tutti il ban di un sito Science Hub, estremamente popolare fra scienziati e accademici in tutto il mondo che ha un processo in corso con Elsevir per la pubblicazione di materiale coperto da copyright. 

Europa e America 

Sulla questione della libertà di espressione, vari giuristi hanno in queste ore sottolineato la differenza tra le due visioni costituzionali, quella americana e quella europea: negli Stati Uniti la libertà è il valore principale dell’ordinamento, mentre il costituzionalismo europeo si basa piuttosto sulla tutela della dignità e la libertà di espressione è alla pari degli altri diritti fondamentali. Questo è alla base della differenza dei due modelli sulla regolazione delle piattaforme: da una parte libertà e autoregolazione, dall’altra co-regolamentazione che passa per l’azione del legislatore.

La seconda questione fondamentale è quindi chi deve regolare queste piattaforme. L’Europa è chiara: la regolamentazione digitale non deve essere fatta dalla stessa oligarchia digitale. È una questione che spetta al popolo sovrano, ai governi e alla magistratura.

L’Europa (con il Digital Service Act e il Digital Market Act presentati nelle scorse settimane) e la Germania (con la legge sull'incitamento all'odio online entrata in vigore nel 2018), rivendicano una leadership nell'adozione di leggi e regolamenti che limitano fenomeni come l’incitamento all’odio e attacchi razzisti online, istigazione alla violenza, fake news e altri contenuti illegali –  dalla pornografia infantile ai contenuti terroristici, alla diffamazione  – piuttosto che dare carta bianca agli amministratori delegati delle Big Tech. 

L'Ue propone dunque un modello in cui le autorità pubbliche e il legislatore hanno maggiori poteri per costringere le piattaforme digitali a rimuovere i contenuti illegali, proteggendo così i diritti di cittadini e utenti. 

Quali regole

Come regolare dunque le piattaforme? In queste ore ci sono vari appelli per domare l'influenza delle piattaforme, e stanno aumentando le pressioni per revocare la Section 230 del Communications Decency Act del 1996, che dà alle società di Internet l'immunità totale per i contenuti generati dagli utenti pubblicati sui loro siti. Il presidente eletto Joe Biden ha già dichiarato il suo sostegno a tale mossa. Anche il commissario europeo per il Mercato interno Thierry Breton si è espresso su questa linea.

Ma tale decisione darebbe alle piattaforme responsabilità sui contenuti come fossero degli editori e molti attivisti che difendono la neutralità della rete e la libertà degli utenti osservano che il ruolo delle piattaforme dovrebbe invece rimanere quello di gestori (neutrali) dell’infrastruttura, come le reti delle compagnie telefoniche.

I fatti di questi giorni rendono sempre più urgente  il dibattito sulla necessità di mettere in campo una visione più democratica della società digitale, in cui l'accesso alla rete sia un diritto fondamentale dei cittadini, in cui ci sia libertà, controllo dei dati, trasparenza algoritmica e sovranità digitale delle persone, limitando cosi in  gli abusi di potere delle piattaforme private, e allo stesso tempo mantenendo aperti spazi di espressione per i cittadini e di libera concorrenza per le altre imprese.

Probabilmente la realizzazione di questa visione è possibile soltanto seguendo il modello europeo di co-regolazione, attraverso l'azione democratica: non possiamo permetterci un’autoregolazione lasciata all’oligarchia digitale.

È quindi urgente definire come regolare questi potenti “gatekeepers”, guardiani di una società sempre più digitale, che acquistano un potere sociale e di mercato e una responsabilità sempre più grande, dato il loro impatto crescente su democrazia, economia e sui rapporti sociali.

Questo implica, oltre alla necessità di preservare i diritti fondamentali e di tutelare la democrazia, anche un ambizioso programma politico che include temi cruciali come la necessità di limitare il potere di mercato e gli abusi di posizione dominante attraverso una rinvigorita normativa antitrust, la tassazione digitale per distribuire il valore creato ed estratto dalla digitalizzazione, la tutela dei diritti dei lavoratori delle piattaforme e un nuovo patto sociale che riguarda l’uso, l’accesso e la sovranità sui dati.

Queste sono alcune delle questioni politiche più importanti del nostro futuro, e l’Europa dovrebbe avere la forza per concorrere a determinarne le regole concordate democraticamente.

© Riproduzione riservata