Elon Musk ha raggiunto un accordo per l’acquisizione di Twitter, la società di social networking che domina il dibattito politico e culturale dell’élite.

Non so quale sia il suo obiettivo finale e questo, a mio avviso, non importa molto. Non sarà una nuova proprietà ad affrontare il problema di fondo. Si tratta di un problema semplice. Il modello di business di Twitter al momento fa del male a noi, e la censura, per quanto reale, non è l’unico, e forse nemmeno il più significativo, dei problemi.

Lo stesso vale per Facebook, YouTube, TikTok e tutti i social media. Questi modelli creano dipendenza, ci mandano in depressione, ci fanno odiare gli uni gli altri e fanno a pezzi le società favorendo lo scontro etnico.

Troppe poche responsabilità

Foto AP

La causa prima, come al solito, è lo schema normativo utilizzato nell’organizzazione dei modelli internet, uno schema normativo che facilita, anziché prevenire, i conflitti di interesse. Twitter è una rete di comunicazione che vende annunci pubblicitari e che quindi ha un incentivo a manipolare ciò che ci diciamo l’un l’altro per far sì che continuiamo a utilizzare lo strumento e vendere annunci.

Ma anche se Twitter struttura il discorso, non è responsabile del discorso che struttura. E lo stesso vale per Facebook, Google, Grindr, TiKTok, ecc.

Questo modello non funziona allo stesso modo in cui funzionano le reti telefoniche, cioè che si paga direttamente il fornitore del servizio e al fornitore non importa chi si chiama o cosa viene detto, non cerca di manipolare i suoi clienti. Non c’è conflitto perché le reti telefoniche non vendono pubblicità, ma un servizio pubblico. Di conseguenza non sono responsabili di ciò che si dicono i loro clienti.

Le piattaforme tecnologiche dovrebbero essere responsabili di ciò che gli utenti dicono sulle loro piattaforme? Ovviamente. Partiamo dall’idea sciocca che il primo emendamento non ha limiti.

Diffamazione, responsabilità del prodotto, molestie, infliggere stress emotivi intenzionalmente, e altri, sono tutti illeciti del diritto civile pensati per consentire l’utilizzo del sistema giudiziario per bloccare il discorso violento.

Le norme del diritto civile e quelle di rendicontazione del credito, persino cose come le leggi contro l’insider trading, sono anch’esse modalità per strutturare il discorso per permetterci di avere una società coerente. Ma queste limitazioni funzionano perché sono pubbliche, ovvero richiedono di passare per tribunali e di far fronte a un carico oneroso prima di limitare ciò che qualcun altro può dire.

Per centinaia di anni le corti hanno sviluppato queste regole sulla base delle nuove norme sociali e delle nuove tecnologie, così che potessimo fare cose come impedire alle persone di duellare per proteggere la propria reputazione.

I casi giudiziari hanno fornito i dati che hanno mostrato dove tracciare e ridisegnare le linee. Attraverso le legislature abbiamo strutturato anche le regole dei media e costruito cose come l’ufficio postale per assicurarci di avere libertà d’espressione, ma all’interno di comunità localizzate (attraverso cose come i giornali locali e le stazioni radio locali).

Si può dire ciò che si vuole, ma non si possono evitare le conseguenze. Ci sono stati tanti problemi con questo modello, ma fondamentalmente ha funzionato per mantenere un coerente sistema democratico.

Immunità

Foto AP

Il problema è che nel 1996 è passata una legge chiamata Sezione 230 del Communications Decency Act, che ha reso i proprietari di siti web immuni da ciò che gli utenti dicono sulle loro piattaforme. La Sezione 230 è la pietra angolare giuridica delle piattaforme digitali.

C’è anche un libro che s’intitola Le ventisei parole che hanno creato internet perché la sezione chiave è lunga soltanto ventisei parole. Questa legge ha annullato tutte queste limitazioni pubbliche al discorso nei tribunali locali.

La Sezione 230 faceva anche parte di una mossa libertaria per deregolamentare i media, le comunicazioni e le norme antitrust, e quindi ciò che ha finito per sostituire la strutturazione della piazza pubblica da parte delle comunità locali è stata la censura privata da parte di piattaforme globali.

Queste aziende fanno soldi sui contenuti incendiari perché attraggono l’attenzione delle persone e restituiscono più attenzione, e più dati. Ma queste aziende non sono responsabili dei contenuti, anche se questi promuovono cose come rivolte razziali, sparatorie tra bande o violenza politica.

In altri termini, se un giornale invocasse regolarmente la necessità di sparare a qualcuno, sarebbe per legge chiuso, a meno che non smettesse di dire quelle cose. Twitter, o qualsiasi altro social network, può amplificare minacce simili senza adottare alcuna misura per mitigare i danni e può persino vendere pubblicità sfruttando le minacce di morte.

La risposta, quindi, non è che Elon Musk compri o non compri Twitter. È abrogare la Sezione 230 in modo che questi social network debbano effettivamente assumersi la responsabilità dei contenuti che diffondono.

Le piattaforme di comunicazione dovrebbero essere viste ancora una volta come un bene pubblico. La storia si ripete; Clarence Thomas, ad esempio, si è recentemente reso conto che la regolamentazione dei servizi telefonici dovrebbe applicarsi alle piattaforme tecnologiche.

Prima iniziamo, meglio è. È un problema che non sia stata studiata una legislazione sugli illeciti dal 1996 sulle piattaforme, ma è ora di iniziare. Altrimenti Twitter continuerà a guadagnare vendendo i biglietti per la fine del mondo.

Traduzione di Monica Fava

© Riproduzione riservata