Non basta chiedere agli utenti di essere più prudenti. Quando un ambiente è progettato per agganciare, polarizzare e trattenere, la risposta non può essere solo individuale. Deve essere pubblica, democratica, regolatoria
Ogni volta che apriamo un social network, una piattaforma video o un sistema di intelligenza artificiale conversazionale, non entriamo in uno spazio neutro. Entriamo in un ambiente progettato per orientare il nostro comportamento. Scroll infinito, autoplay, notifiche intermittenti, streaks, feed opachi: non sono dettagli tecnici. Sono strumenti costruiti per massimizzare il tempo di permanenza, l’engagement, la profilazione e dunque il rendimento economico delle piattaforme.
Negli ultimi dieci anni, una parte preponderante del dibattito, anche regolatorio, si è concentrato soprattutto sui contenuti: odio online, fake news, strategie di disinformazione, violenza verbale. È un tema reale, sul quale l’Europa si è mossa, pur con passi ancora troppo timidi. Oggi, tuttavia, quel dibattito deve fare un salto di qualità: dal focus sui contenuti a quello sui meccanismi attraverso i quali essi circolano online. È qui che entra in gioco il potere algoritmico. Ed è un tema che, nel quadro delle regole statunitensi ed europee, chiama le piattaforme online a quella diretta responsabilità che invece non hanno per i contenuti che gli utenti immettono.
Come il gioco d’azzardo
Occorre allora chiedersi fino a che punto una democrazia possa accettare che infrastrutture private studino le vulnerabilità cognitive ed emotive delle persone, personalizzino gli stimoli in tempo reale e organizzino l’ambiente informativo per trattenerci il più possibile. Il diritto, in passato, aveva già individuato un confine simile: quello del condizionamento occulto, come nel caso della pubblicità subliminale. Oggi quella soglia non è scomparsa. Si è evoluta. Non abbiamo più un messaggio nascosto in un fotogramma: abbiamo sistemi che imparano come aggirare attenzione, abitudini e fragilità.
Il parallelo con il gioco d’azzardo, da questo punto di vista, è illuminante. Sappiamo da tempo che a generare dipendenza non è solo la ricompensa, ma l’incertezza della ricompensa: il cosiddetto rinforzo variabile. È la stessa logica che ritroviamo nell’architettura di molte piattaforme digitali di massa. Non una dinamica occasionale, ma una pressione continua, applicata ogni giorno a milioni di persone.
Qui entrano in gioco tre fenomeni. Il primo è la “dipendenza algoritmica”: quando il design riduce la capacità dell’utente di interrompere la fruizione.
Il secondo è l’“influenza algoritmica”: quando la selezione non trasparente dei contenuti modifica nel tempo credenze e preferenze.
Il terzo è la “manipolazione algoritmica selettiva”: quando il gestore interviene intenzionalmente per amplificare alcuni contenuti o silenziarne altri per fini politici, commerciali o propagandistici.
Quali regole
Per contrastare questi tre fenomeni, spesso intrecciati, occorre introdurre una regolazione pubblica che oggi manca, vietando pratiche che producono dipendenza, influenza opaca e manipolazione; introducendo un dovere di diligenza algoritmica delle piattaforme; affermando il diritto dell’utente a una modalità non profilata come impostazione di base. Ciò deve valere per tutti gli utenti, ma rafforzando la tutela dei minori con configurazioni protettive di default, limiti alla profilazione psicologica e verifica dell’età a livello di sistema operativo.
Il disegno di legge che abbiamo presentato in Senato punta a contrastare tutti questi rischi, attribuendo ad Agcom poteri di linee guida, ispezione e sanzione e introducendo, in un quadro legislativo coerente con il diritto europeo, la responsabilità civile effettiva in capo alle piattaforme online e ai produttori di chatbot AI, per il risarcimento dei danni. Naturalmente il quadro delle regole deve sempre accompagnarsi alla formazione digitale e per questo proponiamo l’istituzione di un Fondo per l’alfabetizzazione digitale e algoritmica, finanziato con i proventi delle sanzioni.
Il punto politico, in fondo, è netto. E riguarda tutti. La libertà, nel XXI secolo, non si difende solo rimuovendo i contenuti illegali. Si difende anche impedendo che il modello di business delle piattaforme si fondi sulla vulnerabilità cognitiva ed emotiva delle persone. Non basta chiedere agli utenti di essere più prudenti. Quando un ambiente è progettato per agganciare, polarizzare e trattenere, la risposta non può essere solo individuale. Deve essere pubblica, democratica, regolatoria. Non contro l’innovazione, ma contro l’idea che tutto ciò che è tecnicamente possibile sia anche socialmente accettabile.
*senatori Pd
© Riproduzione riservata


