L’aggressione russa ai danni dell’Ucraina ha messo sotto una lente di ingrandimento una serie di strumenti che Mosca utilizza regolarmente per minare processi e istituzioni democratiche in Europa.

Uno di questi è la disinformazione, parte della hybrid warfare russa, strategia che favorisce chi agisce in offensiva rispetto a chi si difende e che rimane quindi difficile da contrastare per chi ne diviene target. È inoltre uno strumento che permette ad attori statali o non statali che non avrebbero chances di battersi in uno scontro aperto convenzionale, cosiddetto “simmetrico”, di colpire la controparte, le sue istituzioni, i processi democratici, la società civile e il sistema mediatico.

Un rapporto di EU vs Disinfo del 2021 indica che in Unione europea, il paese più colpito dalla disinformazione russa è la Germania. Anche fuori dall’Ue, l’aggredita Ucraina è da anni target di campagne di disinformazione che fanno leva su narrative ad hoc, tra le quali quella relativa alla partnership orientale con l’Ue, di cui Kiev fa parte.

Pur generando confusione e insinuando dubbi, utilizzando tesi complottiste e narrative false o che distorcono la realtà, in un processo che può sembrare caotico e frammentato, le campagne di disinformazione russa sono uno sforzo sistematico, coordinato a livello centrale, capace di agire su più livelli. È in questo contesto che a inizio marzo i siti Russia Today e Sputnik, entrambi proprietà del Cremlino e veicoli di notizie false e disinformazione, sono stati bloccati in tutta Europa.

La riposta dell’Ue

Nel corso degli ultimi anni l’Ue si è dotata di una serie di strumenti istituzionali (uffici, centri, agenzie) e di policy e di guida (strategie, piani d’azione, comunicazioni), per difendere i cittadini e istituzioni. Sono passi necessari, in alcuni casi anche ambiziosi, come nel caso del Digital Service Act (di cui meglio sotto), ma, come già successo con altre politiche europee, rischiano di impantanarsi e non superare il reality check dell’implementazione.

Una delle sfide ad esempio è rendere i vari strumenti adottati dall’Ue coerenti tra loro, cosa tutt’altro che scontata, dato che le responsabilità sono divise tra diverse istituzioni, agenzie e uffici che non sempre si coordinano in maniera efficace.

Rafforzare la “cassetta di attrezzi” dell’Unione contro la disinformazione è uno dei pilastri del Piano d’azione per la democrazia europea (European Democracy Action Plan) presentato a dicembre del 2020 e dovrebbe andare di pari passo con la promozione di elezioni libere, della la libertà mediatica e della pluralità.

A ciò si aggiungono strutture specifiche create ex novo, come il centro d’eccellenza per la lotta contro le minacce ibride (European Centre of Excellence for Countering Hybrid Threats), o la cellula contro le minacce ibride del dipartimento dedicato all’intelligence del servizio di azione esterna dell’Ue (Eu Intcen).

Nel 2015 all’interno del Servizio di azione esterna è stata creata una task force dedicata alla comunicazione strategica (Ee StratCom Task Force) che attraverso report e newsletter fa regolarmente debunking, ovvero sfata “miti”, notizie false o incomplete.

Il Codice delle buone pratiche

Nel 2016 l’Ue ha pubblicato una comunicazione sul Quadro congiunto per contrastare le minacce ibride in cui si impegnava a «garantire una comunicazione mirata per reagire alla disinformazione», suggeriva agli Stati membri di «elaborare meccanismi coordinati di comunicazione strategica» e poneva le basi per aprire un Centro di eccellenza per la lotta contro le minacce ibride, operativo dal 2017 con sede a Helsinki, al quale fa riferimento anche la Nato nel quadro della sua collaborazione con l’Unione.

Forse uno degli strumenti più interessanti, dopo il Digital Service Act, è il Codice di buone pratiche contro la disinformazione che possono firmare su base volontaria le piattaforme online e i maggiori social network. Tra i firmatari ci sono ad esempio Google, Facebook, Twitter e TikTok che si impegnano, tra le altre cose, a: prevedere meccanismi di protezione dalla disinformazione; migliorare il vaglio delle inserzioni pubblicitarie al fine di ridurre il profitto dei vettori di disinformazione; garantire trasparenza per quanto riguarda i messaggi pubblicitari di natura politica.

Seppur un buon punto di partenza, il Codice presentava limiti evidenti evidenziati durante la sua valutazione da parte della Commissione stessa, tra cui la necessità di ampliare la partecipazione tra i firmatari oltre i social network e le piattaforme online, potenziare il monitoraggio e le misure di trasparenza, in particolare chiedendo ai firmatari di fornire dati più dettagliati e accessibili.

Non è inoltre un segreto che alcuni di questi giganti del web (come Facebook), non abbiano fatto abbastanza per garantire adeguata protezione dei loro utenti. La necessità di applicare dei miglioramenti e la maggiore sensibilità verso il tema che nel frattempo si andava sviluppando a livello europeo, complice la pandemia e le relative campagne di disinformazione con contenuti No-vax provenienti da Mosca, ha portato a un tentativo di rafforzare il Codice, tramite attività di monitoraggio e reporting da parte dei firmatari.

Il fact-checking

Allo stesso tempo, è stato attivato un network (lo European Digital Media Observatory - Edmo) di fact-checkers, studiosi e accademici, stakeholder interessati, con il compito di mappare le organizzazioni che si occupano di fact-checking, coordinare attività di ricerca sulla disinformazione a livello europeo e aiutare le autorità pubbliche, i decision makers a monitorare le policy sulla disinformazione delle piattaforme online.

Il network ha sede a Firenze, presso lo European University Institute e per l’Italia ne fa parte l’organizzazione di fact-checking Pagella Politica. Nel 2020, la Commissione ha lanciato un bando da nove milioni di euro per finanziare dei hub nazionali e multinazionali su modello dell’Edmo, con il compito di fare ricerca sui digital media e focalizzarsi sulle vulnerabilità emergenti nel campo digitale specifiche per l’area geografica in cui operano e di cui si occupano.

Una ricerca di questo tipo potrebbe portare a una consapevolezza nuova e più dettagliata, perché andrebbe a studiare e porre le basi per contrastare narrative di disinformazione che prendono di mira una nazione-target e fanno leva su elementi della sua storia e cultura.

Il Digital Service Act

Una delle misure più ambiziose finora intraprese dalla Commissione europea e di recente presentazione è il Digital Services Act. A detta di Margarethe Vestager, commissaria europea alla concorrenza e responsabile per l’Agenda Europe Fit for the Digital Age, «Le piattaforme dovrebbero essere trasparenti sul come moderano i contenuti (…) e in grado di impedire che la disinformazione diventi virale (…)». La commissaria ritiene che l’accordo sul Digital Services Act garantisce che «le piattaforme siano ritenute responsabili per i rischi che i loro servizi possono rappresentare per la società e i cittadini».

Il Dsa introduce la possibilità di sanzionare fino al 6 per cento del fatturato annuale chi si macchia di “gravi e ripetute violazioni” e punta a introdurre nuovi obblighi per le piattaforme online con più di 45 milioni di utenti attivi, come ad esempio Google, Apple, Meta, Amazon, Microsoft (anche se l’elenco non è stato ancora pubblicato).

In caso di eventi imprevedibili, come «terremoti, pandemie, guerre e atti di terrorismo», il Dsa prevede un ruolo straordinario di coordinamento della Commissione e richiede alle piattaforme di attuare protocolli di crisi, al fine di «monitorare le informazioni che (le piattaforme) trasmettono e archiviano e che impediscano di ricercare fatti o circostanze che indichino contenuti illegali».

La guerra in Ucraina ha avuto un impatto sul documento che ora dovrà essere approvato formalmente dal Parlamento europeo e dal Consiglio dell’Ue e, se adottato, entrerà in vigore dal 2024.

Gli ostacoli

Gli interessi che remeranno contro l’entrata in vigore del Dsa nella forma attuale, ma anche contro una reale implementazione del Codice di buone pratiche rafforzato, sono grandi almeno quanto i suoi diretti interessati, ma potrebbero non arrivare solo dal settore privato e dalle piattaforme che ne rimarrebbero più colpite, ma anche dagli stati membri stessi.

In più, la task force che dovrebbe vigilare sul rispetto delle nuove leggi potrà contare al momento solo su 230 persone, numero che sembra inadeguato se si considera l’ambizione e la grandezza di chi va monitorato.

Alcune dinamiche del sistema mediatico attuale che favoriscono la disinformazione, come la crisi dei media tradizionali, la ricerca del click bite a tutti i costi, il sensazionalismo, che sfocia in un livello di dibattito sempre più basso, poco informato, polarizzato e a tratti imbarazzante, sono dei tratti ormai strutturali.

Mancano inoltre programmi di educazione europei al passo con i tempi che permettano ai cittadini di diventare impermeabili alla disinformazione, o quantomeno ad imparare a riconoscerla e manca una classe di insegnanti e professori formati a farlo. La strada è quindi ancora lunga e in salita.

© Riproduzione riservata