Antigone Davis, global head of safety di Meta, è intervenuta al Senato all’evento promosso da Noi Moderati. Ha promesso che la sua azienda è disponibile a collaborare con i governi per creare regole più efficaci sulla sicurezza online. Tra i punti inevasi, la verifica dell’età degli utenti e l’accusa all’algoritmo di creare dipendenza
«Vogliamo collaborare con le famiglie». Antigone Davis, global head of safety di Meta, va dritta al punto: «Il loro ruolo è fondamentale». Proprio mentre in Italia si è aperta, al tribunale civile di Milano, la prima class action europea contro i social per i possibili danni ai minori, al Senato Davis è intervenuta sulla sicurezza dei più giovani.
Invitata a parlare all’evento promosso da Mara Carfagna – a cui si deve, insieme a Maurizio Lupi e Mariastella Gelmini, un disegno di legge sul tema – la responsabile Meta si è rivolta ai genitori: «Ci siamo interrogati su come agevolarvi nel vostro compito».
Dopo che il 25 marzo scorso Meta è stata ritenuta per la prima volta responsabile della dipendenza dai social media tra i giovani – proprio per come le piattaforme sono strutturate, più che per i contenuti presenti al loro interno – la responsabile della sicurezza ha spiegato quali misure di tutela potranno essere introdotte nei profili “adolescente”, sotto la guida dei genitori.
Le intenzioni di meta
Nel concreto, le misure consistono in strumenti di controllo parentale, limiti automatici (ad esempio la modalità notturna, senza notifiche) e impostazioni di sicurezza predefinite per la messaggistica e l’accesso ai contenuti. Inoltre, Davis a nome di Meta si è detta disponibile a collaborare con i governi per creare regole più efficaci sulla sicurezza online e che «supportino sia i genitori sia le aziende tecnologiche nell’avere una relazione positiva».
Ciò che resta irrisolto, o perlomeno non è stato affrontato nell’intervento, è come la multinazionale intenda collaborare alla verifica oggettiva dell’età degli utenti. Un altro non detto riguarda il funzionamento specifico degli algoritmi.
Intanto alcuni paesi, proprio come ipotizzato anche nei disegni di legge italiani, si stanno già muovendo verso limitazioni totali in base all’età: lo scorso 10 dicembre l’Australia ha introdotto, per la prima volta al mondo, il divieto di utilizzo dei social per chi ha meno di 16 anni. L’autorità australiana responsabile della sicurezza online ha emanato linee guida per la verifica dell’età, senza tuttavia imporre una tecnologia unica di controllo.
Problemi legali
Insieme al moltiplicarsi di disegni di legge, non mancano i problemi giudiziari. Il 4 maggio lo Stato americano del New Mexico ha sanzionato Meta per 3,7 miliardi di dollari per la mancata tutela dei più giovani. In Europa, invece, ci sono cinque indagini della Commissione europea. Il rischio – come sottolineato, all’evento in via della Dogana Vecchia, da Roberto Viola, Direttore generale Commissione europea Dg Connect – è che per ciascun procedimento Meta paghi fino al 6 per cento del fatturato (si noti che i ricavi del 2025 a livello globale hanno superato i 200 miliardi).
La legge italiana ed europea vieta già l'iscrizione ai social ai minori di 14 anni, ma le piattaforme ignorano abitualmente questo obbligo. La stima è che 3,5 milioni di bambini tra i 7 e i 14 anni siano attivi su Meta e TikTok con dati non verificati o falsi.
Proprio oggi il Moige – Movimento italiano genitori – ha presentato un class action contro Meta (Instagram e Facebook) e TikTok. «Le difese dei colossi dei social hanno contestato i nuovi documenti depositati che evidenziano come entrambe le società fossero già a conoscenza degli effetti dannosi dei loro algoritmi sui minori», spiegano. Il procedimento proseguirà con altre udienze.
© Riproduzione riservata

