Pubblicate le linee guida per aiutare le piattaforme a rendere i propri servizi più sicuri e rispettosi dei diritti dei più giovani. Ma non mancano i limiti: il rischio è che la tutela diventi una funzione opzionale, esterna, e non una condizione strutturale. Intanto (anche) in Italia parte la sperimentazione di una app per la verifica dell’età. Ma per evitare la segregazione digitale serve una responsabilità condivisa tra tutti gli attori in campo
Con l’attuazione del Digital services act, l’Unione europea ha iniziato a ridisegnare i confini della responsabilità digitale. E lo sta facendo concentrandosi su uno dei temi più urgenti, vale a dire la tutela dei minori online. Per riuscirci la Commissione europea, attraverso la Dg Connect (Direzione generale per le reti di comunicazione, i contenuti e le tecnologie), ha pubblicato qualche giorno fa le linee guida per aiutare le grandi piattaforme a rendere i propri servizi più sicuri e rispettosi dei diritti dei più giovani.
Una sorta di mappa, non ancora una legge, che se seguita con coerenza potrebbe correggere un modello di sviluppo digitale che ha spesso ignorato le esigenze dell’infanzia e dell’adolescenza. Ma se da un lato le nuove direttive segnano un passo avanti, dall’altro mettono in luce complessità e contraddizioni di un’epoca in cui i confini tra tutela e sorveglianza, libertà e protezione, sono sempre più sfumati.
Un web più “child-friendly”
Le nuove linee guida della Commissione europea si rivolgono soprattutto ai Vlop (Very large online platforms), ovvero le piattaforme con oltre 45 milioni di utenti attivi nell’Ue, come YouTube, TikTok, Instagram, Facebook e Amazon.
Tra i punti di forza si segnala il divieto di profilazione comportamentale dei minori a fini pubblicitari. Non ci sarà quindi più spazio per la raccolta di dati sensibili per targettizzare contenuti commerciali su misura. Inoltre, le piattaforme dovranno progettare interfacce pensate per i più giovani, con design che evitino i cosiddetti “dark patterns”, quei meccanismi che spingono inconsciamente a cliccare, accettare, comprare.
Altro elemento positivo: le Big tech saranno tenute a valutare e mitigare i rischi sistemici legati all’uso dei propri servizi da parte dei minori. Bullismo online, esposizione a contenuti dannosi, dipendenza digitale: fenomeni che dovranno essere analizzati con strumenti trasparenti, rendicontati annualmente e, se necessario, corretti.
I nodi critici
Tuttavia la domanda più ricorrente resta sempre la stessa: come distinguere un minore da un adulto online? Le piattaforme, per non violare la privacy, non possono raccogliere dati biometrici o documenti per verificare chi sia davvero un minore. Per distinguerli, le linee guida suggeriscono l’uso di metodi proporzionati, come l’analisi del comportamento online.
Peccato che questi strumenti, al momento, siano poco affidabili e facilmente aggirabili. Prendiamo TikTok: l’età minima per iscriversi è 13 anni, ma chiunque può eludere il filtro inserendo una data di nascita fittizia. Milioni di bambini e bambine accedono così quotidianamente a un ecosistema pensato per adulti, esposti a contenuti e dinamiche capaci di influenzare la percezione di sé.
TikTok ha introdotto alcune funzioni per limitare la messaggistica o il tempo di utilizzo per i profili dichiaratamente minorenni, ma resta il fatto che l’interfaccia costruita per agganciare continua a funzionare come una calamita. Gli algoritmi premiano ciò che genera reazioni forti, e questo significa che i contenuti provocatori, ansiosi, talvolta disturbanti, finiscono per essere proposti anche ai più piccoli. Le linee guida chiedono di mitigare questi effetti sistemici. Ma se non è chiaro chi sia minorenne, come si può agire in modo selettivo?
Anche Instagram ha cercato di reagire, introducendo impostazioni per rendere privati i profili dei minori, limitando la visibilità di alcuni contenuti, e ha persino sperimentato la rimozione del contatore dei like per ridurre la pressione sociale.
L’ideale di visibilità
Eppure, il cuore del problema è più profondo. L’intero modello si fonda sull’ideale di “visibilità” come forma di legittimazione personale. Chi è più visibile appare più apprezzato; chi genera più interazione ottiene più spazio. Le linee guida invitano le piattaforme a progettare ambienti che non inducano dipendenza o ansia da prestazione, ma non spiegano come si possa riconciliare questa visione con un ecosistema che premia chi posta di più, chi si espone di più, chi spinge sull’immagine. Il rischio è che la tutela del minore diventi una funzione opzionale, esterna, invece di una condizione strutturale del servizio.
Il tema si fa ancora più delicato con i siti per adulti. Le linee guida parlano chiaramente della necessità di impedire l’accesso dei minori ai contenuti pornografici, ma nella realtà bastano due clic per superare qualsiasi barriera. Pornhub e altre piattaforme analoghe hanno introdotto avvisi legali, ma nessuna verifica reale dell’età. Le aziende si difendono dietro alla tutela della privacy: chiedere documenti agli utenti sarebbe rischioso.
Un altro limite che emerge da queste nuove linee guida riguarda l’effettiva capacità delle piattaforme di modificare i propri algoritmi in modo trasparente e verificabile. Il Dsa impone la mitigazione dei rischi legati alla «amplificazione di contenuti dannosi», ma non specifica come si debba intervenire sugli algoritmi, né chi controlli cosa. Si affida alla buona volontà delle aziende? Oppure a una supervisione pubblica che ancora deve strutturarsi pienamente?
C’è poi un problema di implementazione territoriale. Le linee guida non sono vincolanti, il loro impatto concreto dipenderà dalla volontà degli Stati membri e dalla prontezza dell’autorità nazionale di vigilanza (i cosiddetti coordinatori dei servizi digitali) nel farle rispettare. Ma molti di questi organismi non sono ancora operativi o hanno risorse limitate.
La verifica dell’età
Per rispondere a queste criticità la Commissione Ue, attraverso il lavoro della Dg Connect, ha avviato la sperimentazione di una applicazione per la verifica dell’età, pensata per essere compatibile con diverse piattaforme, rispettosa della privacy e utilizzabile senza dover fornire documenti o dati personali sensibili. Il progetto pilota è attualmente attivo in Italia, Grecia, Danimarca, Francia e Spagna.
Il funzionamento dell’app si basa su un sistema semplice: l’utente dimostra di avere più di 18 anni, ad esempio, senza dover rivelare la propria identità completa. Le informazioni sono verificate, ma il sito o il servizio online non riceve alcun dato anagrafico, solo la conferma che l’utente ha superato l’età minima richiesta.
Il funzionamento dell’app si basa su tecnologie avanzate come la Zero-knowledge proof, che consente di dimostrare l’età minima dell’utente senza rivelare informazioni sensibili, come nome o data di nascita. In pratica, l’utente carica un documento digitale (come una carta d’identità elettronica), che viene verificato tramite una piattaforma di terze parti, che conferma che l’utente ha superato l’età richiesta. Il sistema genera quindi un "token" criptato che attesta solo l’età, senza che il sito riceva alcun dato identificativo.
Questo processo, che può anche utilizzare identità digitali tramite QR code o app di verifica, garantisce la privacy dell’utente, riducendo il rischio di frode o furto d’identità, ed è in linea con normative come il Gdpr, che protegge i dati sensibili. Sebbene ancora in fase di sviluppo, questa tecnologia rappresenta un modo sicuro e rapido per garantire l'accesso a contenuti in base all'età senza compromettere la privacy.
Accanto a questo progetto, la Commissione sta lavorando per definire standard tecnici comuni a livello europeo per la verifica dell’età, così da assicurare che le soluzioni adottate siano affidabili e armonizzate nei diversi Stati membri. Si sta anche valutando l’ipotesi di introdurre sistemi di certificazione esterni e indipendenti per verificare se le piattaforme digitali rispettano davvero le linee guida.
Il Dsa prevede che le piattaforme più grandi effettuino valutazioni annuali dei rischi sistemici connessi ai propri servizi. Nel caso dei minori, questo significa analizzare l’impatto che algoritmi, design e interazioni possono avere sul loro benessere. Le linee guida offrono uno schema per valutare rischi come l’esposizione a contenuti nocivi, il tempo eccessivo trascorso online, la pressione sociale e il cyberbullismo. Ma senza meccanismi indipendenti di controllo, tutto resta affidato alla discrezione delle aziende.
Responsabilità condivisa
C’è poi un aspetto ancora più sottile che riguarda il rischio che la protezione si trasformi in esclusione. Se i minori vengono tagliati fuori da interi ambienti digitali, se le piattaforme limitano troppo le loro funzionalità per “sicurezza”, si corre il pericolo di una segregazione digitale. Di una rete a due velocità: aperta e dinamica per gli adulti, iperfiltrata e ridotta per i giovani. Ma i diritti digitali dell’infanzia non si esauriscono nella sicurezza: comprendono partecipazione, libertà di espressione, possibilità di apprendere ed esplorare.
Per questo, nonostante i limiti, le difficoltà applicative e i margini di ambiguità, le linee guida europee vanno lette per ciò che sono: un tentativo concreto di dare forma a una responsabilità condivisa. Per la prima volta si afferma chiaramente che la tutela dei minori nel digitale non è un problema delegabile solo alle famiglie o alle scuole, ma riguarda in modo diretto chi progetta, gestisce e monetizza gli ambienti digitali.
Le linee guida non offrono una soluzione definitiva, ma tracciano una rotta. E in un’epoca dove la velocità dell’innovazione spesso anticipa il diritto, avere una direzione significa almeno stare al passo per trasformare questi obiettivi in un’architettura concreta, in algoritmi responsabili che non escludano, ma accompagnino.
© Riproduzione riservata



