Il verdetto emesso il 25 marzo 2026 da una giuria californiana segna un punto di svolta storico nel diritto della responsabilità civile applicato alle piattaforme digitali. Per la prima volta, Meta e Google sono state riconosciute responsabili non per i contenuti ospitati, bensì per la progettazione stessa (design) dei loro servizi, o per il meccanismo di funzionamento degli stessi, ritenuta idonea a generare dipendenza e danni psicologici nei minori.

Questo passaggio segna il superamento – almeno parziale – del paradigma classico di irresponsabilità delle piattaforme, fondato sulla distinzione tra hosting e produzione di contenuti.

La vicenda è questa: una giovane utente, Kaley, denunciava gli effetti negativi dell’utilizzo intensivo di piattaforme quali YouTube e Instagram durante l’adolescenza.

La giuria riteneva rilevanti alcune caratteristiche strutturali: scroll infinito, algoritmi di raccomandazione, sistemi di notifica continua.

Tali strumenti venivano qualificati non come neutri, ma come meccanismi intenzionalmente progettati per massimizzare l’engagement, anche a discapito del benessere psicologico degli utenti più vulnerabili.

Il cuore della decisione risiede nell’affermazione di un vero e proprio dovere di diligenza (duty of care) in capo alle piattaforme digitali.

La giuria, infatti, riconosceva che le società coinvolte, pur disponendo di ricerche interne sui rischi per la salute mentale dei minori, non adottavano misure adeguate di prevenzione né sistemi di allerta dei rischi (warning) e, anzi, continuavano a sviluppare funzionalità orientate alla fidelizzazione. In questo modo, di fatto, la piattaforma è assimilata a un prodotto potenzialmente pericoloso.

Il verdetto contro Meta e Google non rappresenta tanto una condanna economica significativa (6 milioni di dollari), quanto un precedente simbolico e sistemico.

Esso sancisce alcuni principi dirompenti: le piattaforme digitali non sono più considerate meri intermediari; il design algoritmico è giuridicamente rilevante; la tutela dei minori impone obblighi concreti e verificabili.

Ecco che si apre così una nuova frontiera: la responsabilità non per il contenuto offerto ma per il modo stesso in cui il servizio è concepito e presentato all’utente.

E in Italia cosa potrebbe accadere? Il precedente statunitense, pur reso in un ordinamento profondamente diverso dal nostro, potrebbe aprire la strada ad azioni risarcitorie analoghe. E alcuni degli elementi valorizzati da questa decisione sulle modalità di funzionamento di questi sistemi - sostanzialmente tesi a creare dipendenza nell’utente - potrebbero contribuire a qualificare l’attività di Google e Meta come “pericolosa” ai sensi dell’art. 2050 c.c., con tutto ciò che ne consegue, in particolare sul piano dell’alleggerimento dell’onere probatorio del soggetto danneggiato che agisce in giudizio.

Il tutto in un contesto in cui il legislatore italiano, con la legge n. 132/2025, ha espressamente condizionato l’accesso ai sistemi di intelligenza artificiale da parte dei minori di 14 anni al consenso dei genitori.

Il caso californiano, quindi, potrebbe influenzare anche l’interpretazione europea, contribuendo a delineare un nuovo paradigma: dalla neutralità tecnologica alla responsabilità progettuale.

Un paradigma destinato a ridefinire per sempre il rapporto tra innovazione, mercato e diritti fondamentali.

© Riproduzione riservata