Si discute molto del recente blocco di Chat GPT da parte del Garante. Il provvedimento ha carattere scarno, tratto tipico degli atti di urgenza. Le principali violazioni riscontrate sono le seguenti: radicale mancanza di informazione sul trattamento dati,  assenza di titolo giuridico per addestrare l’algoritmo, nessun meccanismo di verifica dell’età degli utenti.

Informazione inadeguata

Provate a leggere la privacy policy di Chat GPT. Un documento estremamente vago, che non spiega gli elementi essenziali del trattamento e non chiarisce le fonti utilizzate per addestrare l’algoritmo. Per coloro che riescono ancora ad accedere al servizio, provate a chiedere all’AI stessa di dirvi da dove recupera i vostri dati. Con un po’ di reticenza, il software vi svelerà di utilizzare fonti pubbliche, e non meglio precisate banche dati. Dunque, il Garante ha ragione. l’informazione fornita non è adeguata.

Base giurica inesistente

Il Garante rileva «l’assenza di idonea base giuridica in relazione alla raccolta dei dati» per sviluppare l’algoritmo. Occorre studiare con attenzione tale rilievo. In ogni caso, senza dilungarci troppo in tecnicismi, la raccolta massiva di informazioni sul web per finalità commerciali è generalmente vietata. Per fare un esempio: vi piacerebbe che qualcuno usasse le vostre foto su Instagram al Gay Pride e le condividesse con il governo iraniano? Informazione disponibile online, certo, ma non significa sia tutto possibile.

Rischi per i minori

Infine, la questione dei meccanismi di verifica dell’età. Il Garante ha ragione, in teoria e in pratica. Per capire quali sono i rischi, cercate la storia di Molly Russell, anni quattordici, suicida dopo essere stata bombardata da post personalizzati su Instagram. Argomento dei post? Semplice: suicidio, lesioni autoinflitte, depressione, inadeguatezza (per maggiori info, suggeriamo la straordinaria puntata di Presa Diretta, “La scatola nera”, 20.3.2023). Oppure, ancora, il drammatico caso della bambina di Palermo, anni dieci, morta per via di una cosiddetta Black out challenge su TikTok (in breve, l’idea è quella di stringersi una cintura intorno al collo e resistere senza aria fin quando si può).

Decidere

In quel caso, visti i rischi evidenti, il Garante aveva bloccato TikTok sul territorio italiano, richiedendo di adottare misure di verifica dell’età a tutela degli utenti più vulnerabili. In risposta, si era parlato di atteggiamento anti-tecnologico del Garante. Eppure, dopo alcune settimane, TikTok ha dovuto adeguarsi. Medesimi rilievi critici vengono ora mossi per il blocco di Chat GPT. Da un punto di vista giuridico, tuttavia, le violazioni e i rischi sono evidenti, come illustrato. Non c’è nulla di controverso nella semplice applicazione della legge, anche e soprattutto nei confronti di tecnologie così innovative. Il Garante ha agito con un mix di coraggio e competenza, esattamente quel che chiediamo alle nostre istituzioni.

Rimedi

Ciò non esclude che la decisione possa essere errata. Open AI ha il sacrosanto diritto di ricorrere a un giudice e dimostrare la correttezza del proprio operato. Se un errore giuridico c’è stato, la giurisdizione italiana o internazionale si occuperà di annullare la decisione. E laddove il risultato della ordinata applicazione della legge dovesse essere insoddisfacente, per qualunque ragione politica, economica o sociale, allora la questione potrà essere discussa pubblicamente, e se del caso nuove leggi potranno sacrificare la protezione dei dati personali sull’altare dell’intelligenza artificiale. Fino a quel momento, però, la legge in vigore si applica, a chiunque. It’s the rule of law, baby.

Riflessioni

Le possibilità dell’AI sono potenzialmente illimitate. Centinaia di professioni possono essere cancellate con effetti dirompenti sul mercato del lavoro. Abbiamo molti anni davanti a noi per permettere e guidare questi cambiamenti. Ma ora è il momento di riflettere attentamente. Citeremo un certo Elon Musk, che, insieme ad altri 1.100 firmatari, ha di recente pubblicato una lettera aperta in cui si suggerisce di sospendere lo sviluppo di questa tecnologia: «Questa pausa dovrebbe essere pubblica e verificabile e coinvolgere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria».

Ancora così sicuri che il Garante abbia sbagliato?

Stefano Rossetti è avvocato presso Noyb – European Center for Digital Rights 

© Riproduzione riservata