Ci sono state le prime prove tecniche di disgelo tra il Garante della privacy e OpenAi. L’obiettivo è di riportare ChatGpt online in Italia nel pieno e (finalmente) indiscusso rispetto dei diritti e delle norme in vigore in Europa. Lo scorso 31 marzo il Garante aveva scritto un provvedimento d’urgenza in cui rilevava varie violazioni delle norme privacy europee, con conseguenti rischi per i cittadini. Poche ore dopo, OpenAi ha scelto, in via cautelativa, di bloccare l’accesso alla piattaforma per gli italiani.

Ora c’è la seconda puntata della vicenda. Nella tarda serata di mercoledì c’è stato un primo incontro in video conferenza tra i vertici di OpenAi e del Garante. Si è concluso con qualche impegno da parte della società americana a migliorare la privacy. Il Garante valuterà queste misure promesse. A quanto trapela, siamo ancora in una fase interlocutoria a cui seguiranno altri scambi, prima di arrivare alla fumata bianca e al ritorno del famoso programma di intelligenza artificiale in Italia.

In realtà, come spiega l’avvocata Anna Cataleta, in ballo non c’è solo ChatGpt, ma anche Microsoft, che ha integrato la stessa tecnologia in alcuni dei suoi prodotti più importanti. Il Garante per ora ha fatto rilievi solo a OpenAI, è vero, ma le stesse questioni sulla privacy possono riguardare tutti i sistemi che sfruttano questo tipo di intelligenza artificiale.

Le tre promesse

OpenAi ha ribadito di non aver violato nessuna norma. Ha però ribadito pure la volontà di cooperare con l’authority italiana. Dal canto suo, il Garante privacy italiano ha evidenziato di non voler ostacolare lo sviluppo dell’intelligenza artificiale. Non ha intenzione di frenare l’innovazione tecnologica, confermando al contempo la priorità della tutela dei dati personali degli interessati.

In particolare, OpenAi ha promesso ora di fare tre cose: potenziare la trasparenza nell’utilizzo dei dati personali dei cittadini italiani ed europei; rafforzare i meccanismi attuali per esercitare i diritti; offrire piena garanzia nella tutela dei minori.

Il primo punto significa che dovrà scrivere sul sito esattamente come utilizza i nostri dati e le nostre conversazioni. Con il secondo dovrà garantire agli utenti la possibilità di accesso ai dati e un certo livello di controllo sul loro trattamento.

Per proteggere i minori, potrebbe essere garantito un filtro che impedirebbe l’accesso a chi ha meno di 13 anni, proprio ciò che il Garante ha obbligato TikTok a fare nel 2021.

Il fondamento di liceità

Sono punti richiesti dalla normativa europea sulla privacy (il Gdpr). Il Garante aveva rilevato a fine marzo che ChatGpt non li rispettava. Da qui, il provvedimento dove chiedeva con urgenza il rispetto delle norme, con la minaccia di sanzioni fino a 20 milioni di euro o del 4 per cento del fatturato.

Da allora, con questo primo incontro, sono stati fatti passi avanti ma la partita è ancora aperta. Soprattutto, come hanno commentato alcuni giuristi in queste ore, c’è un elemento tecnico che per OpenAi potrebbe essere difficile soddisfare (e non a caso è assente anche nell’elenco delle tre misure proposte).

È il fondamento di liceità. Ossia, OpenAi deve indicare in base a quale finalità lecita (secondo il Gdpr) tratta i nostri dati.

Contro le falsità

Se non riesce a convincere il Garante di avere lavorato finora con un corretto fondamento di liceità, sarà un disastro. In teoria, dovrebbe cancellare tutti i dati personali degli italiani, che però sono già entrati nel training dell’algoritmo.

È difficile tornare indietro, ormai. Si profilerebbe il rischio sanzione e indisponibilità del servizio in Italia. E non solo: i garanti della privacy di Francia, Germania e Irlanda hanno cominciato a collaborare con il nostro Garante per fare le proprie valutazioni. Il problema potrebbe insomma allargarsi a tutta l’Europa, dove vigono le stesse regole.

Inoltre, l’Organizzazione europea dei consumatori (Beuc) il 30 marzo ha chiesto che le autorità europee e nazionali avviino un’indagine su ChatGpt e su chatbot simili, sempre per il rischio di danni alle persone.

Il rischio, secondo il Beuc, è soprattutto quello di manipolare e ingannare le persone con informazioni false. Anche questo è un punto rilevato dal Garante italiano.

Nel mondo

Il Beuc afferma di essere intervenuta dopo che il gruppo della società civile statunitense Caidp ha presentato un simile reclamo alla Federal Trade Commission (l’autorità competente negli Stati Uniti) contro ChatGpt.

In Australia è in corso la prima causa di diffamazione contro OpenAi per falsità scritte da ChatGpt. Il Washington Post, in settimana, ha riferito che ChatGpt si era inventato uno scandalo sessuale riguardante un professore universitario, citando come fonte un articolo inesistente dello stesso giornale americano.

© Riproduzione riservata