ChatGpt abbraccia la svolta a favore della privacy e rende più probabile il suo ritorno in Italia già a maggio, in una versione riveduta e corretta. Avrà nuovi diritti esercitabili dagli italiani, in anteprima mondiale, come la possibilità di dire all’intelligenza artificiale di escludere le nostre identità dalle risposte – tema che sta portando alle prime cause di diffamazione nel mondo. O di smettere di usare le nostre conversazioni per l’allenamento dell’algoritmo.

Ci sono questi elementi nel provvedimento che il Garante privacy ha emanato il 12 aprile su OpenAi, la società americana che gestisce ChatGpt (forte di 10 miliardi investiti da Microsoft, che sta integrando questa tecnologia in tutti i suoi prodotti). Stiamo parlando di un sistema di intelligenza artificiale molto noto in grado di rispondere a domande su tutto lo scibile umano e quindi anche scrivere testi di varia natura, da articoli a business plan e lezioni universitarie.

OpenAi ha bloccato l’accesso di ChatGpt dal 31 marzo agli utenti italiani per rispondere a un provvedimento del Garante della privacy che rilevava numerose violazioni delle norme sulla privacy.

Una vittoria per la privacy

Il nuovo provvedimento invece segna una svolta. Il Garante indica sì, in grande dettaglio, cosa OpenAi deve fare, entro il 30 aprile, per tornare online. Ma, a quanto risulta da varie fonti vicine allo stesso Garante, molte di quelle cose richieste OpenAi ha già detto che le farà.

Ecco perché si può dire che probabilmente c’è una schiarita e OpenAi dovrebbe riuscire a tornare già da maggio. Ma si può anche aggiungere, come nota Franco Pizzetti – ex Garante della privacy e costituzionalità all’università di Torino – che questa è una vittoria per la privacy. Perché «OpenAi ha in effetti accettato di cambiare rispettando le norme vigenti in Europa e offrendo diritti finora negati agli utenti».

Ad esempio, OpenAi dovrà aggiungere strumenti utili per permettere agli interessati, anche non utenti del servizio, «di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile», scrive il Garante.

Insomma noi tutti potremo difenderci dalle invenzioni di ChatGpt sul nostro conto. Come successo a quel sindaco australiano che ha denunciato OpenAi per diffamazione, perché ChatGpt gli aveva attribuito inesistenti condanne per corruzione. O il professore universitario americano che secondo il chatbot era stato condannato per (fantomatiche) molestie sessuali.

Il diritto di opposizione

Ma come avvisare tutti, anche i non utenti del servizio, di questa possibilità? «Di concerto col Garante, entro il 15 maggio, OpenAi dovrà infine promuovere una campagna di informazione su radio, televisione, giornali e web per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi», scrive il Garante.

Altro punto: «OpenAi, inoltre, dovrà consentire agli interessati non utenti di esercitare, in modo semplice e accessibile, il diritto di opposizione rispetto al trattamento dei loro dati personali utilizzati per l’esercizio degli algoritmi e riconoscere analogo diritto agli utenti, qualora individui il legittimo interesse quale base giuridica del trattamento».

Insomma, potremo dire all’intelligenza artificiale di non usare le nostre conversazioni per allenare l’algoritmo. Pratica che comporta, tra l’altro, vari rischi per la privacy e non solo. Come la possibilità che il chatbot scriva, in varie conversazioni con terzi, i nostri dati personali ottenuti dai suoi scambi con noi. A Samsung invece è accaduto che in questo modo fuoriuscissero anche segreti industriali, inseriti dai dipendenti nella chat.

Troppo piccoli

Altro punto: OpenAi ora non ha nessun filtro di accesso ai minori di 13 anni e così vìola le norme europee. Il Garante ora chiede due cose: un sistema di richiesta dell’età al momento della registrazione al servizio e, entro il 31 maggio, un piano di azione che preveda, al più tardi entro il 30 settembre 2023, l’arrivo di «un sistema di age verification, in grado di escludere l’accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori».

Ad esempio alcuni social, come TikTok, hanno un sistema di intelligenza artificiale che capisce se l’utente è in realtà un bambino che ha mentito durante la registrazione dell’account.

L’informativa

OpenAi dovrà poi chiarire meglio come usa i nostri dati. E quindi «predisporre e rendere disponibile sul proprio sito un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGpt nonché i diritti attribuiti agli utenti e agli interessati non utenti».

«Per gli utenti che si collegano dall’Italia, l’informativa dovrà essere presentata prima del completamento della registrazione e, sempre prima del completamento della registrazione, dovrà essere loro richiesto di dichiarare di essere maggiorenni», scrive il Garante.

«Agli utenti già registrati, l’informativa dovrà essere presentata al momento del primo accesso successivo alla riattivazione del servizio e, nella stessa occasione, dovrà essere loro richiesto di superare un age gate che escluda, sulla base dell’età dichiarata, gli utenti minorenni».

Una questione di tempi

Infine, un punto tecnico ma critico, la base giuridica del trattamento dei dati personali degli utenti per l’addestramento degli algoritmi: qui il Garante per la privacy ha ordinato a OpenAi «di eliminare ogni riferimento all’esecuzione di un contratto e di indicare, invece, in base al principio di accountability, il consenso o il legittimo interesse quale presupposto per utilizzare tali dati, fermo restando l’esercizio dei propri poteri di verifica e accertamento successivi a tale scelta».

A quanto si apprende, le principali differenze tra quanto richiesto dal Garante ora e quanto OpenAi si era già dichiarato disposto a fare riguardano le tempistiche e il sistema di age verification.

La task force europea

Intanto i garanti europei per la privacy hanno deciso di lanciare una task force comune su ChatGpt, con l’obiettivo di «promuovere la cooperazione e lo scambio di informazioni su eventuali iniziative per l’applicazione del Regolamento europeo». L’esempio italiano ha già fatto scuola.

© Riproduzione riservata