Stop all’uso di ChatGpt da parte degli italiani, finché non rispetterà la disciplina privacy. L’ha deciso il Garante per la protezione dei dati personali e se OpenAi – creatore di questo famoso programma di intelligenza artificiale – non ubbidirà rischia una super sanzione.

La decisione del Garante, comunicata oggi, appare subito notevole agli esperti, per due motivi: primo, perché ora ChatGpt può davvero diventare inutilizzabile, almeno temporaneamente, agli italiani e «sarà interessante vedere se anche Microsoft lo bloccherà all’interno del suo motore di ricerca Bing», spiega Elio Franco, avvocato esperto di privacy.

Secondo, il Garante conferma che non c’è al momento sufficiente garanzia di privacy ogni volta che usiamo questo sistema, per molte ragioni.

I problemi di privacy di ChatGpt

Quella più immediata, da cui è nata l’struttoria del Garante: ChatGpt, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. Il Garante insomma teme che i nostri dati non siano protetti abbastanza contro attacchi esterni.

Ma non solo. OpenAi non fa capire bene come usa le nostre informazioni. «In teoria, utilizza le conversazioni per migliorare l’intelligenza artificiale, ma non è chiaro come lo faccia e se de-identifica i nostri dati rendendoli anonimi», dice Franco.

Nel provvedimento, il Garante privacy rileva appunto la mancanza di una informativa privacy agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche fatte dal Garante, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

«La privacy di tutto ciò che inseriamo su ChatGpt è quindi a rischio. Pensiamo ogni volta che inseriamo dati personali, nostri o di altre persone, per fargli generare un testo in linea con le nostre esigenze», spiega Franco. ChatGpt è utilizzato per ogni cosa, del resto, persino per avere consigli finanziari, di salute o per la gestione delle tasse, come si è visto nella stessa presentazione della sua ultima versione (la 4.0) alla stampa.

Tanti dati sensibili immessi fiduciosamente dagli utenti – 100 milioni circa nel mondo – nel chatbot e chissà come utilizzati da OpenAI; chissà con quanta cura e rispetto delle norme.

E poi c’è il problema dei minori, di per sé grave per il Garante.

«Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza», si legge nella nota con cui il Garante ha annunciato il provvedimento.

Il timore è ad esempio quello che il chatbot sia usato dai bambini come confidente o psicologo (come sta già avvenendo, anche con adulti, a quanto si legge in una recente inchiesta del New York Times). Le risposte, formulate in automatico dal bot, potrebbero essere pericolose per lo sviluppo della personalità del minore.

Che succede ora

OpenAI, che non ha una sede nell’Unione europea, ma ha designato un suo rappresentante in Ue, adesso dovrà comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante. Pena una sanzione fino a 20 milioni di euro o fino al 4 per cento del fatturato globale annuo.

Ieri, a una nostra prova, ChatGpt ancora funzionava in Italia. Sarà interessante vedere la reazione di Microsoft che finora aveva ChatGpt integrato in Bing per un utilizzo rivolto solo a un gruppo selezionato di utenti, ma si stava preparando al lancio pubblico mondiale.

La vicenda offre infine uno spunto di riflessione sulla necessità di trovare un equilibrio tra il grande boom innovativo vissuto ora dall’intelligenza artificiale e le tutele di diritti fondamentali, come spiega l’avvocata Anna Cataleta, «poiché, seppur le funzionalità e le potenzialità dei sistemi di intelligenza artificiale possano portare dei miglioramenti in diversi ambiti, l’addestramento dei sistemi richiede il trattamento un’ingente quantità di dati. Pertanto, l’entusiasmo non deve far dimenticare che le società che mettono sul mercato europeo prodotti di questo tipo non possono prescindere dal raccogliere e trattare i dati nel rispetto della normativa europea sulla protezione dei dati personali».

© Riproduzione riservata