Il blocco dell’intelligenza artificiale ChatGpt per gli utenti italiani sta diventando un caso politico. Il leader della Lega Matteo Salvini ha attaccato su Twitter il Garante privacy, accusandolo di minare l’innovazione e (persino) l’economia del paese. Gli fa eco il deputato di Forza Italia Emilio Russo, che denuncia un «grave danno per migliaia di aziende». Non è chiaro da dove si traggano queste stime economiche e non è la sola nota confusa intorno a questa vicenda.

Domani ha consultato numerosi esperti giuristi e tecnologi; ne sono emersi due piani di lettura. Su quello giuridico, solo una minoranza di addetti ai lavori ha dubbi sull’azione del Garante, che peraltro in questi giorni comincia a essere avvallata anche dai suoi omologhi in Francia, Germania e Irlanda.

Poi c’è il piano fattuale, sul quale non sembra proprio possibile trovare una correlazione tra la (temporanea) chiusura di ChatGpt e un freno all’innovazione in Italia. Con buona pace degli strali salviniani.

Cosa è successo

I fatti: venerdì il Garante Privacy ha mosso vari rilievi alla società americana OpenAi (forte di 11 miliardi di investimenti da Microsoft) riguardo al programma ChatGpt, alimentato dall’intelligenza artificiale (IA), in grado di rispondere (quasi) sempre correttamente sull’intero scibile umano.

Ha fatto notare il non rispetto delle regole europee sulla privacy, chiedendo entro venti giorni chiarimenti, pena il rischio di sanzioni fino al 4 per cento del fatturato o 20 milioni di euro. OpenAi di tutta risposta, venerdì sera stesso, ha inibito l’accesso agli italiani a ChatGpt.

«L’autorità ha preso una decisione innovativa, dove l’Italia anticipa un’era di regole sull’intelligenza artificiale in Europa», ha detto Franco Pizzetti, ex Garante privacy, autore di diversi libri sul tema, professore emerito di diritto costituzionale a Torino.

E in effetti martedì l’ufficio del Commissario federale per la protezione dei dati e la libertà di informazione martedì ha comunicato che potrebbe prendere una decisione simile; i Garanti di Irlanda e Francia hanno contattato quello italiano per avere informazioni e valutare, da parte loro, il caso.

Sono d’accordo con Pizzetti molti avvocati specializzati come Anna Cataleta, Massimo Borgobello, Rocco Panetta, Elio Franco (tra quelli consultati da Domani); alcune voci critiche mettono in dubbio la violazione della privacy da parte di Open AI (Massimiliano Nicotra, Andrea Monti; quest’ultimo lo scrive sul proprio blog) o i poteri del Garante in merito (Fulvio Sarzana, sul Fatto Quotidiano).

I rilievi

Su un piano giuridico, basti sapere che il Garante ha mosso due rilievi soprattutto. Il primo, è l’assenza di una informativa, da Open AI, sul trattamento dei dati personali, il che non ci consente i capire come sono raccolti e trattati i dati personali degli interessati.

Il secondo è, invece, che OpenAI tratta anche dati di bambini (minori al di sotto dei tredici anni). OpenAI ignora così la base dei diritti in vigore in Europa. Fa quello che fa, anche con i bambini, senza dirci nulla sulla presenza di tutele poste a evitare abusi; non ci consente di opporci al trattamento, di dirgli ad esempio che i nostri dati non dovrebbero essere usati per allenare l'algoritmo.

È un salto nel buio spinto dalla fede nell'innovazione; cosa che magari non genera polemiche negli Stati Uniti, ma in Europa le cose funzionano diversamente.

Da notare però che da basi di principio analoghe, ma di copyright invece che di privacy, negli Usa sta sorgendo un movimento di artisti e editori contro ChatGpt appunto perché questo usa dati senza chiedere permesso alcuno, con il rischio di violare diritti.

Una certa convergenza di voci critiche, tra i giuristi, c’è solo sulle modalità dell’azione del Garante; gli si rimprovera che avrebbe potuto consultarsi prima con altre autorità e spiegare meglio i problemi privacy, nel provvedimento.

Questioni di opportunità “politica”, più che di sostanza, insomma; il Garante ha invocato però la necessità di un intervento d’urgenza (previsto dalle norme), tanto che il provvedimento (aspetto ignorato da molti) è provvisorio. Deve essere ancora ratificato dal consiglio del Garante.

La tecnologia

Silas Stein/picture-alliance/dpa/AP Images

Anche diversi tecnologi che si sono espressi sul tema, come Stefano Quintarelli, Massimo Canducci, Juan Carlos De Martin e Marco Camisani Calzolari, hanno dato ragione al Garante. Non si può parlare di freno all’innovazione nemmeno in teoria, perché ChatGpt è soltanto un programma.

La sua tecnologia, questa sì innovativa, resta utilizzabile da tutti; compresi i vari startup e imprenditori tech, in cerca di visibilità (forse di “destra”), che ora si dicono danneggiati nel business.

Ci sono numerosi altri programmi, anche gratuiti, che consentono di accedere alla stessa tecnologia e fanno le veci di ChatGpt (persino è nato un emulo italiano, PizzaGpt).

La tecnologia è ancora disponibile per qualunque altro programma che gli stessi imprenditori tech potrebbero sviluppare (pagando OpenAi per la licenza). Come l’app Duolinguo, che ne ha fatto un insegnante di lingua interattivo.

Il vero problema politico è un altro: questo governo non ha dato ancora seguito al piano per l’intelligenza artificiale (nato sotto Draghi). Tema che il Pd ora sta cercando di rilanciare: Anna Ascani (vicepresidente della Camera) questa settimana ha avviato un ciclo di audizioni di esperti e operatori.

© Riproduzione riservata