Eccoci di nuovo insieme, Europa!
Siamo alla trentunesima edizione dello European Focus!
Sono Judith Fiebelkorn, la caporedattrice di questa settimana, e scrivo da Berlino.
L'utilizzo dell'intelligenza artificiale ad esempio per tradurre da una lingua all'altra è già da tempo di uso comune, come vi confermeranno i giornalisti che lavorano insieme a questo focus europeo, e che provengono da paesi diversi, con lingue diverse fra loro. La gran parte di noi ha fatto esperienze del genere.
Ma con la rapida accelerazione della rivoluzione dell’intelligenza artificiale, sono sorti nuovi timori e nuove domande, di sicuro non solo tra di noi. I computer ci porteranno via il lavoro? L’Europa sarà ancora una volta superata dai giganti tecnologici degli Stati Uniti e della Cina, come abbiamo già visto con l’ascesa dei social network?
Come si fa a capire se un’intelligenza artificiale ha torto, se è condizionata o discriminatoria? La gente si dividerà tra chi controlla la tecnologia e chi è alla sua mercé?

Come può una società mantenere il controllo dell'intelligenza artificiale? Sempre che non sia una causa persa in partenza. Allora forse quel controllo dobbiamo riprendercelo?
Insomma, qui non stiamo parlando di tecnologia, ma di potere. Di risorse. Di chi decide che cosa è vero e cosa no.
Temi cruciali, che in questa edizione iniziamo ad affrontare. Buona lettura!
Judith Fiebelkorn, caporedattrice di questa settimana


Il tempo delle regole

L'intelligenza artificiale, anche qualora si doti di coscienza, non sarà onnipotente. Foto Abigail Russell

TALLINN - Indrek Seppo è uno scienziati dei dati dell’università di Tartu, in Estonia. Visto che Seppo è un esperto di intelligenza artificiale, ci siamo confrontati con lui su potenzialità e limiti di questo strumento.
Gli imprenditori tecnologici hanno pubblicato una dichiarazione congiunta, alcuni mesi fa, suggerendo di sospendere per sei mesi lo sviluppo dei sistemi di intelligenza artificiale. Cosa ne pensa?
Non credo che sarebbe tecnicamente fattibile. Inoltre, non ho alcuna fiducia nel fatto che basterebbero sei mesi per essere in grado di capire come procedere. Se l’intelligenza artificiale arriverà a sviluppare una coscienza – il che, ve lo dico, secondo me è piuttosto inevitabile – al momento non abbiamo la più pallida idea né di come si comporterà né degli usi che ne deriveranno.
I paesi dovrebbero preparare una legislazione, o comunque una cornice istituzionale di qualche tipo, per regolare l’uso ormai sempre più frequente dell’intelligenza artificiale?
Sì, le nostre leggi devono necessariamente cambiare per via dell’intelligenza artificiale. Ma il problema è che nessuno sa come. L’introduzione di norme tanto per fare non gioverebbe a nessuno e potrebbe solo peggiorare la situazione. Un semplice esempio: abbiamo milioni di schede grafiche in mano alla gente. Come si fa a regolamentare ciò che un adolescente fa nella propria camera da letto? Buona fortuna!
Quali sono i più diffusi fraintendimenti sull’intelligenza artificiale?
L’intelligenza artificiale non è onnipotente. Diventerà brillante, probabilmente acquisirà una coscienza, ma non sarà onnipotente. Prendere il sopravvento costituirà una seria sfida persino per l’intelligenza artificiale, visto che per farlo non basta certo avere un intelletto sovrumano.
Circola pure un’altra idea sbagliata sull’intelligenza artificiale: l’idea che quest’ultima non sia altro che una macchina statistica che imita l’intelletto. Come a dire: se una cosa assomiglia a un’anatra, starnazza come un’anatra e funziona come un’anatra, allora è un’anatra! In molti si preoccupano del fatto che l’intelligenza artificiale voglia riprodursi e conquistare il mondo. Potrebbe pure succedere, ma non è affatto certo. I nostri umanissimi desideri si sono evoluti molto prima delle nostre menti. Forse fra qualche anno i nostri migliori psichiatri saranno lì a investigare, cercando di capire come mai l’intelligenza artificiale continui a volersi spegnere.
Greete Palgi scrive per Eesti Päevaleht


IL NUMERO DELLA SETTIMANA: 350 MILIONI

BERLINO - Ci sarà mai un’alternativa europea a ChatGPT? Lo sviluppo dell’intelligenza artificiale richiede un’enorme capacità di elaborazione per addestrare i modelli di linguaggio di grandi dimensioni - peccato che quest'ultima sia una risorsa costosa, che le principali università e aziende europee non hanno.
Secondo uno studio dell’Associazione tedesca per l’IA, la realizzazione di un centro dati di questo tipo richiederebbe una spesa di 350 milioni di euro. È l’equivalente della somma necessaria per costruire 50 chilometri di autostrada. L’associazione ha dato il via a un’iniziativa con nove paesi europei per sviluppare un progetto. Ma non è neppure certo che il governo tedesco voglia cofinanziarlo. La discussione sul budget è stata oggetto di discussioni per mesi.
Oliver Voß è il vicecapo di Tagesspiegel Background Digitalization & AI


TRASCURARE LA PRIVACY CI STRAVOLGE LA VITA

Immagine: Tumisu

MILANO / VIENNA - A marzo il Garante per la protezione dei dati personali ha temporaneamente bloccato in Italia ChatGPT di OpenAI. L’autorità ha, tra gli altri aspetti, criticato OpenAI per non aver specificato come vengono addestrati i suoi algoritmi e per non aver offerto ai propri utenti la possibilità di cancellare o correggere i dati inesatti.
Da allora OpenAI ha apportato alcune modifiche e il Garante ha autorizzato nuovamente l’utilizzo del software, ma i dubbi rimangono.
Nella nuova privacy policy, OpenAI dichiara che l’intelligenza artificiale viene addestrata utilizzando «informazioni pubblicamente disponibili su Internet». Ciò significa che per addestrare l’algoritmo l’intelligenza artificiale analizza i contenuti della rete come un web crawler (cioè raccoglie dati in modo indiscriminato, in stile pesca a strascico).
Tale attività è problematica ai sensi del Regolamento generale sulla protezione dei dati (GDPR) dell’Ue. Per fare un esempio, non è generalmente ammesso usare un post pubblico sul mio blog in cui parlo di unioni LGBTQ+ per creare un database di persone LGBTQ+ che potrebbe essere messo in vendita a un governo reazionario.
OpenAI cita anche un’altra fonte: «informazioni ottenute in licenza da terzi». Non è chiaro chi siano questi “terzi” e come raccolgano i dati. Il GPDR vieta l’uso di database creati illegalmente (è un problema generale, nessun riferimento specifico a OpenAI).
La seconda questione riguarda i diritti dell’interessato. Il Garante ha chiesto che ChatGPT adotti strumenti che permettano, tra le altre cose, la rimozione e la rettifica dei dati su richiesta dell’interessato. La società ha apportato alcune modifiche, ma ha dichiarato di non poter garantire la rettifica dei dati per ragioni tecniche.
Ancora una volta, si tratta di un problema che non riguarda solamente ChatGPT, dal momento che queste tecnologie vengono sempre più utilizzate in altri settori, come l’assunzione di personale. Per esempio, se vi state candidando per un lavoro, un reclutatore potrebbe bloccare le vostre possibilità di ottenere il posto per via di informazioni inesatte su di voi che si trovano su un database creato illegalmente o comunque inesatto.
Queste sono alcune tra le domande senza risposta che richiedono una presa di posizione chiara da parte dei governi nazionali e delle istituzioni europee.
Stefano Rossetti, avvocato specializzato in diritto dei media e protezione dei dati, lavora per Noyb, il Centro europeo per i diritti digitali con sede a Vienna


SARÀ VERO O FALSO?

Questo è lo screenshot da un webinar ucraino dedicato all’utilizzo dell’intelligenza artificiale nell’identificazione della propaganda. In due mesi ha raggiunto oltre 16mila visualizzazioni su YouTube. Tradotto, recita così: 1. “intensificare la rivalità geopolitica” – affermazione carica emotivamente 2. “si stima che ridurre i legami commerciali sia costoso” – constatazione 3. “la forma di disaccoppiamento deve essere legata alle modalità di approvvigionamento di un mercato estero” – constatazione 4. “abbandonare alcune di queste modalità di approvvigionamento è più costoso che abbandonarne altre” – constatazione 5. “le aziende occidentali che continuano a portare avanti operazioni commerciali in Russia potrebbero essere accusate di “commercio con il nemico”” – affermazione carica emotivamente 6. “l’economia della Russia è sufficientemente grande da essere una prova credibile della volontà di disassociarsi” – constatazione 7. –

KIEV - “Nel presente testo ci sono frasi con tono emotivo, affermazioni sovraccariche, figure retoriche? Si prega di identificarle, tokenizzarle ed elencarle tutte.”
Il testo nell’immagine qui sopra è una risposta all’istruzione fornita a ChatGPT da Tymofiy Mylovanov, presidente della Scuola di Economia di Kiev, durante una masterclass dedicata all’utilizzo dell'intelligenza artificiale per rilevare e combattere la disinformazione. Il testo analizzato era uno studio dell’Università di San Gallo in Svizzera sulle imprese occidentali rimaste in Russia dopo la sua invasione dell’Ucraina del 2022.
«Scoprire e smascherare la disinformazione è una delle sfide più importanti che l’Ucraina sta affrontando. Se si scelgono con attenzione le istruzioni da inserire, ChatGPT può analizzare enormi quantità di informazioni; non lo fa bene come degli umani addestrati appositamente, ma lo fa in appena pochi minuti», dice Mylovanov.
I nuovi strumenti di intelligenza artificiale sono visti in maniera positiva in Ucraina e vengono utilizzati nella formazione a distanza, nelle riunioni di lavoro, nella compilazione del bilancio e in guerra.
D’altro canto, funzionari ed esperti chiedono che venga sviluppata una politica di utilizzo di ChatGPT. Inoltre, c’è da rimanere delusi quando ChatGPT risponde agli utenti usando narrazioni che fanno eco alla propaganda russa.
Anton Semyzhenko coordina la sezione in lingua inglese di Babel.ua


L'ESPERIMENTO E GLI INDIGNADOS

Un tweet del team di progettazione grafica di El Confidencial. Il testo recita: A El Confidencial abbiamo iniziato a lavorare con le immagini generate dall’IA, e i risultati sono... a) impressionanti b) preoccupanti c) entrambe le definizioni sono corrette

MADRID - "Non è etico utilizzare l’intelligenza artificiale per l’illustrazione", ha sostenuto Mikel Janín, famoso fumettista e lettore di El Confidencial, quando ha interrotto l’abbonamento al nostro giornale.
Non si è trattato di una critica isolata, ma di un riflesso del malcontento che molti utenti hanno espresso come reazione a un esperimento che abbiamo condotto lo scorso aprile, quando abbiamo utilizzato uno strumento di intelligenza artificiale per realizzare un’illustrazione poi condivisa su Twitter.
Credo che ci siano molte lezioni da imparare da quanto accaduto. Un giornale come El Confidencial guadagna e perde lettori ogni giorno, ma perdere Mikel mi ha colpito in maniera particolarmente dura, per cui ho scritto una lettera esortandolo a ritornare.
La condivido con voi.
Caro Mikel, la prego di accettare le mie scuse. L’esperimento era limitato a quell’episodio. L’immagine è stata chiaramente etichettata come generata dall’intelligenza artificiale, come abbiamo spiegato in un thread su Twitter. Tuttavia, la comunicazione con il pubblico è cruciale. Senza dubbio, il tweet non è stato sufficiente a trasmettere il nostro messaggio. Come abbonato, merita una spiegazione.
Ho visto alcuni tra i principali organi d’informazione crollare perché non hanno saputo accettare i cambiamenti tecnologici, o perché li hanno addirittura rifiutati apertamente. Non possiamo aspettarci che un giornale all’avanguardia si astenga dal fare esperimenti con innovazioni del genere. L’arrivo dell’intelligenza artificiale tra i media è inarrestabile: chi non si adatta declina.
L’esperimento di illustrazione non è stato portato avanti come sostituzione del lavoro di un professionista. È stato condotto dal nostro team di progettisti grafici, che hanno sperimentato la tecnologia più innovativa degli ultimi decenni. I format, le infografiche e gli speciali che hanno realizzato – molti dei quali sono stati premiati – testimoniano il valore che attribuiamo all’arte grafica. Il modo migliore per affrontare la discussione sull’intelligenza artificiale non è quello di negarne l’esistenza. Gli abbonati come lei possono far sentire la propria voce nella nostra redazione e assicurarsi che qualsiasi tecnologia venga utilizzata in modo etico.
Invito lei e tutti coloro che si sentono delusi a non abbandonarci per via di un passo falso. La prego di tornare a prendere parte alla discussione insieme a noi. Dopotutto, anche noi siamo preoccupati dell’impatto dell’intelligenza artificiale.
Enrique Andrés Pretel è caporedattore di El Confidencial


Qual è la tua impressione su questo tema? Ci piacerebbe riceverla, alla mail collettiva info@europeanfocus.eu se vuoi mandarcela in inglese, oppure a francesca.debenedetti@editorialedomani.it

Alla prossima edizione! Francesca De Benedetti


(Versione in inglese e portale comune qui; traduzione in italiano di Marco Valenti)

© Riproduzione riservata