Finora i computer e la rete erano stati strumenti prevalentemente “servili”. Oggi, questa situazione sembra cambiare radicalmente: per la prima volta svolgono compiti che siamo abituati a considerare “creativi”. Ma cos’è, esattamente, l’intelligenza artificiale generativa?
Nel giro di cinquant’anni, il mondo dell’informatica ha attraversato almeno tre grandi rivoluzioni: la prima, attorno alla metà degli anni ’80 del secolo scorso, con la nascita dei personal computer; la seconda, nel corso degli anni ’90 e a cavallo del nuovo millennio, con la nascita del World Wide Web e con la diffusione generalizzata di Internet; la terza, all’inizio degli anni ’10, con la diffusione degli smartphone e degli altri dispositivi mobili connessi alla rete. La quarta rivoluzione, ormai avviata, è quella dell’intelligenza artificiale.
Sarebbe interessante discutere se ciascuno di questi sviluppi possa essere annoverato fra quelle che Schumpeter definiva «innovazioni che fanno epoca»: quelle che trasformano in profondità tutti i dati della vita economica e provocano “onde lunghe” nei cicli di sviluppo. Se fosse così (e credo lo si possa argomentare), le nuove tecnologie dell’informazione e della comunicazione avrebbero provocato non solo cambiamenti di grande portata a livello sociale ed economico, ma un’accelerazione avvenuta attraverso scatti successivi, molto ravvicinati fra loro, ciascuno dei quali produce una riconfigurazione radicale nei meccanismi produttivi, lavorativi, comunicativi, culturali delle nostre società.
In ogni caso, come e forse ancor più delle prime tre rivoluzioni, quella rappresentata dall’intelligenza artificiale promette (o minaccia) di cambiare profondamente il mondo intorno a noi.
Il cambio di paradigma
Finora i computer e la rete erano stati strumenti prevalentemente “servili”, guidati dall’intelligenza umana: un programma di videoscrittura ci aiuta a scrivere, ma non crea testo al posto nostro; un programma di grafica aiuta a disegnare o a ritoccare una fotografia, ma non produce autonomamente immagini; la rete è uno straordinario strumento per la diffusione e condivisione di contenuti informativi, ma quei contenuti sono creati da noi, non dalla macchina.
Oggi, questa situazione sembra cambiare radicalmente: per la prima volta, i computer svolgono compiti che siamo abituati a considerare creativi. I sistemi di intelligenza artificiale generativa producono testi, immagini, suoni che non esistevano prima, e che sono diversi da quelli su cui sono stati addestrati: il corpus di addestramento influenza e indirizza il processo di generazione, ma questo processo non produce “copie”, produce oggetti informativi nuovi.
ChatGPT e i molti altri sistemi generativi nati negli ultimi anni traducono un articolo, scrivono o commentano una poesia, creano immagini quasi impossibili da distinguere da quelle prodotte da artisti umani, possono comporre (e non solo eseguire) un brano musicale. E possono eseguire autonomamente compiti anche assai complessi: alcuni potenzialmente utilissimi – AlphaFold, un sistema di Ia sviluppato dagli ingegneri di Google, permette di scoprire le strutture tridimensionali delle lunge e complesse catene di aminoacidi che costituiscono le proteine, svolgendo in pochi minuti un compito che prima richiedeva anni di lavoro –, altri potenzialmente assai pericolosi, come la guida di un missile o di un drone, o la creazione di nuove tipologie di agenti patogeni o di virus informatici.
Domande difficili
Ma cos’è, esattamente, l’intelligenza artificiale generativa? Come ha potuto raggiungere in pochi anni risultati così sbalorditivi? Può essere davvero “creativa”? Può, in prospettiva, raggiungere e superare (o addirittura sostituire) l’intelligenza umana? Che effetti avrà sul mercato del lavoro, o in settori come l’istruzione e la formazione? Può essere pericolosa, e in quali modi? Come possiamo essere sicuri che rispetti i nostri valori? E quali sono, esattamente, i valori che desideriamo veder rispettati, considerando che società umane diverse sembrano adottare sistemi valoriali almeno in parte diversi e in qualche caso anche conflittuali?
Alcune delle domande che ci poniamo davanti a questi sistemi, e di cui ho fornito solo qualche esempio, sono legate al desiderio di “capirli” meglio: capire quali sono i loro principi di funzionamento, quale è stata la loro evoluzione, cosa potrà succedere in futuro. Altre sono domande decisamente filosofiche, che richiedono una riflessione non solo sulla possibilità di costruire sistemi intelligenti, ma sulla natura stessa dell’intelligenza (a partire dall’intelligenza umana), o sul significato di concetti come quelli di intenzionalità, agentività, creatività, o, ancora, sui sistemi di valori che devono o dovrebbero guidare la nostra ricerca in questo settore.
Sono domande che hanno però tutte un elemento comune: per provare a rispondere in maniera sensata, e non solo per luoghi comuni, occorre sapere – almeno a grandi linee – di cosa stiamo parlando. E per sapere di cosa stiamo parlando, occorre approfondire. Sarebbe infatti non solo sbagliato ma potenzialmente assai fuorviante pensare di poter rispondere alle domande “difficili” senza prima capire un po’ meglio come funzionano i sistemi di intelligenza artificiale di oggi, molto diversi da quelli del passato.
Esperti in disaccordo
Purtroppo, in questo campo errori di comprensione e fraintendimenti non mancano, neanche fra gli specialisti. È così abbastanza comune sentir dire che l’Ia generativa fornisce le sue risposte “copiando” dal proprio corpus di addestramento – mentre, come si è già accennato, non è affatto così – o che l’Ia generativa è sostanzialmente stupida perché commette moltissimi errori: l’attribuzione o meno di intelligenza a sistemi di questo tipo dipende largamente da cosa intendiamo per “intelligenza”, e in molti casi può essere senz’altro problematica; ma se gli errori fossero di per sé un sintomo della mancanza di intelligenza, non dovremmo attribuire intelligenza neanche agli esseri umani, che purtroppo sbagliano assai spesso.
Peraltro, nel caso dell’Ia la possibilità di ricevere risposte sbagliate dipende in parte dal meccanismo stesso di generazione (su cui mi ripropongo di tornare in un prossimo articolo, dato che questo è il primo di una serie), ma dipende spesso anche da nostri errori: ad esempio dal fatto di non conoscere la differenza fra un sistema generativo e un motore di ricerca come Google, che non “genera” risposte nuove ma si limita a cercare pagine Web che contengano i termini sui cui la ricerca è stata svolta. Vero è che da qualche settimana Google stesso unisce, nel fornirci un risultato, i risultati di una ricerca tradizionale e una sintesi prodotta dall’Ia generativa. Ma siamo sempre in grado di capire la differenza, e di valutare l’affidabilità di queste due componenti della risposta e la loro relazione?
È bene infine ricordare che in molti casi, anche fra gli esperti, le risposte alle “domande difficili” sono tutt’altro che univoche; interrogati sul loro grado di accordo o disaccordo con l’idea che alcuni sistemi di Ia generativa “capiscano” il linguaggio, 480 ricercatori del settore si sono mostrati divisi in maniera quasi perfettamente uguale fra le quattro risposte possibili previste dall’indagine: accordo totale, accordo parziale, disaccordo parziale, disaccordo totale (se ne volete sapere di più o risalire ai dettagli dell’indagine potete consultare un articolo molto interessante di Melanie Mitchell, professoressa del Santa Fe Institute: LLMs and Word Models, all’indirizzo https://aiguide.substack.com/).
Per molte fra le domande “difficili” che abbiamo menzionato, dunque, non esiste necessariamente una risposta univoca o condivisa. Cosa che rende, credo, ancor più importante e interessante esplorare con attenzione gli sviluppi di questo settore di ricerca.
© Riproduzione riservata