Le macchine possono pensare? Per decenni, la celebre domanda posta da Alan Turing nel 1950 ha ricevuto sempre la stessa risposta: no, non possono. Negli ultimi mesi, questa certezza ha però iniziato a vacillare: cos’altro può essere, se non la dimostrazione di pensiero intelligente, l’articolo redatto per il Guardian da Gpt-3, l’intelligenza artificiale creata da OpenAi, non profit fondata e finanziata da Elon Musk?

Specializzato nella riproduzione del linguaggio naturale, Gpt-3 ha scritto un lungo editoriale in cui articola in maniera impeccabile le ragioni per cui gli esseri umani non dovrebbero avere paura del più potente algoritmo di deep learning lo strumento oggi sinonimo di intelligenza artificiale – mai visto all’opera: «Perché, ti potresti chiedere, gli esseri umani dovrebbero mettersi di proposito in pericolo? Non è forse l’essere umano la creatura più avanzata del pianeta? Perché dovrebbero pensare che qualcosa di inferiore, in un senso puramente oggettivo, potrebbe distruggerli?».

A queste domande, Gpt-3 ha poi puntualmente risposto citando Matrix, analizzando le conseguenze della rivoluzione industriale, discutendo dell’etimologia di robot (“costretto a lavorare”) e molto altro ancora.

Robot reporter

Da anni esistono e sono utilizzati software in grado di scrivere semplici articoli di sport, meteo o finanza (com’è il caso di Automated Insight, usato dalla Associated Press, o di Cyborg, impiegato invece da Bloomberg), in cui i numeri e i dati che ne costituiscono l’elemento principale – e che sono i più adatti a essere usati da un sistema di machine learning – vengono contestualizzati all’interno di un breve testo creato automaticamente. Una nota casa editrice come Springer Books, invece, ha già reso disponibile un manuale sulle batterie al litio interamente scritto da un algoritmo (battezzato Beta Writer); mentre un sistema di deep learning come Botnik si è cimentato con la produzione di sequel di Harry Potter dalla qualità quanto meno altalenante.

Ma le ambizioni e i risultati dei software di intelligenza artificiale appena citati non sono nemmeno paragonabili a quanto eseguito dall’algoritmo di OpenAi, che tra l’altro è in grado di svolgere una gamma di compiti molto più ampia: Gpt-3 ha dimostrato di saper scrivere codici per software, ideare titoli virali, commentare in maniera coerente i testi letti e molto altro ancora. Tutte abilità che derivano dall’immenso network neurale (il “cervello”) di questo algoritmo, dotato di 175 miliardi di parametri (l’equivalente digitale delle nostre sinapsi) che lo rendono di gran lunga il più grande mai creato. Anche il database usato per il suo addestramento è di dimensioni impressionanti: 450 gigabytes di informazioni all’interno dei quali è contenuta anche l’intera Wikipedia in lingua inglese.

L’apprendistato

Per imparare a replicare il linguaggio umano, Gpt-3 ha ricevuto in pasto una marea di testi digitali, dai quali erano però state rimosse alcune parti. Gli sviluppatori hanno quindi chiesto all’algoritmo di riempire la parte mancante in maniera coerente, pescando dal dataset contenente le soluzioni. Ogni volta che riusciva nel compito, all’algoritmo veniva indicato che la scelta era stata quella corretta. Una sorta di “premio” che rinforza le connessioni neurali che hanno eseguito con successo il loro compito.

Dopo aver impiegato tutta la sua potenza per eseguire questo esercizio centinaia di migliaia di volte, Gpt-3 ha imparato a interpretare il contesto. E a prevedere così autonomamente quali frasi potrebbero avere le migliori probabilità di completare coerentemente quelle precedenti. Gpt-3 è in grado di proseguire il lavoro potenzialmente all’infinito, continuando a trovare frasi che completino coerentemente anche quelle da lei appena scritte.

Per fare un esempio semplice, Gpt-3 è in grado di capire che la frase «porto il mio cane a fare una passeggiata» ha più probabilità di essere corretta rispetto a «porto la mia banana a fare una passeggiata». E che questa frase potrebbe benissimo essere seguita da «prima di andare a dormire», ma non da «sulla luna». Questo perché Gpt-3 ha analizzato una tale quantità di testi da riuscire a prevedere, statisticamente, quali frasi e parole hanno più probabilità di essere coerenti con il resto del testo.

È qui che sta il trucco: come ha spiegato in più occasioni Gary Marcus – neuroscienziato della New York University e fondatore della startup di machine learning Geometric intelligence – i sistemi come Gpt-3 «non apprendono ciò che avviene nel mondo, ma imparano come le persone usano le parole in relazione ad altre parole». Il loro lavoro, in definitiva, è una sorta di colossale copia-incolla, in cui una miriade di variazioni di testi assorbiti dall’algoritmo vengono cuciti assieme in maniera più o meno coerente, senza però avere nessuna comprensione di ciò che si sta effettivamente dicendo.

Stupido o intelligente

Lo stesso Gary Marcus ha in effetti dimostrato come Gpt-3 produca con grande frequenza anche frasi prive di alcun significato, e come si smarrisca immediatamente quando le viene richiesto di eseguire un ragionamento logico. Per esempio, dopo aver letto un testo in cui si chiedeva come far passare da una porta un tavolo troppo largo, Gpt-3 ha completato il periodo raccomandando di tagliare orizzontalmente la porta in due e di rimuoverne la parte superiore. Una pessima soluzione al problema. E di esempi assurdi di questo tipo ce ne sono a centinaia.

Ma allora come ha fatto il Guardian a far scrivere a Gpt-3 un saggio breve di tale qualità? In verità, hanno utilizzato qualche trucchetto. Come segnalato da loro stessi in coda all’articolo, non si sono limitati a fornire l’introduzione (i primi due paragrafi) che l’algoritmo ha poi continuato a scrivere, ma gli hanno fatto produrre otto versioni diverse, selezionando poi le parti migliori di ciascuna, cucendole assieme e facendo anche un po’ di editing (d’altra parte, anche gli articoli degli esseri umani vengono editati). In più, è molto probabile che Gpt-3 fosse stata addestrata specificamente a elaborare testi sul tema della “paura delle intelligenze artificiali” e che di conseguenza fosse, diciamo così, particolarmente preparata sull’argomento.

Dal punto di vista della sintassi, quindi, c’è poco da dire: Gpt-3 scrive in maniera estremamente precisa e corretta. Meno bene se la cava con la semantica: le sue frasi saranno anche in un inglese perfetto, ma l’algoritmo non ha la più pallida idea di cosa stia dicendo, di quale sia il significato di quelle parole e di come si relazionino con il mondo. Se quelle frasi suonano così intelligenti, è perché siamo noi esseri umani a comprenderle, interpretarle e a metterle in relazione con la nostra esperienza. In poche parole, in tutta questa vicenda c’è una sola forma di intelligenza: la nostra.

Cervello artificale

D’altra parte, un filosofo come John Searle ha dato una risposta inequivocabile alla domanda di Alan Turing da cui siamo partiti: le macchine potrebbero pensare a livello umano solo se la loro configurazione materiale raggiungesse un livello di complessità equivalente a quella del nostro cervello. E per quanto le dimensioni del network neurale di Gpt-3 siano imponenti, riprodurre digitalmente la mente umana non è solo un compito ancora oggi al di là di ogni nostra possibilità tecnologica, ma non è nemmeno detto che potrà mai essere possibile. Finché queste macchine saranno completamente prive di una qualche conoscenza del mondo, potranno insomma solo scovare semplici correlazioni statistiche in un mare di dati, ma senza avere alcuna comprensione del concetto di causalità. In parole semplici, un algoritmo può capire che c’è una correlazione tra la presenza delle nuvole e la pioggia, ma non può sapere che sono le nuvole a causare la pioggia.

Questa mancanza di comprensione del mondo può avere esiti sorprendenti. Per insegnare a un algoritmo a riprodurre graficamente dei gatti, alcuni informatici si sono per esempio affidati alla fonte più abbondante di immagini in cui sono protagonisti questi felini: i meme. Risultato? Poiché nei meme è sempre presente una parte testuale, l’intelligenza artificiale – a causa della fortissima correlazione – si è convinta che anche il testo fosse parte integrante di ciò che un gatto è.

È possibile superare dei limiti che, nonostante i risultati a prima vista sorprendenti, ostacolano in maniera insuperabile l’evoluzione dell’intelligenza artificiale? È ancora presto per dirlo, ma è proprio ciò su cui sta lavorando, tra gli altri, uno dei padri del deep learning (e vincitore del Turing Award 2018): Yoshua Bengio. Il suo obiettivo è sfruttare quello che chiama “meta-apprendimento” per insegnare alle macchine ad apprendere concetti astratti e generali e poi ad applicarli in casi particolari. In poche parole, se l’intelligenza artificiale vuole diventare davvero intelligente deve riuscire a conquistare ciò che ancora oggi le manca: un po’ di buon senso.

 

© Riproduzione riservata