Ho provato a chiedere a ChatGpt, il sistema di intelligenza artificiale accessibile online a chiunque, qualche notizia su un tema che conosco abbastanza bene, cioè me stesso, anche per verificare, con toccante narcisismo, se mi (ri)conoscesse.

Dopo averci lavorato non più di un paio di secondi, ha scritto velocemente sotto i miei occhi una ventina di righe sul mio conto.

Il testo è in perfetto italiano, con punteggiatura scrupolosamente esatta e tanto di accapo (due doti sempre più rare, anche nelle scritture degli esperti). ChatGpt quindi mi riconosce, sa che mestiere faccio e dichiara perfino (per fortuna) che sono «rispettato e influente».

Ma gli errori sono più numerosi delle cose giuste. Sbaglia di diversi anni la mia data di nascita, mi attribuisce specialità a me del tutto estranee e s’inventa di sana pianta che avrei insegnato alle Università di Firenze, Parigi e Zurigo, dove ho tutt’al più fatto qualche conferenza.

Mi fa specialista di letteratura italiana e mi attribuisce due premi di cui ignoro anche se esistano: il Premio Flaiano per la critica letteraria e il Premio Internazionale di Saggistica Città di Como!

Opere ignote

Puramente distopica è la risposta alla richiesta di indicarmi qualcuno dei miei lavori. Ha tirato fuori una quindicina di titoli, con tanto di data e sintesi accurate. Peccato che nessuno di quelli, se esiste, sia opera mia.

Ho appreso di essere autore di Perché il mondo non esiste del 2005, che «affronta il tema dell'esistenza e della realtà, analizzando come la nostra percezione del mondo sia influenzata dalla cultura e dalle ideologie».

Ho anche scritto nel 2010 L’italiano è meraviglioso, in cui «esploro le molte bellezze e le sfumature della lingua italiana, esaminando il modo in cui l’italiano è stato influenzato da altre lingue e culture».

Nel 2013, forse in stato di incoscienza, devo avere scritto Come nascono le lingue, in cui ho esaminato «le origini e l’evoluzione delle lingue, mostrando come le lingue si sviluppano e cambiano nel corso del tempo».

Al culmine stanno però le opere che chiudono la lista: La debolezza del vento (2016), un romanzo che «racconta la storia di un uomo che cerca di ricostruire la sua vita dopo la morte della moglie», e La violenza e l’impasse (2019), che esamina «la natura della violenza umana, analizzando i fattori che portano alla violenza e proponendo soluzioni per superare l'impasse».

È curioso che tutti questi titoli, oltre che falsi, siano ingegnosi e ribaldi. Magari in ChatGpt c’è un generatore di titoli che supplisce alle mancanze.

Il linguaggio è arbitrario?

È andata un po’ meglio la domanda se «il linguaggio è arbitrario». Mi ha risposto: «Sì, secondo la maggior parte dei linguisti, il linguaggio è considerato arbitrario. Questo significa che non esiste una connessione naturale tra le parole utilizzate in una lingua e i loro significati.

In altre parole, le parole che utilizziamo per descrivere gli oggetti, gli eventi e i concetti del mondo che ci circonda non sono intrinsecamente legate a ciò che rappresentano, ma sono convenzioni stabilite all’interno di una comunità linguistica.

Ad esempio, non c’è nulla di cavallo che suggerisca che quella parola debba essere utilizzata per descrivere l’animale che conosciamo come “cavallo”. In altre lingue, come il francese, si utilizza la parola cheval per riferirsi allo stesso animale.

Questa arbitrarietà del linguaggio è ciò che consente alle persone di creare nuove parole e significati e di adattarsi ai cambiamenti del mondo che ci circonda. Tuttavia, ci sono anche alcuni elementi del linguaggio che non sono completamente arbitrari, come i suoni utilizzati per formare le parole, che possono essere influenzati da fattori biologici o culturali».

Una risposta generica ma sensata, con tanto di facili esempi, che potrebbe andar bene come compito in classe o anche come inizio di una tesi di laurea (se non altro triennale). Oltre che di arbitrarietà, ChatGpt si è mostrato esperto di economia domestica, dandomi sensati dettagli su come si tolgono le macchie di caffè, un problema che mi si pone ogni tanto.

Da un’oretta di interrogazioni sono uscito insieme impressionato e deluso. È impressionante la prontezza con cui ChatGpt estrae le sue informazioni dai database a cui velocissimamente accede, e ancor più l’accuratezza con cui scrive i suoi testi in italiano. È invece deludente il fatto che, accanto a informazioni giuste, ne scodelli una quantità di sbagliate, fantasiose e insensate.

Uno studio recente di Tyna Eloundou e altri dell’università di Pennsylvania ha documentato che strumenti come ChatGpt (e i sistemi già annunciati, come Google Bard e altri) minacciano molti tipi di lavoro, soprattutto quelli basati su testi e documenti. E in effetti, l’apparizione di un sistema come ChatGpt sta mettendo in subbuglio diversi ambienti.

Anzitutto quelli in cui si scrivono testi, come la scuola o i media. Uno studente disinvolto può prepararsi una ricerca in cinque minuti. Un giornalista di pochi scrupoli può avere un breve pezzo su un tema che conosce poco o ignora del tutto.

Lo studio statunitense, però, non mette in evidenza il rischio che il mondo delle informazioni possa essere travolto dai fake, dai titoli come “la debolezza del vento” e dalle informazioni distorte. Il fake potrebbe imporsi come regola, sempre che, naturalmente, chi usa il sistema sia in grado di distinguere le informazioni corrette dalle castronerie che, come ho visto coi miei occhi, pullulano.

Meraviglioso candore

C’è anche chi, a un livello più astratto, si chiede se l’intelligenza umana cederà il posto a quella artificiale, dichiarando con allarme che ChatGpt supera il test di Turing, la prova elaborata dal matematico britannico Alan Turing.

La macchina supera il test quando dà risposte indistinguibili da quelle di un umano. Astutamente i progettisti di ChatGpt hanno tenuto conto di questo dettaglio. «Tu superi il test di Turing?», ho chiesto a ChatGPT.

Mi ha risposto, con meraviglioso finto candore: «Come assistente virtuale, non ho coscienza di me stessa (si presenta come donna, ndr) né posso sviluppare un’identità o una personalità in modo autonomo; quindi, non posso essere considerata come un agente intelligente con capacità di auto-consapevolezza, ragionamento e apprendimento come quelle richieste per superare il Test di Turing. Tuttavia, come assistente virtuale, cerco di rispondere in modo naturale e di fornire informazioni utili e coerenti alle domande degli utenti».

Per il momento, non mi pare che per l’intelligenza umana ci siano troppi pericoli. ChatGpt attinge a informazioni depositate in database, rivela subito che i database “proprietà del linguaggio” e “macchie sui tessuti” sono più accurati di quello sui “linguisti italiani”, ma non va oltre. È come un lettore insaziabile che, una volta identificato un problema, saltando da uno scaffale all’altro della biblioteca cerca i libri che pensa possano dargli risposta.

Ma l’intelligenza è solo quello? Gli Stoici antichi ne davano una definizione più ricca di quella dei neuroscienziati moderni: l’intelligenza – dicevano – è “sintetica e transitiva”. Cioè è capace di vedere le cose a volo d’uccello, salta dei passi senza sapere perché e scorge analogie, contraddizioni, metafore e sottintesi. Tutte cose che, per il momento, ChatGpt non sa fare: non è buon bibliotecario (inventa i titoli e le date), dà buoni riassunti, quando non sa inventa. Ma niente di più.

Ciò che semmai può inquietare è che scriva così bene in italiano (e, devo supporre, nelle altre lingue che usa), arrivando a battere non pochi professionisti. Ma ancora di più inquieta il fatto che gli umani, pur disponendo di una risorsa potente ed elastica come quella di cui parlavano gli Stoici antichi, non sempre hanno voglia di esercitarla a dovere e preferiscono spesso tenere, per così dire, un profilo cognitivamente piatto. In questo l’intelligenza di ChatGpt e compagni, che per ora tanto intelligente non è, può dargli purtroppo una mano importante.  

© Riproduzione riservata