Da dove proviene l’intelligenza artificiale? Di fronte a questa domanda possiamo scegliere di essere molto superficiali e rispondere: «Ovvio, dall’avanzamento dei microprocessori, dall’affinamento degli algoritmi complessi, dal progresso nel machine e deep learning!». Ma a questa risposta può fermarsi solo un ingegnere informatico, un tecnico del settore, oppure uno sguardo molto superficiale.

La domanda iniziale infatti ci impone di adottare anche una prospettiva filosofica e psicologica, che ci permetta di scandagliare le radici concettuali, culturali e addirittura inconsce che hanno spinto l’essere umano del tardo XX secolo a tuffarsi nella creazione di entità virtuali i cui effetti possono essere devastanti e il cui funzionamento ci resta in buona parte misterioso.

Solo in questa prospettiva possiamo comprendere il (forse esagerato) grido d’allarme di Elon Musk e altri intellettuali sui pericoli dello sviluppo irrefrenabile di Gpt-4 e i suoi derivati, così come l’inquietudine che soggiace nel nostro animo ad ogni interazione con Chat Gpt: di fronte ad essa ci sentiamo incerti, traballanti, insicuri di quel che stiamo facendo, inconsapevoli degli effetti della relazione che intratteniamo con essa, sentendoci meravigliati ma anche piccoli e ignoranti, forse sminuiti a causa delle capacità che questo strumento dimostra di avere.

Perciò, proviamo ad essere meno superficiali nel tentativo di rispondere alla domanda: da dove proviene l’intelligenza artificiale?

L’incentivo a mentire

La lettera di Musk & co. esprime la necessità di sospendere temporaneamente lo sviluppo di Gpt-4 e le sue derivate per permettere alla società di sviluppare le giuste “contromisure”. Il fatto che si ripropone continuamente sotto i nostri occhi è il seguente: le tecnologie di falsificazione della realtà sono economicamente più incentivanti rispetto ai possibili antidoti.

L’avanzamento dei cosiddetti deepfake, ovvero video artefatti in cui si riesce ad avere la perfetta riproduzione di qualsiasi individuo per fargli dire qualsiasi cosa, è infinitamente più conveniente rispetto alla creazione di software che riescano a smascherare tali finzioni; la produzione di un testo narrativo che venga spacciato per una pagina di Jorge Luis Borges, quando invece è la creazione di Gpt-4, è molto più profittevole rispetto allo sviluppo di tecnologie che possano prevenire la diffusione di tali inganni.

Di fronte a tutto questo, appare evidente che l’intelligenza artificiale trova il suo terreno fertile proprio nell’incentivo culturale a mentire, ingannare e raggirare l’essere umano. In fin dei conti, il concetto di I.A. nasce proprio da una prospettiva di manifesta menzogna.

Distinguere il vero dal falso

Lo stesso test di Alan Turing, il padre dell’artificial intelligence, descrive la prospettiva dell’inganno: «Un computer meriterà di essere chiamato intelligente quando riuscirà a ingannare un essere umano facendogli credere di essere umano». E sarebbe poco saggio non vedere un fil rouge concettuale tra tutte le tecnologie sviluppate negli ultimi settant’anni, il cui legame psicologico è proprio quello dell’inganno.

Attualmente, l’intelligenza artificiale è l’ultimo ritrovato in fatto di menzogna e l’obiettivo dichiarato degli sviluppatori è proprio quello di rendere indistinguibile l’interazione tra umano-umano e tra umano-Ia. Cos’altro è questo, se non un raggiro che l’essere umano sta imponendo a sé stesso?

Perciò, mi appare evidente che la radice filosofica più profonda della nostra relazione con l’intelligenza artificiale è morale ed etica: siamo talmente abituati ad accompagnarci all’inganno e alla menzogna, abbiamo così profondamente metabolizzato l’idea della bugia come alleata di vita, da non avere nessun tipo di problema nell’accettare la valanga tecnologica avanzante in cui rischiamo di perdere inesorabilmente la capacità di distinguere il vero dal falso.

Arrendersi alla menzogna

Il motivo per cui le tecnologie dell’inganno come i deepfake sono economicamente profittevoli, ma le contromisure no, è che siamo psicologicamente arresi al potere devastante della menzogna e l’unica cosa che possiamo sperare è far sì che dopo la bugia largamente diffusa esista una smentita mediamente efficace (insomma, ci siamo abituati all’idea di non poter far prevalere la verità, ma di poter solo “limitare i danni” delle finzioni).

La ragione per cui investiamo così tanti soldi nell’hacking dei sistemi informatici ma così poche risorse nella cybersicurezza è che non crediamo davvero di poter smascherare le bugie perché esse sono ormai dominanti e indistinguibili dalla verità.

Le radici della nostra acritica adozione di ChatGpt stanno proprio nel fatto che abbiamo espulso il concetto di “verità” dalla prospettiva etica di cui siamo il prodotto, convincendoci che possiamo solo sperare in “menzogne migliori” e “inganni meno dannosi”, concedendo alla bugia un ruolo di primissimo piano nelle nostre esistenze.

La resa alla menzogna

L’effetto sociale di tutto ciò è evidente: non educhiamo più i nostri figli a cercare e dire la verità, li educhiamo ad essere persuasivi, a mentire con nobili fini; nel giornalismo spesso derubrichiamo l’onestà intellettuale ad un optional e preferiamo raccontare le cose nel modo più conveniente ed efficace; la popolarità e il consenso, nuove forme della menzogna collettiva, hanno preso il sopravvento a discapito dell’autenticità e della veridicità. Chat GPT è solo l’ultimo ritrovato in fatto di menzogna.

Andare a scandagliare le motivazioni culturali che hanno portato a un tale dominio della menzogna è un lavoro che sarebbe forse improbo per un breve scritto come questo e saremmo costretti a chiamare in causa Nietzsche, la “morte di dio” e il post-modernismo.

Non tenterò di cimentarmi in questa impresa, rischiando di risultare verboso oppure troppo superficiale. Ma mi sembra importante rendersi conto di come, alla base dell’uso che stiamo facendo delle intelligenze artificiali, sta proprio la nostra resa incondizionata alla menzogna e all’auto-inganno intesi come unica via percorribile.

Distinguere la verità

Il vero pericolo rappresentato dall’Ia non è quello che essa diventi più intelligente di noi: questo è impossibile, dal momento che queste tecnologie possono essere solo il risultato della rielaborazione (per quanto complessa e abnorme) di quello che già siamo e conosciamo. Il reale pericolo è che l’adozione acritica di tali strumenti ci renda più stupidi (cosa che già sta accadendo da tempo), ma soprattutto meno propensi a dire la verità.

Quando si parla di “dire la verità” ovviamente si apre il vaso di Pandora e tutti si accavallano urlando: «Ma chi sei tu per decidere cosa è vero e cosa non lo è?» – la risposta è che nessuno lo decide, ma ognuno di noi lo sente.

Considerandoci come entità in possesso di un certo grado di intelligenza e autocoscienza, tutti noi sappiamo perfettamente quando e perché stiamo dicendo la verità oppure stiamo mentendo ad un nostro amico, al nostro partner, in un video di YouTube, dentro un messaggio pubblicitario.

Utilitarismo

Il rapporto tra verità e menzogna, come ben ci ha insegnato Nietzsche, è impossibile da esprimere con un discorso scientifico e oggettivo: solo io, nella solitudine del mio animo, so che sto mentendo o che sto dicendo il vero (questo è il motivo per cui, in ambito giuridico, si distingue tra “verità” e “verità processuale”: la prima è inaccessibile e solo l’imputato sa se ha compiuto o meno il fatto di cui è accusato; la seconda è provabile, ma sarà sempre fallibile).
Il problema è che, in un mondo dominato dalla ricerca dell’oggettività, quel rapporto soggettivo ha perso di significato e invece di spingerci ad essere creature tendenti alla verità, ci ha convinti dell’inconsistenza della verità: essa ha poca importanza perché la mia soggettività è poco importante.

In questo frangente, la prospettiva etica più diffusa è quella dell’utilitarismo: il bene non è dire la verità, ma dire ciò che diffonde un utile. La verità soggettiva spesso non è poi così utile, anzi: rischia di essere economicamente poco profittevole rispetto ad una menzogna ben impostata. Perciò, così come il fine giustifica i mezzi, l’utile dà significato alla bugia.

E sappiamo bene che dall’utilitarismo di Bentham, questa prospettiva ha fatto molta strada e molti danni, arrivando a Sam Bankman-Fried e all’effective altruism (secondo cui il bene non è dire la verità oppure comportarsi moralmente, ma agire in modo da diffondere il massimo utile per il massimo numero di persone possibile, e se questo nobile fine lo devi perseguire rubando miliardi di dollari ai risparmiatori, beh, sei giustificato fintantoché non vieni scoperto, ovviamente!). La menzogna ha trovato il suo dominio quando abbiamo smesso di prenderci il rischio soggettivo della verità, perché in fin dei conti convenivano le bugie nobilitate da fini utilitaristici.

La nostra malattia

Nel suo L’avversario, Emmanuel Carrère descrive i crimini del protagonista dicendo: “Jean-Claude Romand si era ammalato di menzogna.” Credo che questa frase sia perfettamente applicabile alla nostra società e alla relazione che stiamo intrattenendo con le tecnologie dell’auto-inganno.

Siamo ammalati di una menzogna che ci ha persuasi di essere l’unica strada percorribile verso la felicità e il progresso. Ci siamo circondati di bugie tecnologiche in conseguenza della perdita della nostra verità soggettiva.

E così, spaventati come siamo dalla solitudine e dalla poca convenienza di dire e cercare la verità, ci troviamo impantanati nel pericolo di perdere del tutto e per sempre la capacità di dire e riconoscere la verità.

Auto-inganni

Questo essere ammalati di menzogna è perfettamente rappresentato dal caso del presidente del Gabon che nel 2018, dopo essere sparito dai radar pubblici per qualche settimana, si è mostrato in un video dopo quella che era stata descritta come una breve malattia.

La popolazione e i vertici militari, convinti che quel video fosse un deepfake, hanno rischiato di portare ad un colpo di stato, con catastrofiche conseguenze per tutti. Questo episodio descrive la parabola infernale della menzogna intesa come valore etico: quando l’essere umano si convince di poter mentire “per nobili fini”, accumulando piccole bugie volte alla diffusione di un utile, alla fine dei conti si ammala e rischia di collassare sotto il peso di tutti quegli auto-inganni.

Il costo della verità

Da estimatore del progresso tecnologico mi trovo perciò preoccupato, prima filosoficamente che tecnologicamente: siamo ammalati di menzogna e Gpt-4, con tutto il suo incentivo economico e culturale ad ingannarci, rischia di rovesciare del tutto la nostra capacità di discernere il vero dal falso.

E dal momento che la scienza e la democrazia si basano sulla nostra capacità di non confondere quelle due dimensioni, la posta in palio è altissima. Perciò, la domanda che dobbiamo porci a questo punto è la seguente: esiste la possibilità di costruire una società dove l’incentivo economico a dire la verità prima della menzogna sia premiante, in cui la capacità di essere intellettualmente onesti sia desiderabile tanto quanto l’essere persuasivi?

La storia della filosofia ci dice di no: la verità sarà sempre più costosa della menzogna e noi cadremo inevitabilmente in quest’ultima, sperando di riuscire poi a raccogliere i cocci di quanto mandato in frantumi.

Tecnologie dell’auto-inganno

Ma allora, possiamo almeno smettere di raccontare a noi stessi e ai nostri figli che la bugia è l’unica forma di relazione possibile con la realtà circostante? Possiamo tornare a dire: è sempre meglio dire la verità rispetto a raccontare una balla, anche se mi pare economicamente meno conveniente? Possiamo affermare, senza sentirci gli ingenui del villaggio, che un computer il cui obiettivo è ingannarmi per sembrare umano forse non è un computer che possa fare del bene alla mia ricerca della felicità?

Magari, ponendoci queste questioni, Gpt-4 e le tecnologie dell’auto-inganno potrebbero tornare ad essere nostre alleate e non bastoni tra le ruote di questa strana cosa che è l’esistenza umana, che è vera, concreta, tangibile, e merita di essere raccontata con l’onestà che ChatGpt non potrà mai restituirmi.

© Riproduzione riservata