L’intelligenza artificiale sta rapidamente entrando nelle nostre vite, e spesso i media ne parlano confondendo fra loro progetti e tecnologie di natura completamente diversa, che hanno però un aspetto comune: l’uso delle macchine per simulare o emulare artificialmente una realtà naturale. I principali filoni sono tre: la robotica, l’intelligenza artificiale e la realtà virtuale, che si concentrano rispettivamente sulla simulazione del corpo, della mente e dell’ambiente esterno.

Robot e gli altri

La robotica prende il nome dal romanzo R.u.r. (1920) di Karel Čapek, il cui titolo era un acronimo per Robot universali di Rossum: in cecoslovacco la parola robota significa semplicemente “lavoratore forzato”, e i protagonisti della storia erano appunto delle macchine umanoidi senza volontà, poco dopo rappresentate nel film Metropolis (1927) di Fritz Lang. Nei paesi filoamericani sono invece più noti i racconti Io, robot (1950) di Isaac Asimov, e l’omonimo film da essi tratto nel 2004: in uno dei racconti sono enunciate le famose tre leggi della robotica, che impongono ai robot di non danneggiare l’uomo, di obbedirlo e di auto-preservarsi.

L’intelligenza artificiale ha invece raggiunto il grande pubblico più tardi, soprattutto grazie al computer Hal del film 2001: Odissea nello spazio (1968) di Stanley Kubrick, tratto dall’omonimo romanzo di Arthur Clarke. Ma fin dalla sua nascita il computer è stato pensato come un “cervello elettronico”, le cui potenzialità si estendevano enormemente al di là delle semplici competenze numeriche. Già nel 1950 Alan Turing, che l’aveva inventato nel 1936, si chiedeva se fosse possibile insegnargli a giocare bene a scacchi, o addirittura a farlo conversare in maniera indistinguibile da un uomo, e propose di considerare intelligenti i computer in grado di superare questo test.

Al contrario, la robotica agli inizi non era un’impresa informatica, ma meccanica, con antichi e illustri precedenti: gli automi dell’imperatore Chin, la Galatea di Pigmalione, le teste parlanti di Alberto Magno, il Golem del rabbino Löw, l’homunculus di Paracelso, l’anatra di Vaucanson, il giocatore di scacchi del barone Von Kempelen, il Frankenstein di Mary Shelley, le macchine ribelli di Erewhon, eccetera. Ma coniugando la robotica con l’intelligenza artificiale si arriva a formulare il sogno della produzione di macchine antropomorfe indistinguibili dall’uomo, come quelle rese popolari dal film Blade Runner (1982) di Ridley Scott.

Quest’ultimo era basato sulle visioni di Philip Dick, che lui stesso riassunse nel discorso L’androide e l’umano (1972) pronunciato al quinto Convegno di fantascienza di Vancouver: «Un giorno forse vedremo un uomo sparare a un androide appena uscito da una fabbrica di creature artificiali e l’androide, con grande sorpresa dell’uomo, prenderà a sanguinare. Il robot sparerà di rimando e, con sua gran sorpresa, vedrà una voluta di fumo levarsi dalla pompa elettrica che si trova al posto del cuore dell’uomo. Sarà un grande momento di verità per entrambi».

La realtà virtuale costituisce il terzo e ultimo passo del percorso di meccanizzazione del mondo, e tende a ricreare ambienti artificiali indistinguibili da quelli naturali, allo stesso modo in cui gli androidi sono indistinguibili dagli uomini. Al pubblico l’idea è arrivata con il romanzo Il neuromante (1984) di William Gibson, e soprattutto con i due film Il tagliaerbe (1992) di Brett Leonard e Matrix (1999) delle sorelle Wachowski: il primo introduceva l’idea della connessione multimediale al computer tramite una tuta sensoriale per le percezioni e un dispositivo a snodo cardanico per i movimenti, mentre il secondo mostrava come poteva apparire la vita all’interno di un mondo virtuale generato dal computer.

Naturalmente, anche per la realtà virtuale ci sono precedenti illustri. Anzi, si può dire che in fondo tutto l’entertainment (sport, gioco, religione, mitologia, psicanalisi, arte, filosofia, letteratura, teatro, opera, radio, cinema e televisione) costituisce un’unica grande impresa collettiva di produzione e fruizione di realtà virtuali nelle quali l’essere umano si immerge, rischiando di annegarci: non a caso si parla di sospensione dell’incredulità, in generale, e di illusione filmica, in particolare, per lo stato psicologico di chi vi partecipa o ne fruisce, a metà strada tra la pura allucinazione e la piena coscienza.

Come già per la robotica, anche per la realtà virtuale la differenza la fa ancora una volta il computer. Se per i media convenzionali la libera uscita nella virtualità avveniva a piccole dosi, eccetto in casi patologici quali la ludopatia, il misticismo o il bovarismo, dalla televisione in poi si può ormai parlare di assuefazione, soprattutto ai videogiochi, alla rete e ai social network. L’overdose arriverà dapprima con la realtà aumentata dei Google glasses, e poi con la realtà virtuale dei visori e delle tute sensoriali, che causeranno la transizione dagli esseri coscienti del vecchio mondo a quelli ipnotizzati descritti nel romanzo Il mondo nuovo (1932) di Aldous Huxley.

Intelligenza artificiale

Come si può intuire da questi brevi cenni, la robotica è soprattutto un’impresa di produzione, ormai largamente diffusa nelle fabbriche e nelle industrie, benché più nella forma di utili arti meccanici, che non di inutili robot antropomorfi. La realtà virtuale è invece soprattutto un’impresa di distrazione, come dimostra l’interessamento nel campo di Mark Zuckerberg: emblematica, a questo proposito, la foto da lui postata su Facebook il 21 febbraio 2016, che lo mostra al Congresso mondiale del cellulare di Barcellona alla stregua di un personaggio di Dick, unico a vederci chiaro senza visore, in una platea di gente immersa solipsisticamente nella realtà virtuale.

Delle tre imprese di meccanizzazione del reale, la più stimolante e intrigante è sicuramente l’intelligenza artificiale, che ci permette di guardare allo specchio il nostro lato più profondo e complesso: non l’aspetto muscolare dell’azione, come nella robotica, né quello viscerale del divertimento, come nella realtà virtuale, ma l’attività intellettuale esercitata dal cervello e dalla mente. A seconda che si intendano riprodurre soltanto gli effetti del nostro pensiero, o anche i processi che portano alla loro formazione, si parla di simulazione o di emulazione. E a seconda che ci si concentri su alcuni compiti mentali specifici, o si punti invece a una abilità universale, si parla di intelligenza artificiale debole o forte.

I successi raggiunti nel corso dei primi decenni successivi al Congresso di Darmouth del 1956, nel quale si posero le basi per il progetto dell’intelligenza artificiale, riguardano soprattutto le simulazioni deboli. Nel 1966 il programma Eliza di Joseph Weizenbaum mostrò quanto sia facile imitare efficacemente le conversazioni che uno psicanalista intrattiene con un paziente. Nel 1970 il sistema esperto Mycin inaugurò la lista dei programmi interattivi che permettono di effettuare diagnosi e prognosi di malattie specifiche.

Nel 1976 Kenneth Appel e Wolfgang Hakel dimostrarono con un massiccio uso del computer il teorema dei quattro colori, primo esempio di verità non verificabile dal solo cervello dell’uomo. E nel 1997 il programma Deep Blue batté per la prima volta in un torneo ufficiale il campione mondiale di scacchi in carica: oggi i grandi maestri non sono più competitivi contro i programmi, così come gli atleti olimpici non lo sono più da tempo contro le automobili.

Negli ultimi decenni si sono affrontate le difficoltà più sottili dell’intelligenza artificiale, a partire dalla simulazione della capacità istintiva di riconoscimento di volti, motivi musicali, opere d’arte e calligrafie: non a caso, ancor oggi il test per dimostrare in rete che non si è un robot consiste appunto nel riconoscere lettere scritte in maniera strana o distorta. La novità in questo campo sta nelle tecniche di deep learning, “apprendimento profondo”, basate sull’uso delle reti neurali introdotte nel 1943 dal neurofisiologo Warren McCulloch e dal matematico Walter Pitts, a loro volta modellate sulla struttura del sistema nervoso: un esempio recente è il programma AlphaZero, che in poche ore di autoapprendimento ha raggiunto il livello del programma campione mondiale di scacchi (Stockfish), giocando in maniera quasi umana.

Una nuova èra

L’intelligenza artificiale sta dunque uscendo dall’èra della bruta simulazione del pensiero, ed entrando nell’èra della sua sottile emulazione, e arriverà forse a rispondere a una serie di profonde domande sull’uomo e sul computer. Ad esempio, si può imitare la complessa biochimica del cervello tramite la semplice elettronica? Un cervello isolato può funzionare, anche senza un corpo? E si può imitare la neocorteccia, senza imitare anche un cervello rettiliano sottostante? Inoltre, si possono, o addirittura si devono, insegnare valori umani a una macchina? E si può evitare che una macchina sviluppi valori propri, alternativi o contrapposti ai nostri?

Il che ci conduce a pensare ai possibili rischi che possono derivare dallo sviluppo dell’intelligenza artificiale. Rischi teorici, derivanti dall’impossibilità di sapere se un computer farà sempre e soltanto tutto ciò che gli ordiniamo di fare, perché il problema della verifica di correttezza dei programmi è dimostrabilmente indecidibile. E rischi pratici, derivanti ad esempio da manipolazioni fraudolente di dati, come negli scandali della Telecom nel 2006, o di Facebook e di Cambridge Analytica nel 2019. O da errori nelle interpretazioni dei dati, come nelle false allerte di attacchi nucleari nel 1983 in Unione Sovietica e nel 2018 alle Hawaii, o nel flash crash della borsa di New York nel 2010.

Ma i rischi maggiori derivano dalla Superintelligenza, come la chiama Nick Bostrom in un inquietante libro del 2014, consigliato da Bill Gates e Elon Musk. Cioè, da un’intelligenza artificiale molto superiore a quella umana, che sfruttata da individui o governi malintenzionati, o addirittura sfuggita al controllo umano, potrebbe diventare ancora più pericolosa del nucleare o del clima, che invece oggi monopolizzano le preoccupazioni degli ingenui.

© Riproduzione riservata