In questi giorni, settantacinque anni fa, una delle menti più brillanti del ventesimo secolo, il logico e matematico inglese Alan Turing, stava probabilmente dando gli ultimi tocchi a un articolo che continua a essere al centro di un acceso dibattito filosofico, e che costituisce uno dei pilastri teorici del lavoro sull’intelligenza artificiale. Intitolato Computing Machinery and Intelligence (Macchine computazionali e intelligenza), l’articolo – che tocca temi su cui Turing rifletteva già da diversi anni – sarebbe uscito su Mind, la più importante rivista filosofica inglese, nel numero dell’ottobre 1950. Si tratta di un testo abbastanza accessibile anche per un lettore non esperto: la traduzione italiana più recente, a cura e con un’utile nota critica di Diego Marconi, è stata da poco pubblicata in un agile libretto Einaudi di cui consiglio senz’altro la lettura (anche se il titolo italiano di questa edizione – Macchine calcolatrici e intelligenza – semplifica forse troppo il concetto di “computing machinery” come lo intendeva Turing).

Turing morirà, quasi sicuramente suicida, quattro anni dopo, depresso per le conseguenze fisiche e psicologiche del barbaro trattamento a base di estrogeni al quale era stato condannato per “curarne” l’omosessualità: condanna oggi fortunatamente impensabile, e che continua a pesare come un macigno sull’immagine storica del sistema giudiziario inglese. Due anni dopo la morte di Turing, nel 1956, un giovane e promettente matematico del Dartmouth College, John McCarthy, ospiterà presso il suo dipartimento un seminario estivo di ricerca basato su un documento di dodici pagine scritto nel 1955: il documento contiene la prima occorrenza ufficiale dell’espressione “intelligenza artificiale”, e anche la prima mappatura delle varie linee di ricerca esistenti nel settore.

Cosa rimane oggi, di questo lavoro pionieristico? E come mai l’attenzione sull’intelligenza artificiale è esplosa solo pochi anni fa, se la storia dell’IA è così lunga? In realtà, come vedremo, l’intelligenza artificiale delle origini è molto diversa da quella di oggi. Ma alcune tematiche affrontate da quella generazione di studiosi restano centrali.

Quel qualcosa in più

Nel suo articolo, Turing parte da un interrogativo assai semplice: le macchine possono pensare? Per rispondere a questa domanda, dovremmo sapere cosa intendiamo per “macchina” e cosa intendiamo per "pensare”. Dal punto di vista di Turing, la prima domanda è più facile: aveva dedicato la vita a riflettere sul concetto di computazione e di macchina computazionale. Ma concetti come quelli di “pensiero”, “intelligenza” e simili sono molto più ostici: sembra quasi impossibile trovarne definizioni chiare e soddisfacenti. Turing propone allora di cambiare prospettiva: anziché interrogarsi su cosa siano pensiero e intelligenza, chiediamoci invece in quali situazioni siamo portati ad attribuire, a riconoscere pensiero e intelligenza. Concentriamoci insomma sui comportamenti intelligenti, più che sull’intelligenza in sé: chiediamoci quali siano, e se e quali di questi comportamenti potrebbero essere riprodotti da una macchina opportunamente addestrata. Una macchina capace di produrre autonomamente l’ampio spettro di comportamenti sulla cui base attribuiamo intelligenza a un essere umano dovrebbe essere considerata anch’essa intelligente: è questa la base del cosiddetto “test di Turing”.

Quella di Turing è una posizione molto concreta e operativa, che sembra evitare il terreno minato della pura speculazione teorica. Ha però una conseguenza che piace poco a chi non accetta criteri “comportamentisti” per l’intelligenza: il comportamento esteriore – obiettano infatti almeno alcuni fra i suoi critici – ci dice poco su quel che succede dentro la macchina. Nel parlare di intelligenza, normalmente diamo molta importanza anche a quelli che sembrano essere “stati interni” del processo di pensiero: comprensione, consapevolezza, coscienza, autocoscienza… Ma chi ci garantisce che una macchina che si comporta in maniera intelligente sia davvero intelligente? Chi ci garantisce che capisca quel che sta facendo?

Il filosofo John Searle è stato uno dei padri di queste obiezioni, che troviamo ancora, frequentissime, fra chi nega a priori che un sistema di IA come quelli odierni sia o possa diventare intelligente: se il comportamento intelligente non basta, e serve qualcosa in più, le sole capacità del sistema, per quanto sorprendenti, non sono in grado di garantire intelligenza. Ma la forza della posizione di Turing non va affatto sottovalutata: cos’è, esattamente, questo “qualcosa in più”? Come si manifesta, se non esiste un criterio che ci consenta di riconoscerlo? Il rischio di un dualismo in cui uno dei termini dell’equazione – si tratti di “comprensione”, "coscienza” o altro – risulta totalmente misterioso e inattingibile, è dietro l’angolo.

Oltre le visione logico simbolica

C’è invece un altro aspetto dell’intelligenza artificiale classica (quella che oggi viene chiamata anche GOFAI: Good Old-Fashioned Artificial Intelligence, la buona intelligenza artificiale dei tempi andati) che oggi sembra decisamente invecchiato. Tanto Turing quanto i partecipanti al seminario di Dartmouth avevano una concezione fondamentalmente logico-linguistica dell’intelligenza. Per loro, siamo intelligenti soprattutto per la nostra capacità di ragionare e di usare il linguaggio. Anche i comportamenti intelligenti ai quali fa riferimento il test di Turing erano comportamenti logico-linguistici: le capacità della macchina vengono infatti valutate attraverso uno scambio linguistico. Inoltre, si riteneva, alla base del ragionamento c’è la logica, e il linguaggio è in fondo una manipolazione di simboli che deve seguire delle regole: sono queste le capacità che si cerca di riprodurre nella macchina. L’IA classica è dunque innanzitutto logico-simbolica.

Alle spalle di questa concezione c’è una lunga tradizione filosofica: l’idea di Hobbes del linguaggio come calcolo, l’idea di Leibniz che sia possibile descrivere la realtà attraverso una lingua perfetta, basata sull’uso di numeri e su regole semplici ed esplicite… In sostanza, si riteneva possibile produrre macchine computazionali intelligenti perché si pensava che in qualche misura anche la nostra intelligenza fosse computazionale.

Sostenere questa tesi sembra oggi più difficile. Innanzitutto, perché siamo più attenti anche ad altre forme di intelligenza, legate a comportamenti non necessariamente logico-linguistici: intelligenza emotiva, intelligenza spaziale… Ma il grosso problema dell’IA logico simbolica è un altro: nonostante le enormi aspettative delle origini, questi sistemi non si sono avvicinati neanche lontanamente ai risultati promessi.

Nel 1950, Turing ipotizzava che avremmo visto le prime macchine capaci di superare il suo test entro una cinquantina di anni. Ancora nel 1967, lavorando come consulente per uno dei capolavori della cinematografia, il film 2001 Odissea nello spazio di Stanley Kubrick (che uscirà nelle sale nel 1968), un altro dei partecipanti all’incontro di Dartmouth, Marvin Minsky, considerava plausibile l’idea che all’inizio del nuovo millennio avremmo avuto macchine come HAL 9000, il computer (pericolosamente) intelligente su cui ruota una parte fondamentale del film. Pochi anni dopo, lo stesso Minsky riconoscerà, con grande onestà intellettuale e grande curiosità verso nuovi, possibili indirizzi di ricerca, che quell’aspettativa era andata delusa.

L’IA, per avere successo, doveva dunque cercare nuove strade. Quali? Proveremo ad esplorarle fra due settimane, nel prossimo articolo di questa serie.

© Riproduzione riservata