Ci sono tanti motivi per interessarsi all’intelligenza artificiale, ma il più interessante è quello scelto da Daniel Andler: «L’intelligenza artificiale è la filosofia della conoscenza perseguita con altri mezzi». Secondo il professore emerito della Sorbona, l’intelligenza artificiale è anzitutto uno strumento di riflessione sull’intelligenza umana, che resta eccezionale e «almeno in parte irreplicabile».

Dimostrare ciò – utilizzare cioè la scatola degli attrezzi della matematica e della filosofia per argomentare che l’intelligenza umana non può essere rimpiazzata dalle macchine – è diventato per Andler la grande sfida sin dai tempi in cui faceva le sue ricerche all’università di Berkeley alla fine degli anni Sessanta. Studi, riflessioni e ossessioni che confluiscono ora in Il duplice enigma. Intelligenza artificiale e intelligenza umana, in arrivo in Italia con Einaudi il 21 maggio, e che saranno oggetto di dibattito sabato a Trieste, quando Andler interverrà al festival Scienza e Virgola.

Anche se «è difficile non fare la Cassandra quando si pensa ai rischi che l’intelligenza artificiale comporta», c’è almeno un punto sul quale «il carattere ottimista» del filosofo si rivela, ed è l’idea che dovremmo tutti essere più consapevoli di quanto eccezionale sia la nostra umana intelligenza. «Le macchine propongono una vita facile, fatta di problemi risolti, ma siamo davvero convinti che sia questo ciò che conta?».

Secondo Andler una strada per preservare la nostra umana intelligenza esiste, e comincia già dall’infanzia. Lui la chiama «bilinguismo», e significa che l’intero sistema educativo, dall’asilo all’università, non dovrebbe limitarsi ad allevarci assieme alle tecnologie, ma prevedere anche la via alternativa, cioè senza. Il bilinguismo – ovvero la doppia lingua – serve anzitutto a non rincretinirci noi, mentre le macchine provano a fare la parte delle intelligenti.

Quando ha realizzato che occuparsi di intelligenza artificiale era cruciale per lei?

Direi già a fine anni Sessanta, durante un seminario in California. Avevo già studiato a Parigi, e mi ero formato principalmente in matematica, ma sempre con la filosofia sullo sfondo. Poi ho fatto domanda per l’università di Berkeley, e qui sono approdato nell’autunno 1969. Tramite amici ho incontrato Hubert Dreyfus, che adesso non c’è più e che all’epoca, per quanto giovane, era già un brillante filosofo. Assieme a suo fratello Stuart, si stava occupando proprio di quello che all’epoca era l’esordio dell’intelligenza artificiale, nata ufficialmente nel 1956 ma cresciuta nel dibattito proprio negli anni Sessanta.

I due fratelli Dreyfus osservavano lo hype, il clamore, attorno a questo tema, e decisero di avviare una linea di pensiero critica sull’intelligenza artificiale. Fu durante un seminario proprio su questo che io realizzai ciò che poi mi ha cambiato la vita. Il tema era: una macchina può pensare come un umano? Io avrei detto sùbito di no, ma capii in quel momento che argomentarlo era assai più complesso, e che la risposta era assai più difficile di quanto avessi pensato fino ad allora: era una vera e propria sfida intellettuale. Al seminario ascoltai gli argomenti di grandi filosofi come John Searle o Charles Taylor. Sono stato attratto dalla critica esistenziale all’intelligenza artificiale.

Per rispondere alle sfide intellettuali che l’intelligenza artificiale solleva, quanto è importante combinare scienze dure e umane? Lei è matematico e filosofo.

La mia formazione matematica è utile a non farsi intimidire dalle dichiarazioni esagerate e dalle promesse trionfalistiche che talvolta escono dalla bocca degli uomini d’affari che lavorano con l’intelligenza artificiale. Ma per quanto io abbia avuto a che fare con la matematica per almeno un quarto di secolo, mi sento anzitutto un filosofo.

Credo che proprio la filosofia abbia avuto un ruolo fondamentale in tutta questa partita, e che lo abbia ancor di più oggi che non c’è trasparenza. L’intelligenza artificiale è assai legata alla scienza cognitiva: sono nate nello stesso periodo, e sin da sùbito hanno attirato l’attenzione dei filosofi, i quali hanno svolto un ruolo chiave nella costruzione di uno spazio concettuale nel quale entrambi gli ambiti si sono potuti sviluppare. I filosofi – in particolare i filosofi della scienza, di mente e linguaggio – sono stati essenziali nel valutare i modelli proposti dagli scienziati computazionali, nel capire su cosa si basassero e che tipo di contributi offrissero.

All’epoca si trattava di una sorta di indagine sul pensiero. Ma oggi tutto ciò assume rilevanza ancor maggiore visto che i modelli di intelligenza artificiale attuali sono fondati su tecniche tutt’altro che trasparenti. Gli stessi ingegneri che ci lavorano non sanno esattamente come e perché funzionano. Secondo il principio verum-factum di Vico si conosce ciò che si fabbrica; ma questo principio è violato dai computer, che una volta messi in funzione diventano imprevedibili. I filosofi non hanno la chiave per tutto, ma hanno l’attitudine filosofica alla analisi critica concettuale, che è ancor più preziosa quando non ci sono altri strumenti per guardare dentro una tecnologia sempre più potente e sempre più misteriosa.

Nella sua opera, quando argomenta la specificità dell’intelligenza umana rispetto all’artificiale, fa riferimento al ruolo dei giudizi. Se interpreto bene, a fare la differenza è anche l’etica: orienta la nostra intelligenza, a differenza di quella di una macchina.

I sistemi di intelligenza artificiale possono essere buoni per risolvere i problemi, ma è l’intelligenza umana a tradurre una situazione in un problema, e lo fa secondo uno specifico punto di vista, dettato dalla storia personale per esempio. Per gli esseri umani l’idea di confrontarsi con le situazioni nel modo appropriato implica il tema estremamente normativo di che cosa sia da ritenersi appropriato. Talvolta si tratta di etica, altre di estetica, ma più in generale c’è un set di norme che definisce cosa sia appropriato e che non è riducibile a criteri puramente oggettivi.

Apre a infinite discussioni, anzitutto tra noi e noi stessi, poi sulla base dei giudizi altrui. Quel che è da ritenersi giusto cambia in base a prospettive e tempi. Le macchine offrono problemi risolti, ma non sempre è questo ciò che conta: ok, una lavatrice rende la vita più semplice, però non si può adottare la facilità come criterio universale.

Ai tempi d’oro di Google, Nicholas Carr si domandava: «Internet ci rende più stupidi?». E se l’intelligenza artificiale ci rincretinisse?

È assolutamente così. Quando penso alle conseguenze dell’intelligenza artificiale, devo trattenermi per non apparire come una Cassandra. Ma sì, può renderci molto stupidi, e in svariati modi. Perciò penso che in futuro il nostro sistema educativo debba mantenere quello che io chiamo «bilinguismo», e cioè entrambi i percorsi, con e senza supporti tecnologici.

Ma se i sistemi di intelligenza artificiale, gestiti da corporation private, penetrano le filiere produttive e lo spazio pubblico, mantenere le distanze diventa arduo.

Lo è, anzitutto per una economia dell’attenzione che ci distrae, poi perché siamo tutti connessi e nessun uomo può restare un’isola; e inoltre perché siamo dentro una società che ci tuffa in questo sistema integrato delle comunicazioni. La ragione del successo e della diffusione dei sistemi di intelligenza artificiale sta anche nel fatto che paiono rispondere allo zeitgeist.

Ma proprio in ragione di tutte queste tendenze diventa cruciale preservare distanze e distinzioni – anzitutto tra la nostra intelligenza e quella delle macchine – per poter mantenere un controllo. Immettere macchine i cui processi non controlliamo nel nostro spazio pubblico significa non render conto del loro impatto. L’intelligenza artificiale va resa meno tossica. E ognuno va incoraggiato a essere consapevole della propria unicità come essere umano.

© Riproduzione riservata