Ci fanno paura? Sì. Perché loro diventano sempre più intelligenti, noi sempre più stupidi. Loro sempre più profondi e capaci di connessioni, noi sempre più fatui, persi in un universo narcisista, sempre meno capaci di capire, ragionare, fare attenzione. Ci fanno paura i computer, le “macchine” e la loro straordinaria capacità di apprendere, perché una domanda ci gira in testa da tempo: quanto ci metteranno a pensarsi migliori di noi?

Quand’è che gli sembreremo, invece che loro creatori, il granello di sabbia in un ingranaggio perfetto? Sarà il 2029, come sostiene da tempo lo studioso Ray Kurzweil, l’anno della “singolarità” – quello cioè in cui l’Intelligenza artificiale eguaglierà o supererà le capacità cognitive umane? O avremo tempo fino al 2050, come sostengono altri esperti di future studies?

Il tempo in ogni caso corre, nella clessidra. Un esempio che abbiamo tutti sotto gli occhi è l’incredibile miglioramento avuto dai sistemi di traduzione basati sull’Intelligenza artificiale, come Google Translate, DeepL, Amazon Translate, Text Cortex. Anni fa i testi apparivano quasi elementari, oggi sono sempre più sofisticati.

Ma tradurre è un’attività molto umana, forse la più specifica e fondamentale di tutte, perché è parlare che ci rende umani. Tradurre è un compromesso tra culture diverse, tra sistemi mentali e orizzonti di pensiero; non a caso in italiano diciamo “traduttore-traditore”, a significarne la complessità. Come si può insegnare a una macchina a pensare come un uomo?

Una buona domanda per Macduff Hughes, ingegnere capo della squadra di Google Translate. Risponde da Mountain View, sede principale di Google, in cui lavora da 16 anni. «I sistemi di machine learning sono eccellenti imitatori. I bambini guardano gli adulti e cercano di copiare quello che fanno, e noi in fondo stiamo insegnando alle macchine a fare proprio come i bambini: osservare e copiare.

Cerchiamo di fare sì che, come nei problemi matematici, vadano da A a B, imparino a cercare soluzioni. Se fornisci ai computer miliardi di esempi, diventano incredibilmente bravi, aumentano la “definizione” della traduzione. Sviluppano capacità imitative che non avremmo mai pensato possibili».

Nuovo approccio

Lo scatto evolutivo c’è stato tra il 2016 e 2017, quando si è radicalmente cambiato approccio: da “Phrase-based Statistical Machine Translation” a “Neural Machine Translation”. Nel primo caso la macchina individuava specifiche sequenze di parole che ricorrevano in due lingue e traduceva le frasi per spezzoni. Si “chiedeva” insomma: c’è una sequenza di parole che ho già visto altrove? Qual è la più comune sequenza di parole nella traduzione corrispondente? Poi le metteva insieme, le “cuciva” e cercava di farne qualcosa che avesse un senso. «Nel secondo caso, noi ingegneri ci siamo ispirati al funzionamento del cervello umano.

Il cervello è fatto di neuroni connessi tra loro, la sua magia sta nell’organizzazione delle interconnessioni: un neurone si attiva e ne attiva a sua volta altri, e così via in una reazione a catena. Noi ne ricreiamo una versione semplificata: unità numeriche ricevono segnali e attivano a loro volta altre unità; elaborano calcoli e li inviano ad altre unità (fino a centinaia di miliardi). Istruiamo il network fornendo una sterminata quantità di esempi e il risultato che dovrebbe emergerne. È una catena computazionale, quando i calcoli sono giusti lo premiamo».

Il premio non consiste certo in denaro o complimenti: «Se si apporta un cambiamento e si ottiene una risposta migliore, l’algoritmo suggerirà di mantenere quel cambiamento».

Il metodo

Ma come si fa con le lingue meno diffuse, quelle di cui è impossibile fornire milioni e milioni di esempi? Si cerca di combinare le lingue su cui si hanno più materiali con quelle di cui si ha meno. Per esempio: spagnolo e catalano; italiano e corso. «Se hai tanto da inglese a spagnolo e poco da inglese a catalano, puoi istruire la macchina a trasportare ciò che sa dallo spagnolo nella lingua con cui è correlato strettamente, ovvero il catalano», spiega Macduff Hughes. Più dati offri, più capacità e risultati avrai. Più esempi si forniscono, meglio sarà possibile cavarsela anche con lingue poco correlate, per esempio il basco. È così che siamo arrivati a 133 lingue tradotte, utilizzate da mezzo miliardo di persone al mondo. Semplicemente, noi insegniamo al “model” moltissime lingue – alcune con tante risorse, altre pochissime – ma di base gli stiamo insegnando l’idea stessa di tradurre. Potrà così affrontare anche lingue di cui non ha mai “visto” esempi di traduzione».

Vuol dire che esiste la grammatica universale ipotizzata da Noam Chomsky? No, secondo l’ingegnere di Google. Però si può probabilmente parlare di una sorta di lingua universale, espressa in matematica superiore, attraverso cui passano tutte. Per questo motivo: se il modello traduce in italiano e in francese, a un certo punto comincerà a elaborare due diverse rappresentazioni numeriche delle due lingue. «Se 1 è francese e 2 è italiano, creando il modello 1,5 creeremo una lingua ibrido delle due.

È interessante immaginare la possibilità di creare una lingua che le sintetizzi tutte, che abbia tutte le caratteristiche umane di una lingua ma anche tutte le informazioni che abbiamo imparato da tutte le lingue studiate. Ma per ora non ci stiamo lavorando». Già si lavora, invece, a rendere le macchine sempre meno “gender-biased”. Si vuole cioè che non riflettano pregiudizi basati sul genere, dando agli utilizzatori più opzioni di traduzione tra cui scegliere.

Di fronte a macchine capaci di attività sempre più complesse, viene da chiedersi che futuro abbiano i traduttori. «La tecnologia sicuramente sta cambiando questi lavori, come molti altri del resto, ma io credo che toglierà molto della parte noiosa del lavoro e ne creerà di più interessante. Se i miei figli volessero diventare traduttori gli suggerirei di documentarsi, seguire gli studi in corso, capire in che direzione stanno andando. Non considero obsoleto questo lavoro, bisogna solo essere consapevoli delle cose che la tecnologia consente oggi di fare».

© Riproduzione riservata