Il secolo corrente ha visto le faville e i crolli in Borsa della dot.com (le compagnie degli algoritmi e di internet), gli affari d’oro delle Big Tech e il ciclico apparire di favole per adulti da spennare: criptovalute, metaverso, non-fungible token (Nft). Da un anno torreggiano gli LLM, Large language model, che conversano e facilitano i compiti di scuola, e già ci si domanda se si tratti d’una bolla.

Un sospetto fondato perché non è affatto chiaro come quelle creature possano ripagare i miliardi di dollari che costano. Tuttavia siamo persuasi che, anche a costo di qualche bancarotta, gli LLM siano “arrivati per restare”. Come è ovvio per strumenti che con la potenza del calcolo automatico esplorano la lingua e dunque il tessuto connettivo del branco degli umani cui dona la “conoscenza espressa ed esprimibile”. Tanto basta, ci pare, perché gli LLM siano cosa seria rispetto alle bizzarrie dei metaversi d’ogni genere.

Il segreto e la capacità esplorativa degli LLM si chiamano com’è noto deep learning, l’apprendimento profondo (un misto di automatismi e di interventi correttivi degli umani) che “impara” la lingua praticandone le parole e mano a mano scoprendola senza la dotazione a priori di dizionari, grammatiche e sintassi.

A questo fine i neuroni artificiali in cui si struttura riposano su strati molteplici (da cui Deep Learning-apprendimento profondo) di calcoli, che soppesano frequenze e modelli di connessioni fra parole. Certo che queste macchine non provano sensazioni, ma sono “solo” capaci di parlarne, ma pur con questo limite fungono, a saperci guardare, da specchio per ogni individuo interessato a conoscere i propri stessi giri della mente.

“Saperci guardare” significa essere abili quanto serve a stimolare la macchina con domande, discorsi, osservazioni (i prompt dell’utente, conclusi da punto semplice, interrogativo o esclamativo) che il software analizza per orientare la risposta. In sostanza non abbiamo a che fare coi robot positronici di Asimov, ma con aggeggi che, per quanto potenti, non ballano da soli e che in più oggi sono attardati allo stadio del “gigantismo verticale”.

La prigione del gigantismo

Gli LLM del momento sono giganti che aspirano a dire un po’ di tutto perché nascono nelle officine delle Big tech che dominano in internet il campo del “generalismo” (ricerca, social, store) e che, considerati i ricavi che ne traggono, ad altro non mirano che tenerselo assai stretto. Per questo ci stanno dando dentro usando l’enorme disponibilità di denaro (e quindi di chip ultrapotenti) di cui al momento si trovano a godere essi soltanto e nessun altro, né Stato né privato.

Risucchiando i dati di wikipedia e altre librerie questi corpaccioni s’alimentano di tutto e si iperdotano di filtri – ovvero di calcoli – a ritmo esponenziale perché la varietà dei temi moltiplica la complessità delle relazioni tra parole.

Il risultato tuttavia è che sanno cianciare un po’ su tutto, ma sono lontani dall’essere affidabili perché spesso scambiano fischi per fiaschi, inventano fandonie e, quel che forse è peggio, lo fanno con impeccabile facondia.

Di certo in quei laboratori si starà pensando che la soluzione stia nell’ingigantire ulteriormente gli LLM , ma questo sarebbe usare per cura la patologia, per non dire che già a scuola si insegna che oltre un dato limite la resa degli investimenti tende a zero e che per andare oltre serve un cambio strutturale di modello.

La prigione dell’inglese

Gli attuali LLM riflettono ovviamente la lingua in cui “apprendono” che per l’Occidente e derivati consiste nell’inglese mentre in parallelo la Cina, un po’ per sua natura e un po’ per il desiderio, diffuso fra gli anglosassoni, di “contenerla”, fa da sola.

Per quanto ci riguarda consideriamo la lingua di Shakespeare e di Melville assolutamente straordinaria invidiandone spesso la capacità di sintesi e l’acutezza. Ma la consideriamo anche lontana anni luce dal riflettere la varietà dei modi di vedere che è depositata nelle migliaia di lingue che abitano il pianeta. Ecco perché ci pare che degli LLM l’inglese sia al momento la risorsa e la prigione.

La fragilità

In ogni caso, che accada in una o mille lingue, non dimentichiamo che addestrare un robot a parlare di tutto è un’utopia senza costrutto. Nel linguaggio circolano infatti formule che solo un umano può intendere nel quadro del contesto del momento e della cultura che si porta nella testa.

Mentre è provato che con target di contenuto specifici i risultati degli LLM divengono brillanti, tant’è che Gpt fa di sicuro i soldi grazie alla capacità di redigere software perché questo altro non è che una lista di istruzioni (per computer) che nulla lascia, né può lasciare, all’interpretazione. Al di là di questo terreno di per sé assai solido, ci sono per gli LLM le paludi della chiacchiera storica, filosofica e così via (per la rovina degli studenti più pigri e creduloni).

Restando assodato che a un LLM non devi chiedere di sommare 1+1 perché non sa calcolare risultati, ma li “riferisce” (giusti o sbagliati è da vedere) se nel corso dell’apprendimento li ha fotografati come brani di discorso.

Prospettive

Posto dunque che gli attuali LLM soffrono sia per la dominanza di lingua e vision inglese sia per la molteplicità delle materie che premia l’approssimazione a danno della precisione, traspaiono dalle newsletter degli esperti tre prospettive. La prima tocca la responsabilità della politica perché mira alla fondazione di vaste library di testi in molte lingue ad uso di Deep learning distinti e separati (ma capaci, speriamo, di incrociarsi per accentuare la serendipity – l’incontro casuale e rivelatore – di rete). Accadrà se gli Stati, intenzionati a esistere nel Web con forza identitaria, metteranno nell’impresa i denari necessari.

La seconda prospettiva attacca il tallone d’Achille degli LLM generalisti s’affida a due fattori: L’obiettivo molto chiaro di sviluppare LLM tanto specializzati da riuscire a filtrare con rigore i dati destinati all’istruzione della macchina; dimensionare rispetto all’obiettivo LLM di taglia e costo minimo rispetto ai colossi tipo Gpt. Ci hanno già provato due ricercatori di Microsoft realizzando un LLM che scriva fiabe per bambini.

Scelta accorta perché il linguaggio dei bimbi è definito e limitato tant’è che i due sono riusciti a metterne insieme un dizionario. Ma fatto questo l’LLM aveva bisogno di milioni di favole perché i dati enormi sono indispensabili al suo modo di addestrarsi e dunque si trattava di trovare un colossale repertorio di racconti favolistici con innumerevoli variazioni fra il “c’era una volta” e il “vissero felici”. Ecco allora l’idea di un programmino capace di variare senza fine le richieste di fiabe di questo o di quel genere e di rivolgersi per la risposta a Gpt, cioè al gigante, che, se lasciato a se stesso è ripetitivo, ma se viene adeguatamente stimolato, può attingere all’infinità dei propri archivi.

E così l’LLM Davide s’è fatto nutrire da Golia e immediatamente vien da chiedersi se i giganti ci staranno ad essere vampirizzati da tante start up a beneficio di mini LLM che costano due soldi. Se prevarrà insomma il lato tetragono e monopolista delle Big tech o se queste si convertiranno a strutture aperte accessibili senza limiti a tariffa. E forse anche qui la politica si troverà a dover decidere qualcosa.

La terza prospettiva è completamente centrata sul potenziamento della capacità dell’utente, anche dei meno scaltriti nelle sottigliezze del linguaggio, di sfruttare a fondo le potenzialità degli LLM con i quali l’importante è saper chiedere. E c’è chi pensa che il percorso sia segnato citando il precedente di Excel che, altro che tabellina raccogli-numeri, è foglio di calcolo dalle potenzialità formidabili verso le quali l’utente è guidato attraverso un insieme di tasti e tendine con assortimento di funzioni.

E questa, c’è da scommetterci a vedere quel che Microsoft prova a fare col suo Bing, è la prospettiva su cui stanno puntando le Big tech per fidelizzare alle loro creature legioni di persone.

© Riproduzione riservata