Siamo a un anno da quando le Ai (Artificial Intelligence) parlanti, e definite “generative” o di “sintesi profonda”, sono uscite dai laboratori di Alphabet (casa madre di Google e Youtube), Meta, Microsoft e Baidou. Si tratta di robot versatili che replicano alle richieste dell’utente con discorsi compiuti e non solo con liste di siti potenzialmente interessanti. Alla base c’è la imitazione dentro i chip di alcuni passaggi propri del cervello quando raccorda lingua e percorsi della mente.

L’entusiasmo dei conoscitori della robotica di Asimov esplose puntualmente quando a luglio 2022 Mr. Lemoine, capo progetto di Google, diramò la sua intervista a LaMDA (Language Model for Dialogue Application) per dimostrare che l’Ai “sentiva” e condivideva con gli esseri viventi l’essenza della vita.

Ma Google non gradì e su due piedi licenziò quel mistico ingegnere e mise la faccenda  piedi a terra schierando un battaglione di scienziati a spiegare per iscritto che le sottigliezze linguistiche di LaMDA non derivano da un salto evolutivo da macchina a sapiens, ma da concreti marchingegni (detti Transformer) adottati in virtù della potenza dei chip nati per fare soldi con i videogames. A conferma che LaMDA non era frutto di miracolo, ma di concretissimo lavoro (e di molto capitale), in poche settimane spuntarono altre Ai fino allora covate dentro le Big Tech.

Fra tutte fu Gpt di Open Ai (dell’area Microsoft) a farsi più notare perché ChatGpt, un’applicazione derivata e centrata sul “conversare”,  fu immediatamente sperimentata dagli utenti e poi abbinata a  a Bing, il motore di ricerca di Microsoft, per attirare traffico a scapito di Google.

Catastrofismo conservatore

Di fronte a quelle macchine forbite stavano le labbra tonde in “oh!” d’ammirazione insieme con l’immancabile tsunami di patemi, scongiuri, meditazioni, instant book sui colletti bianchi buttati sul lastrico dai robot senza dimenticare gli allarmi per il supporto a disinformatori, terroristi e leoni da tastiera (che peraltro già impestano la rete con la connivenza di spam robot e anonimato così cari ai padroni attuali della Rete). 

Nel frattempo tuttavia le labbra ad “oh!” si sono chiuse perché è emerso che le prestazioni di ChatGpt s’impastano di frequente con equivoci e allucinazioni non occasionali, ma generati dalla sua intima e non aggirabile struttura. Del resto ChatGpt e le tante applicazioni simili avvisano esse per prime che di quel che dicono è meglio che uno non si fidi.

Dopo un anno possiamo ormai concludere che le Ai, per quanto muscoli meccanici e potenti nel sondare e gli archivi e sintetizzarne all’impronta i contenuti, non bastano a se stesse e vanno presidiate da umani molto esperti che distinguano il buono dalla fuffa. Premessi questi caveat è peraltro indubitabile che le Ai siano in grado di potenziare servizi, industria, agricoltura e produzione di cultura.

Così le Big Tech di Usa e Cina (spalleggiate dai governi) competono alla grande per non concedere vantaggi all’altra parte, E nel contempo noi avvertiamo il danno di dipendere dal funzionamento e dalle convenienze di un pugno di imprese altrui cui sono legate ormai le sorti, a casa nostra. di imprese, istituzioni, artigiani, università, industrie d’armamento, farmaceutica, ingegneria, siti di alberghi e ristoranti, chat di mamme e influencer di banda e di quartiere.

Fiutato il problema arriva Ian Bremmer, analista Usa di qualche nome, che, su Foreign Affairs del 16 agosto, propone di tirare il freno e mettere sotto controllo la strapotenza delle Big Tech. Sul piano pratico però la soluzione non è un granché perché consiste nell’associare le stesse Big Tech al governo di una sorta di Onu dell’intelligenza artificiale che, similmente agli accordi sulle armi atomiche, ne talloni e imbrigli gli sviluppi per non scavalcare la funzione degli stati e non dare spazio ai pirati della rete. Ma la via per evitare la sventura, è probabilmente il contrario (cioè più liberta e più sviluppo). Anche perché non è prevedibile che la maggioranza degli stati aventi qualche peso se ne stia passiva ad attendere gli esiti del derby accontentandosi di esserne la posta.

Limiti e orizzonti in Ue

Gli stati Ue, in particolare, possiedono le condizioni culturali e finanziarie per sviluppare oltre i limiti attuale il mondo dell’Ai, a patto,come sempre, di convergere su progetti industriali capaci crescere fino a servire un numero adeguato di clienti.

Guardare all’Europa come luogo di sviluppo industriale in questi campi comporta di andare oltre la funzione di regolazione del mercato a cui la Ue s’è dedicata con l’unanime accordo dei suoi membri tant’è che dal 2017 s’è snodato un sistema organico di norme riguardo alla protezione e al trattamento dei dati degli utenti, agli acquisti on line, ai servizi digitali e, in prospettiva 2024, all’Intelligenza Artificiale.

Ma le regole si sa che sono fisse mentre la realtà è quella che si muove per cui, in un convegno a fine luglio, proprio un giurista, Konrad Kollnig dell’università di Maastricht e specializzato nelle normative della Ue, le definisce “tigri di carta”, e financo  pericolose ponendo tre problemi: 1) lo sviluppo digitale va veloce e le norme che l’inseguono nascono già vecchie; 2) le mitiche multe della Ue contro gli eccessi di posizione dominante (famosi i 4 miliardi inflitti a Google) impiegano un quadriennio per giungere a bersaglio mentre il sanzionando continua ad accumulare miliardi multipli rispetto alle sanzioni; 3) la parità di regole fra soggetti diseguali è un regalo per chi è già forte mentre è una mazzata per chi è invece vuole crescere.

“Diversità culturale”

Circa il principio espresso al punto 3), basti ricordare che solo all’ultimo momento il Parlamento di Strasburgo è intervenuto a correggere la proposta di Ai Act sventando la iniquissima parità di trattamento fra le Ai – proprietarie e impenetrabili – delle Big Tech e quelle dette “open source” che si originano non di rafo negli ambienti di ricerca. La differenza rispetto ai modelli proprietari sta nel fatto che il “codice sorgente” (vale a dire la chiave per entrare) è consegnata agli sviluppatori indipendenti che così s’ingegnano a perfezionare le fondamenta strutturali nonché le modalità e le fonti del machine learning con cui la struttura di base ingoia e organizza i “contenuti”. Ottimo per gli sviluppatori che escogitano e commercializzano nuove applicazioni. Un sollievo per gli stati che vedono le loro economie libere da patti leonini e da ricatti.

Per questo, ci pare, Macron indica l’Open Source come via francese all’Ai e all’indipendenza digitale. E c’è venuto in mente che a cavallo fra anni Ottanta e Novanta la Francia si ostinò ad infilare la “eccezione culturale” nei trattati internazionali per il libero commercio.

L’eccezione” dà ad ogni paese la facoltà di proteggere il mercato interno del cinema rispetto al fatale dilagare dell’offerta americana. I mezzi sono quelli delle sovvenzioni e delle quote di programmazione della filmografia locale imposte alle televisioni nazionali. Una patente deviazione dal libero mercato, ma in nome della “diversità culturale” affermata come irrinunciabile.

Ma oggi, riflettevamo con Erik Lambert, sono le Big Tech che – tra ricerca, social, store digitali, Ai generative – omologano le culture con algoritmi segnati dalla koiné angloamericana che è lungi dall’esaurire la complessità di lingue, ragioni e sentimenti ai quattro angoli del mondo.

In particolare, l’Ai generativa incorpora la cultura che la fonda sia nel modello base sia durante il machine learning e l’allineamento” ai correnti standard di gusto e dimorale. 

E dunque non si vede perché la “eccezione” all’assoluta libertà di commercio e concorrenza non debba favorire a casa propria servizi digitali a misura di italiani, tedeschi, turchi, nigeriani, cinesi, indiani etc. Per un web “universale” non non omologo che spiani le barriere al contatto fra il molteplice e il diverso.

© Riproduzione riservata