L’intelligenza artificiale viene spesso raccontata e discussa come una sorta di astrazione “magica” anziché il risultato di una serie di processi, o per meglio dire di calcoli, che hanno alle spalla una vasta infrastruttura della computazione: computer, server, data center, memorie e, soprattutto, chip.

Da quando sono stati inventati, a fine anni Cinquanta, la corsa al potenziamento dei chip non si è mai fermata e ha oggi raggiunto livelli di complessità sbalorditivi. L’industria dei semiconduttori – una filiera in cui è coinvolto più del 60 per cento dei paesi al mondo – è una delle più avanzate sul pianeta. Essa si basa su processi che vanno ben oltre i limiti del fantascientifico, e che oggi ci consentono di produrre transistor 100mila volte più piccoli del diametro di un capello umano.

Il potere dei chip

Lo sviluppo delle intelligenze artificiali non ha fatto che esasperare la tendenza iper-competitiva dell’industria dei semiconduttori. L’addestramento dei cosiddetti “network neurali” delle Ia si basa infatti sulla capacità di svolgere un numero abnorme di computazioni in tempi ridottissimi.

A tale scopo, da circa un decennio, si utilizzano processori specifici noti come Gpu (Graphic Processing Unit). Progettate nei primi anni Novanta per i calcoli richiesti dalla grafica 3d (e perciò all’inizio usate soprattutto nei videogiochi), le Gpu si sono in seguito rivelate particolarmente adatte alle esigenze dell’addestramento di intelligenze artificiali. A differenza dei processori “tradizionali” (Cpu), le Gpu sono infatti in grado di svolgere più computazioni in parallelo (si parla perciò di parallel computing) e dunque in un tempo minore.

Nvidia, l’azienda che, fin dalla nascita, domina il mercato delle Gpu, ha visto più che triplicare il valore delle sue azioni negli ultimi tre anni ed è, ad oggi, uno dei cinque marchi a più elevata capitalizzazione sul pianeta (quasi 2 triliardi di dollari). Il tutto grazie al suo ruolo all’interno dell’infrastruttura produttiva dell’Ia e alla sua capacità di integrare la potenza delle Gpu con un software dedicato, noto come Cuda, che ne facilita l’utilizzo e la configurazione.

Gli acceleratori

I compiti dei chip nel campo delle intelligenze artificiali sono talmente specifici che i semiconduttori che li svolgono devono esserlo altrettanto. In altre parole: non ha senso addestrare un “modello di linguaggio” come Chat Gpt con lo stesso genere di chip utilizzato per un’intelligenza artificiale che deve regolare il consumo energetico di un dispositivo elettronico o “guidare” un drone. Anche per questo motivo, da qualche tempo le Gpu non bastano più.

Sul finire degli anni Dieci hanno cominciato ad affermarsi nuove tipologie, sempre più potenti, di chip e processori. Tra esse spiccano i cosiddetti acceleratori, chip iper-specializzati che vengono utilizzati, come si evince dal nome, per accelerare i processi di deep learning su cui si basa l’addestramento delle intelligenze artificiali.

Così com’è nell’indole dell’industria dei semiconduttori, anche in questa fascia di chip avanzati si è rapidamente scatenata una serrata competizione, a cui partecipano non solo aziende storiche, come Intel, Amd o la stessa Nvidia, ma anche aziende che, fino a pochi anni fa, non avevano mai progettato semiconduttori.

Chip su misura

Uno degli acceleratori più potenti oggi in circolazione, il Tensor Processing Unit (Tpu), è stato progettato e prodotto da Google. E lo stesso si può dire del Meta Training and Inference Accelerator (Mtia) di Meta o di Inferentia di Amazon Web Services.

Persino le aziende automobilistiche, Tesla in primis, stanno prendendo in considerazione di sviluppare dei propri chip anziché continuare ad acquistarli dai fornitori tradizionali (in questo caso, tuttavia, le ragioni non hanno a che fare solo con il tema dell’Ia ma anche con la necessità di rendere più resilienti le loro supply chain).

Il proliferare dei “chip su misura” non è una notizia che preoccupa solo le aziende che producono semiconduttori ma tutti coloro che hanno a cuore la continuità e la sostenibilità (economica ma anche ambientale) delle infrastrutture della computazione da cui dipendiamo.

La serie A

Come accennato all’inizio, la produzione di chip è un processo caratterizzato da una estrema complessità tecnologica. La progettazione necessita di lunghi tempi di ricerca e di notevoli investimenti, mentre la manifattura comporta un processo di continuo miglioramento basato su un faticoso “trial and error”.

Ciò ha ovviamente una notevole incidenza sui costi di produzione di un nuovo chip. Fin dagli anni Sessanta, è solo grazie alle vaste economie di scala dei chip “generici” che l’industria è riuscita a fare fronte ai propri stessi costi e a immettere sul mercato prodotti migliori a prezzi sempre più accessibili. In fondo era questo lo spirito che animava il senso economico della famigerata legge di Moore, ovvero l’ipotesi, a lungo rivelatasi corretta, che «la potenza dei chip sarebbe raddoppiata ogni due anni».

Oggi questo meccanismo si è inceppato. La crescente personalizzazione dei chip fa sì che, spesso, i loro volumi di produzione non siano abbastanza grandi da determinare una riduzione dei loro costi unitari e quindi del loro prezzo. È anche per questo che una singola Gpu di ultima generazione può arrivare a costare decine di migliaia di dollari.

E se consideriamo che per addestrare un modello di intelligenza artificiale, ne sono necessarie migliaia capite di che investimenti stiamo parlando. Mark Zuckerberg ha recentemente ammesso di aver stanziato un budget miliardario solo per l’acquisto di Gpu da Nvidia.

EPA

L’ecosistema dell’intelligenza artificiale sta insomma trasformando il mercato dei chip, portandolo a privilegiare la produzione di costosissimi super-chip, specializzati in singole applicazioni, a scapito di semiconduttori più versatili e scalabili.

Come ha sottolineato l’economista dell’Mit Neil Thompson, siamo arrivati al punto in cui verrà messa in discussione l’idea della computazione come “general purpose technology” – ovvero come tecnologia la cui evoluzione alimenta una crescita lineare del mercato e viceversa – e la sua trasformazione in un settore costituito da nicchie che procedono a velocità di sviluppo diverse, a seconda delle loro possibilità di spesa.

Visto dalla prospettiva dell’evoluzione dei chip, il rischio è insomma quello di una crescente disuguaglianza informatica: un mondo diviso in una serie A di super-ricchi e di super-chip e in una serie B di chip con prestazioni e ritmi d’evoluzione molto più blandi.

© Riproduzione riservata