Da tempo sappiamo quanto internet e le tecnologie digitali abbiano un crescente impatto ambientale, che al momento si aggirerebbe tra il 2 e il 3 per cento delle emissioni globali. È una percentuale già oggi superiore a quella dell’industria aeronautica e che è destinata ad aumentare enormemente: secondo le stime, entro il 2040 il settore digitale potrebbe diventare responsabile del 15 per cento delle emissioni, una cifra superiore a quella della seconda nazione più inquinante al mondo: gli Stati Uniti.

Chi sono i responsabili di tutto ciò? Da un certo punto di vista, la colpa è di tutti noi e della insaziabile fame di dati della società. Ancora nel 2020, i dati inviati e ricevuti via mobile – per la musica o i video in streaming, per fare videoconferenze, inviare messaggi su WhatsApp, usare i social network – non superavano i 50 exabyte al mese. Nel 2023 questa cifra sarà già triplicata e nel 2027 si prevede che supererà i 350 exabyte: un aumento del 700 per cento in meno di un decennio.

Questo enorme traffico dati richiede necessariamente l’impiego di data center sempre più numerosi ed energivori: i maggiori data center del mondo arrivano a occupare aree grandi anche un milione di metri quadrati (è il caso del China Telecom-Inner Mongolia Information Park) e devono essere costantemente tenuti al freddo utilizzando giganteschi impianti di aria condizionata (nella maggior parte dei data center odierni, il raffreddamento rappresenta oltre il 40 per cento dell’energia consumata).

Energivora

Tutto questo senza nemmeno calcolare che impatto potrebbero avere tecnologie come la realtà virtuale o aumentata, che – nel caso in cui si diffondessero come da alcuni previsto – richiederebbero di generare online interi ambienti virtuali tridimensionali o di sovrapporre in tempo reale elementi digitali al mondo fisico. Quanta energia sarebbe richiesta se la realtà virtuale diventasse uno strumento usato quotidianamente per lavorare, fare shopping, rilassarsi con gli amici e altro ancora?

Ovviamente, è impossibile fare previsioni precise. Raja Koduri, vice-presidente di Intel, ha però dichiarato che – per dare vita al metaverso come immaginato da Zuckerberg – servirebbe un potere computazionale «di vari ordini di grandezza superiore» a quello che sorregge il sistema attuale. Sempre Koduri si è sbilanciato fino a stimare la necessità di avere un’infrastruttura informatica oltre mille volte più potente di quella odierna.

Ma se l’impatto sui consumi di realtà virtuale o aumentata è ancora teorico, c’è invece una tecnologia la cui impronta ecologica si sta già rivelando in tutta la sua gravità: l’intelligenza artificiale. Secondo uno studio di OpenAi (la società produttrice di ChatGpt), dal 2012 a oggi la quantità di potere computazionale richiesto per l’addestramento dei modelli di intelligenza artificiale è raddoppiata ogni 3,4 mesi.

Se la tendenza proseguirà come da previsioni, entro il 2030 l’addestramento dei sistemi di deep learning (gli algoritmi impiegati per tutto ciò che oggi va sotto l’etichetta di intelligenza artificiale) e l’archiviazione dei dati da essi impiegati potrebbe essere responsabile del 3,5 per cento dell’energia consumata a livello globale.

ChatGpt: 550 milioni di CO2

Perché tutto ciò? Partiamo dall’addestramento di questi sistemi, che richiede miliardi di calcoli al secondo e l’elaborazione di milioni di dati in un processo che può essere ripetuto anche migliaia di volte prima di ottenere i risultati sperati. Un gruppo di ricercatori dell’università del Massachusetts ha testato, nel 2019, i consumi energetici prodotti dai primissimi modelli di intelligenza artificiale generativa, scoprendo che il loro addestramento può emettere fino a 280 tonnellate di anidride carbonica, quasi cinque volte le emissioni provocate da una classica automobile nel corso del suo ciclo di vita (inclusa la produzione dell’auto stessa).

Da allora, però, le cose sono cambiate parecchio: se quattro anni fa i modelli più grandi, come Bert di Google, possedevano circa 340 milioni di parametri (che potremmo grossolanamente considerare l’equivalente digitale delle nostre sinapsi), oggi le cifre sono cambiate drasticamente: per addestrare Gpt-3, che possiede 175 miliardi di parametri e alimenta la versione base di ChatGpt, sono stati necessari 1.287 megawattora, provocando 550 milioni di tonnellate di anidride carbonica (quanto 200 voli da Milano a New York) e consumando 3,5 milioni di litri di acqua.

Per quanto non si abbiano dati precisi, si stima che Gpt-4 (utilizzato per la versione più potente di ChatGpt) abbia invece migliaia di miliardi di parametri: sebbene l’aumento dei consumi non sia direttamente proporzionale, è evidente come al crescere delle dimensioni dei sistemi di intelligenza artificiale cresca anche l’energia richiesta per il loro addestramento.

A provocare emissioni non è però soltanto la fase di addestramento, ma anche il nostro utilizzo: una singola domanda posta a ChatGpt può infatti consumare 100 volte l’energia necessaria per una ricerca su Google; mentre una conversazione con ChatGpt (composta in media da una ventina di domande) richiede il consumo di mezzo litro d’acqua. Che cosa succederà quando – come si prevede – questi sistemi saranno utilizzati quotidianamente da una larga parte della popolazione mondiale, che ne sfrutterà le capacità per generare testi, immagini, video, musica e più in generale per avere un assistente personale sempre a portata di mano? Nonostante la crescente efficienza di questi sistemi e la percentuale sempre maggiore di energie rinnovabili impiegate, i timori che la diffusione dei sistemi di intelligenza artificiale generativa non sia sostenibile si stanno facendo largo. Fare valutazioni precise, soprattutto per quanto riguarda i modelli più recenti, non è però facile: con il passare del tempo, le società che sviluppano questi sistemi hanno infatti iniziato a divulgare sempre meno informazioni relative alla quantità di dati e di parametri, ai metodi di addestramento, all’energia usata, ecc., complicando le stime relative ai consumi.

Maggiore trasparenza

«È necessario promuovere una cultura di trasparenza e responsabilità», si legge su Earth.org. «Per valutare correttamente l’impatto ambientale, gli attori coinvolti devono dare la priorità alla divulgazione di dati pertinenti, relativi ai modelli d’intelligenza artificiale e al loro addestramento. Se vogliamo che la progettazione, l’utilizzo e la gestione di queste tecnologie siano etiche, i governi e le autorità di garanzia devono adottare precisi standard e restrizioni».

A maggior ragione, è quindi indispensabile che la società e la politica si muovano con convinzione per spronare o costringere i vari OpenAi, Google, Anthropic, Meta e gli altri colossi dell’intelligenza artificiale a divulgare informazioni puntuali sui loro modelli, a renderli sempre più efficienti e ad alimentarli tramite energie rinnovabili. Un’altra strada percorribile è quella degli standard e delle certificazioni di sostenibilità, che – considerando la crescente popolarità di questi sistemi – potrebbero orientare gli utenti verso le società più sostenibili, spronando così tutto il settore a porre maggiore attenzione ai consumi.

Infine, sta anche a noi utenti non farci ingannare da termini come “intelligenza artificiale” e “cloud”, che dietro etichette immateriali nascondono invece una realtà fatta di data center colossali, enormi computer dallo spaventoso potere computazionale, uso massiccio di aria condizionata, estrazione di metalli pesanti e il consumo di milioni e milioni di litri d’acqua.

© Riproduzione riservata