Ci stiamo abituando a parlare degli effetti collaterali dell’Intelligenza artificiale (Ia). Spesso lo facciamo con preoccupazione, ad esempio in relazione alla possibile perdita di lavoro o di creatività. Più recentemente, la diffusione dell’Ia generativa ha portato alla luce un altro fenomeno: la delega cognitiva, ossia la tendenza a “scaricare” compiti mentali sull’Ia per ridurre il carico di lavoro.

Farsi preparare riassunti di documenti complessi o redigere relazioni a partire da appunti disordinati sono ormai pratiche diffuse. In psicologia, questo fenomeno, noto come cognitive offloading, è una risposta ai limiti delle capacità umane: contiamo con le dita, scriviamo per ricordare. Oggi però, in molti contesti lavorativi, il ricorso all’Ia sembra essere spinto soprattutto dalla necessità di rispettare standard di prestazione sempre più elevati. Se da un lato ciò può rappresentare un alleggerimento utile, dall’altro non è ancora chiaro quali effetti negativi possano emergere nel medio-lungo periodo.

L’apparenza del risultato

Alcuni studi suggeriscono che, nei lavori “intellettuali”, maggiore è la fiducia nell’Ia, minore è l’attivazione del pensiero critico. Ancora più controverso è l’impatto nei processi di apprendimento: se l’Ia può facilitare l’accesso alle informazioni, è anche vero che lo sforzo, e perfino l’errore, sono spesso la via verso una conoscenza più profonda e duratura.

Il rischio è quello di sviluppare una falsa padronanza, basata più sull’apparenza del risultato che su una reale comprensione. A questo si aggiunge una difficoltà crescente nel distinguere cosa sia opportuno delegare e cosa no: una questione che riguarda il nostro quotidiano esercizio di scelta tra fini e mezzi.

L’Ia, infatti, può distrarci dalla scelta dei fini, spingendoci a diventare sempre più “ingordi” di attività. Si pensi, ad esempio, alla gestione delle email o dei contenuti digitali: grazie all’Ia possiamo rispondere più velocemente, produrre più testi, pianificare più attività. Ma questa apparente efficienza può trasformarsi in un accumulo di compiti, generando l’illusione di essere più produttivi, come se tutte le attività avessero lo stesso valore e la stessa priorità.

In realtà, è proprio nello scegliere alcune azioni escludendone altre che attribuiamo valore a ciò che facciamo. Sul versante dei mezzi, l’effetto collaterale può tradursi in una perdita di motivazione, una sorta di “anoressia dell’agire”. Se ciò che conta è solo il risultato finale, diventa irrilevante il percorso per raggiungerlo, e la scorciatoia rischia di diventare la scelta più ovvia. Ma un agire svuotato di processo è anche un agire impoverito di significato e di opportunità di crescita.

Un esercizio di saggezza

Nel loro complesso, gli effetti collaterali dell’Ia, inclusi quelli che riguardano l’agire umano, hanno un carattere profondamente ecologico. Non solo perché associati a costi energetici e idrici, quindi ambientali, ma soprattutto perché incidono sull’ecosistema umano nel suo insieme. L’introduzione dell’Ia in un’organizzazione non modifica soltanto il numero di posti di lavoro o le mansioni, ma trasforma il modello produttivo, le competenze che vengono sviluppate e trasmesse, le forme di apprendimento, fino ai consumi energetici. In altre parole, ridefinisce la sostenibilità complessiva di un’attività complessa.

Per questo, più che valutare singoli effetti isolati, è necessario adottare uno sguardo sistemico: considerare l’Ia non solo come uno strumento, ma come un elemento che ridisegna equilibri, relazioni e priorità. Una vera e propria questione ecologica, nel senso più ampio del termine.

Una sfida che chiama in causa la responsabilità dell’agire umano, non solo rispetto ai possibili rimedi, ma soprattutto rispetto al tipo di mondo che vogliamo abitare e lasciare in eredità alle generazioni future. Affrontare i problemi dell’IA da una prospettiva ecologica consente inoltre di superare una visione semplicistica: non si tratta soltanto di ottimizzare, cioè di massimizzare i benefici minimizzando i rischi.

Uno sguardo ecologico ci invita piuttosto a riconoscere che siamo di fronte a equilibri complessi, in cui tutto è interconnesso, come ricorda la Laudato si’. Per affrontare questa complessità serve un approccio integrato, sostenuto da capacità di scelta e discernimento. Non sempre queste decisioni possono essere ridotte a un semplice calcolo di trade-off: implicano piuttosto un esercizio di saggezza, da riscoprire sia a livello personale sia comunitario, evitando la tentazione di una resa etica (“tanto non cambierà nulla!”).

Già Aristotele ricordava che la saggezza (o prudenza, come la chiameranno i medievali) nasce dall’esperienza e dalla riflessione. Non esistono algoritmi in grado di sostituirla: il “giusto mezzo” non è una media aritmetica tra eccesso e difetto, ma una ricerca dinamica dell’equilibrio più adeguato nelle diverse situazioni. Più che una soluzione, è un processo che richiede consapevolezza di sé, attenzione al contesto e sensibilità per le circostanze.

* L’autrice è docente alla prima cattedra Generali sull’Intelligenza artificiale responsabile e sostenibile all’Università di Trieste


Da venerdì 10 a domenica 12 aprile, oltre 70 voci del giornalismo e della geopolitica a Link Media Festival, Trieste: dove la lente “trasversale” dell’Intelligenza artificiale sarà la trama per unire molti panel, a cominciare dall’intervento dell’esperta Teresa Scantamburlo, docente alla prima cattedra Generali sull’Intelligenza artificiale responsabile e sostenibile all’Università di Trieste. Sabato 11 aprile, alle 10 nel Palazzo della Regione, interverrà su AI, Effetti collaterali in dialogo con Paolo Cagnan. Promosso da NEM Nordest Multimedia, Link Media Festival ospiterà sempre sabato mattina l’unico incontro italiano di Boris Johnson sul tema T_he darkest hour_ e inoltre il direttore di Domani Emiliano Fittipaldi che interverrà sempre sabato su “Il diritto di essere informati”, Neri Marcorè, Giovanni Floris, Marta Serafini, Andrea Iacomini, Agnese Pini, Riccardo Luna, Marco Zatterin, Loretta Napoleoni, Tiziana Ferrario, Antonio Di Bella, Owen Matthews, Andrew Hill, Gabriele Segre e Riccardo Luna, conduttore del podcast prodotto da Mundys Fly Me to the Moon. Info http://linkfestival.it

© Riproduzione riservata