Martedì 16 novembre si è tenuto a Torino e, contemporaneamente, in streaming il lancio della campagna “I.A., basta!” pensato dai sindacati di base, in collaborazione con l’associazione “Agorà 33 – La nostra scuola”, per «resistere all'adozione frettolosa e acritica delle intelligenze artificiali centralizzate imposte da Big Tech, come ChatGpt e Gemini», in risposta all’appello di alcuni docenti.

Lo scopo principale della campagna è far partire un dibattito che latita dall’inizio della “transizione digitale”, incentivata dai vari round di finanziamenti Pnrr Scuola. Fino a ora, infatti, si è sempre sentito parlare di “intelligenza artificiale”, strettamente al singolare, sottintendendo con questo che l’unica opzione per la scuola sia accettare “a scatola chiusa” le soluzioni delle Big Tech, oppure rigettare in toto la tecnologia alla maniera degli Amish.

Non esiste una sola intelligenza artificiale

Fin dalla prima sperimentazione, lanciata all’inizio dello scorso anno scolastico, il ministero dell’Istruzione e del Merito sembra muoversi in accordo al grido di battaglia che fu di Margaret Thatcher: «Non ci sono alternative»!

La sperimentazione, partita in 15 su 8254 scuole del paese utilizzando esclusivamente prodotti Google e Microsoft, non è ancora terminata e già il Ministero ha fatto un altro possente balzo in avanti: a settembre ha presentato le “Linee guida per l’introduzione dell’I.A. nella scuola”. 

A partire dal titolo del documento, emerge in maniera chiara una visione rigidamente determinista: l’intelligenza artificiale è una, quella venduta da Big Tech (OpenAi, Google, Meta, Microsoft, Anthropic), non ci sono discussioni.

Compito dei dirigenti è far comprendere alle comunità scolastiche d’Italia che l’unica domanda rilevante non è “se, perché e quando”, bensì unicamente “come” introdurre nuove tecnologie a scuola.

A tale scopo, i dirigenti utilizzeranno lo strumento degli “atti di indirizzo”: documenti unilaterali pensati per “instradare” il dibattito negli organi democratici verso l’approvazione di Piani Triennali dell’Offerta Formativa (Ptof) che prevedano l’adozione delle intelligenze artificiali proposte dalle Big Tech.

Fatto ciò la questione, secondo il ministero, sarà chiusa; in maniera assai simile a quanto avvenuto con le piattaforme tipo GSuite e Microsoft 365 in pandemia.

Un apposito paragrafo sulla “mitigazione dei rischi” (sic) è l’unico da cui emerge una qualche titubanza rispetto al pigiare a tavoletta l’acceleratore della supposta “innovazione”. Ma lo scopo di una riforma non dovrebbe essere mitigare rischi bensì, cogliere inoppugnabili benefici.

Tutto questo sorvolando sulla siderale distanza che corre tra l’approvazione di un documento, per quanto questo sia vincolante per l’istituzione scolastica come nel caso del Ptof, e l’effettiva realizzazione di modifiche così impattanti per la prassi didattica quotidiana.

Il mondo dell’accademia contro l’Ia di Microsoft

Quanto agli “inoppugnabili benefici” le voci critiche sembrano tutt’altro che sparse. Ne troviamo tra gli esperti del tema come Gary Marcus e Yann LeCun, da sempre convinti che questa ultima moda dei Large Language Models non porterà mai all’A.G.I. (Artificial General Intelligence, l’I.A. forte), nel mondo business – in cui gli allarmi sull’imminente esplosione della “bolla finanziaria” che regge lo sviluppo delle intelligenze artificiali arrivano da fonti quali il Ceo di Ibm, nell’accademia.

All’inizio dell’estate un nutrito gruppo di professori e ricercatori universitari ha lanciato un appello dai toni e contenuti assai simili a quelli della campagna I.A. Basta! Gli ormai oltre 1500 firmatari, molti dei quali sono nomi in prima linea nella ricerca nel campo del machine learning, invitano a «fermare l’adozione acritica dell’I.A. in accademia», e a «resistere all’introduzione dell’IA da Microsoft, ad Apple e OpenAI». Anche l’accademia, quindi, non sembra affatto convinta che i benefici saranno inoppugnabili.

Apprendimento personalizzato o automatizzato?

Di tutti gli utilizzi dell’intelligenza artificiale generativa proposti dal ministero, quello che solleva maggiore perplessità negli estensori dell’appello è quello di «tutor per l’apprendimento personalizzato». Una vasta letteratura mostra che questi software forniscono informazioni verosimili, ma false in non meno del 25 per cento dei casi. Si tratta di software immaturi per l'uso nel mondo reale, che uno studio del Mit pubblicato quest’estate indica aver fallito l’obiettivo del ritorno sull’investimento nel 95 per cento dei progetti pilota in cui sono stati utilizzati. Diventa difficile non pensare che l'insistenza sulla loro adozione risponda alle necessità di chi li produce, non della scuola.

© Riproduzione riservata