L’Intelligenza Artificiale, e prima ancora gli algoritmi, hanno già in passato dato prova di flirtare pericolosamente con il rischio di operare discriminazioni tra uomini basate, tra l’altro, su sesso e razza.

Basti pensare al famoso caso “Compas”, in cui il calcolo del pericolo di recidiva di mediante algoritmi risultava inficiato dalla discriminazione razziale.

Non era mai successo però, almeno finora, che un’IA fosse accusata di discriminare gli esseri umani tout court.

Sembra uno scenario distopico, eppure è proprio ciò che è stato riscontrato: le IA preferiscono quanto scritto da modelli stessi di IA, rispetto a quanto scritto da persone senza l’ausilio di IA.

Lo studio

È quanto emerge, in particolare, da un recente studio pubblicato dalla Stanford University: questo studio dimostra che se impieghiamo assistenti LLM (large language models, che sono alla base della IA) in ruoli decisionali (ad esempio, acquisto di beni, selezione di progetti accademici), questi favoriranno implicitamente gli agenti di intelligenza artificiale basati su LLM e gli esseri umani assistiti da LLM, rispetto agli esseri umani che non utilizzano LLM. È risultato, infatti, che in media gli LLM abbiano favorito gli elementi presentati da LLM più frequentemente rispetto agli esseri umani.

Cosa significa in concreto?

Un esempio può aiutarci a comprendere meglio: occorre esaminare e valutare un curriculum, ai fini dell’assunzione nell’azienda Alfa:

- Alfa decide di selezionare tramite IA (opzione già spesso privilegiata negli Stati Uniti d’America e sempre più diffusa);

- Alfa privilegerà i curricula redatti tramite all’ausilio di IA, rispetto a quelli redatti senza ricorrere all’IA.

La conseguenza, quindi, è che il potenziale lavoratore, che ha predisposto il proprio curriculum senza ricorrere all’IA, risulta discriminato pregiudizialmente rispetto a quello che usa l’IA per il solo fatto di non averla usata.

E l’esempio può essere esteso a tante altre forme di selezioni effettuate con l’ausilio dell’IA, come per le pubblicazioni scientifiche, o per l’acquisto di beni e servizi da un determinato fornitore.

È evidente, quindi, il rischio di condizionare scelte commerciali, strategiche, e professionali. Al punto che viene da domandarsi: saremo di fatto tutti costretti ad usare l’IA? E che sorte avrà l’azienda che sceglie di mantenere una comunicazione tutta umana?

Insomma, dopo esserci - giustamente - preoccupati dei rischi di discriminazioni tra umani causati dall’IA sembra profilarsi il rischio di forme di discriminazione delle macchine nei confronti degli umani.

Forse è la conseguenza della diffusione di sistemi di IA generativa o del fatto che iniziano a esserci forme di addestramento di secondo grado: cioè l’IA si addestra utilizzando altre IA.

Ma, mentre saranno approfondite le possibili cause di questo fenomeno, è auspicabile che si adottino da subito le dovute misure precauzionali: e ciò è possibile farlo solo assicurando che sia sempre un essere umano, alla fine, ad avere l’ultima parola.

© Riproduzione riservata