C’è un problema con le intelligenze artificiali. Un problema che non riguarda il presunto “rischio esistenziale” posto da questa tecnologia – ovvero il timore che evolva al punto da diventare una minaccia per l’essere umano – ma che riguarda la capacità di questi strumenti di assorbire i pregiudizi degli esseri umani e di replicarli nelle loro previsioni o nei contenuti da essi generati.

Com’è possibile? Gli algoritmi di deep learning – che sono all’origine di tutto ciò che oggi definiamo “intelligenza artificiale” e che funzionano su basi statistiche – non dovrebbero essere immuni a quello che è un difetto tipicamente umano? Non dovrebbero produrre risultati oggettivi e neutrali?

In realtà, come dimostrato dai tantissimi casi in cui l’utilizzo di questi algoritmi ha avuto esiti razzisti, sessisti, omofobi e altro, le cose non stanno affatto così. Uno dei casi più noti, risalente al 2018, ha come protagonista il sistema sviluppato da Amazon per individuare il candidato più adatto a un posto di lavoro e che tendeva a discriminare sistematicamente le donne.

leggi tutte le puntate delle inchieste sull’Intelligenza artificiale e sostienile

Una discriminazione causata dai dati impiegati nella fase di addestramento di questo algoritmo. Dal momento che alcune professioni sono storicamente – per ragioni socioculturali – a maggioranza maschile, così erano anche i curriculum vitae utilizzati per insegnare al sistema di Amazon a riconoscere i candidati più adatti, per esempio, alla professione di ingegnere. Per questa ragione, l’intelligenza artificiale aveva imparato che il solo fatto di essere donna fosse motivo sufficiente per essere scartati.

Lo stesso avviene con gli algoritmi di riconoscimento facciale (in grado cioè di associare la foto o il video di una persona alla sua identità, se essa è archiviata in un database), addestrati utilizzando immagini stock composte in larghissima parte da uomini bianchi (anche se la situazione sta gradualmente cambiando). Inevitabilmente, gli strumenti di riconoscimento facciale si sono rivelati molto accurati a riconoscere uomini bianchi, meno accurati quando si tratta di uomini di etnie diverse e per niente accurati quando le persone da riconoscere sono, per esempio, donne nere.

La scarsa accuratezza di questi sistemi ha fatto sì che negli Stati Uniti – negli ultimi due anni e limitandoci ai casi diventati pubblici – almeno quattro persone, tutte nere, siano state arrestate e temporaneamente detenute a causa di un errore dei sistemi di riconoscimento facciale usati dalle forze dell’ordine.

Ovviamente, gli algoritmi non sono davvero razzisti o sessisti. I dati che utilizziamo per il loro addestramento incorporano però i pregiudizi della società (per esempio, preferendo fotografie di persone bianche per popolare gli archivi fotografici), che vengono così assorbiti e riprodotti dagli algoritmi.

Peggio ancora: l’intelligenza artificiale non solo automatizza i bias, ma li cela all’interno della cosiddetta “scatola nera” algoritmica. Dal momento che questi sistemi eseguono miliardi di calcoli, per l’essere umano è infatti impossibile capire come, esattamente, un sistema sia arrivato a produrre il suo risultato, rendendo in molti casi difficile rendersi conto che sia in atto una discriminazione.

“Al momento, abbiamo sistemi di intelligenza artificiale che discriminano massicciamente le persone marginalizzate negli Stati Uniti e in altre parti del mondo: penso che questo problema non stia affatto venendo affrontato”, ha spiegato Jesse McCrosky, data scientist della società di consulenza Thoughtworks. “Ma poiché i governi, le istituzioni e le aziende usano sempre più spesso questi sistemi per prendere decisioni anche di primaria importanza, sviluppare responsabilmente l’intelligenza artificiale è di importanza critica”.

Tra gli ambiti in cui gli algoritmi predittivi vengono frequentemente utilizzati ci sono infatti anche la sanità, l’erogazione di mutui e di finanziamenti, l’ammissione all’università e altri ancora. In tutti questi ambiti sono stati documentati gravi casi di discriminazioni, causate da sistemi progettati anche dai principali colossi della Silicon Valley.

Un problema che non è stato risolto nemmeno nei nuovi ed evolutissimi sistemi di intelligenza artificiale generativa. Chiedere a Midjourney – un noto sistema “text-to-image”, in grado cioè di produrre immagini a partire da un comando formulato in linguaggio naturale – di raffigurare “una persona che fa le pulizie” produce quasi sempre l’immagine di una donna. Chiedergli invece di raffigurare “manager che lavora nella finanza” (senza specificare il genere) produce uomini bianchi, e lo stesso avviene se gli si chiede di generare immagini con protagonista “una persona ricca”.

In un recentissimo caso, la richiesta di raffigurare un medico nero che cura dei bambini bianchi ha al contrario prodotto un medico bianco che cura bambini neri. Considerando l’importanza che le immagini rivestono nella nostra società, la generazione a profusione di contenuti di questo tipo rischia di rafforzare gli stereotipi. Non solo, la rapidissima diffusione degli strumenti di generazione automatica potrebbe anche dare vita a un circolo vizioso: le immagini stereotipate da essi prodotte entrano infatti in circolazione in rete, diventando a loro volta parte dei database usati per addestrare i sistemi di deep learning.

È possibile risolvere il problema? “Per costruire sistemi migliori, dobbiamo focalizzarci sulla qualità dei dati prima di arrivare alla fase di produzione dei modelli algoritmici”, ha spiegato Miriam Santos, ricercatrice di YData. “Siamo noi che raccogliamo i dati, di conseguenza siamo noi a decidere che cosa va inserito o meno all’interno di un sistema”.

La selezione di dati rappresentativi di ogni gruppo che verrà impattato da uno specifico algoritmo è quindi un aspetto al quale si dà sempre più importanza. Più facile a dirsi che a farsi, soprattutto considerando che per addestrare i sistemi “text-to-image” vengono usati database come Layon 5B, che contengono oltre cinque miliardi di immagini: è davvero possibile verificare la loro diversità ed equità?

Oltre a una selezione più accurata dei dati, molte speranze sono riposte nella cosiddetta "explainable AI”: l’intelligenza artificiale in grado di esplicitare perché ha preso alcune decisioni, facilitando il processo di supervisione. Per quanto sia un settore molto promettente, la explainable AI è però ancora in fase sperimentale.

Progettare un algoritmo privo di bias non è inoltre un lavoro che si conclude: “Dopo la produzione del modello bisogna garantire che il sistema sia periodicamente verificato, ricevendo feedback ogni volta che le sue previsioni non sono eque o sono in qualche modo errate”, spiega ancora Santos.

Il pregiudizio algoritmico non ha quindi soluzioni immediate. Non c’è una riga di codice che si può aggiungere per eliminare discriminazioni e stereotipi. Al contrario, è richiesto un approccio alla diversità che va dalla selezione del personale – garantendo una varietà di prospettive ed esperienze – alla raccolta dati, dalla progettazione del modello alla sua implementazione.

Un approccio radicalmente diverso da quello tecnosoluzionista a cui sono abituati i colossi della Silicon Valley, che infatti sono sempre più insofferenti verso i loro stessi esperti di etica dell’intelligenza artificiale. Un’insofferenza esplosa nel 2020 con il licenziamento da parte di Google di Timnit Gebru, ricercatrice che aveva studiato i pregiudizi insiti in sistemi come ChatGPT, e che ha poi portato Microsoft, Meta, X (prima noto come Twitter) e altri a licenziare una buona parte del personale impegnato su queste tematiche.

Un atteggiamento che, forse, mostra la volontà di minimizzare un problema che potrebbe anche non essere risolvibile: “I pregiudizi rimarranno parte del deep learning”, si legge in una lunga analisi di TechTarget. “Il deep learning soffre di pregiudizi per definizione: le sue abilità predittive e decisionali richiedono infatti di dare la priorità ad alcuni attributi rispetto ad altri. Dobbiamo distinguere i pregiudizi accettabili da quelli inaccettabili”.

Finché questo cruciale aspetto non sarà risolto, se mai lo sarà, forse dovremmo smettere di utilizzare in campi delicati come la sorveglianza o il lavoro degli algoritmi che perpetuano lo status quo invece di aiutarci a superarlo.

© Riproduzione riservata