Da tempo ormai si sente parlare di modelli predittivi nel mondo della giustizia: i programmi di intelligenza artificiale possono prevedere i risultati delle controversie?

È naturale pensare che il processo decisionale richieda sforzi cognitivi che non possono essere raggiunti dai programmi per computer in quanto privi di quella umanità, razionalità e coscienza critica, emotiva e sociale che, invece, caratterizzano l’essere umano.

È davvero così? Gli esperimenti condotti sul tema ci dicono il contrario: la stringa di codice matematico sottesa ad una decisione “artificiale” è sicuramente più imparziale ed equa di un ragionamento umano che, per quanto logico e rigoroso, viene influenzato dalla natura fallace dell’uomo.

Le incertezze, se così possiamo definirle, sull’utilizzo dell’IA sono ben altre.

Un primo problema è la mancanza di trasparenza nella decisione. I sistemi intelligenti si limitano ad analizzare i casi precedenti, l’uso di parole o di gruppi di parole per elaborare le proprie previsioni senza però spiegare nel dettaglio quali ragionamenti siano stati adottati.

Tuttavia, affinché l’IA venga implementata con sicurezza, è necessario che sia trasparente e che sappia spiegare le proprie decisioni: l’obiettivo è quello di rendere l’IA più responsabile e affidabile.

D’altronde fornire la motivazione di una scelta è una delle caratteristiche essenziali del processo decisionale: essa aiuta la parte soccombente a capire perché ha perso, rendendo così la decisione più accettabile (obiettivo di legittimità). Consente a tutte le parti di adattare il proprio comportamento in futuro, ad esempio, impugnando la decisione (obiettivo di incentivazione).

La trasparenza sulle motivazioni permette ai soggetti decisori di seguire una coerenza logica, sia a livello razionale che strutturale, durante il processo deliberativo (obbiettivo di coerenza). La necessità di decisioni motivate, dunque, può rappresentare in futuro un ostacolo non indifferente all’introduzione del processo decisionale basato sull’IA.

Allo stato attuale, quindi, la presenza di un essere umano sembrerebbe presupposto imprescindibile per l’adozione di decisioni “significative e complete”.  Nello sviluppo di un IA, i programmatori dovranno escogitare il metodo di ragionamento più efficace o, quantomeno, un’efficace combinazione di criteri tali da soddisfare i requisiti elencati.

A tal proposito, la ricerca sull’IA cerca da tempo di affrontare i problemi sollevati ed evidenzia la necessità di sviluppare le cosìddette “Explainable Artificial Intelligence” (o XAI) e cioè macchine in grado di illustrare come e cosa imparano.

Qualora l’IA dovesse essere in grado di spiegare le ragioni della propria decisione essa dovrà ulteriormente imparare a redigere la decisione con un linguaggio “umano”, tale da consentire una comprensione a livello di comunicazione da parte degli esseri umani.

“I sistemi intelligenti si limitano ad analizzare i casi precedenti, l’uso di parole o di gruppi di parole..”; se qualcuno potesse manipolare questi dati? O ancora, se la stessa IA fosse responsabile di una interpretazione distorta dei dati stessi? Ciò è capitato.

Nel 2015, la piattaforma di ricerca Google ha iniziato ad associare alcuni soggetti di etnia africana ad esemplari appartenenti al mondo animale, come i gorilla. Sempre negli ultimi anni, sulla piattaforma LinkedIn, si era riscontrato che gli annunci di lavori meglio retribuiti apparivano con meno frequenza sui “profili di sesso femminile”.

L’imparzialità è impossibile

Qualche considerazione. È impossibile che il comportamento umano sia in modo assoluto imparziale, data la natura fallace dell’uomo. Uno studio in materia di diritto penale condotto da un gruppo di ricercatori israeliani e statunitensi ha fatto luce sull’influenza dei fattori esterni sulle decisioni.

Lo studio ha esaminato circa 1100 provvedimenti dei giudici israeliani e ha dimostrato che la maggior parte delle istanze di libertà condizionale avanzate in quel periodo erano state respinte per una motivazione del tutto irrazionale e che la probabilità di ottenere una decisione favorevole era significativamente più alta se la richiesta fosse stata esaminata dopo la pausa pranzo dei giudici.

Ma come può l’IA, che ha dalla sua l’enorme vantaggio dell’oggettività algoritmica, essere influenzata da fattori non razionali? I programmi di IA, a differenza degli esseri umani, non hanno fame e non provano alcun tipo di emozione o sentimento, caratteristica che li permette di non essere influenzati da fattori esterni nel momento in cui devono prendere una decisione.

Infatti, vi è una notevole differenza tra l’esempio di Google e quello dei giudici israeliani: gli abbagli presi dall’IA sono classificabili come meri errori e, in quanto tali, se corretti, non si ripresentano.

La critica che viene mossa spesso contro l’IA e che questa, in quanto “intelligenza”, non debba mai compiere errori: così non è. L’IA è “intelligente” in quanto in grado di imparare evolvendosi, ma è pur sempre “artificiale”: ciò significa che il passaggio primo è un imput umano, che può non essere scevro da errori.

In conclusione, sono ancora tante le incertezze legate al processo decisionale dell’intelligenza artificiale la quale, tuttavia, presenta enormi vantaggi legati proprio all’assenza di umanità ed emozione.

Lo sviluppo tecnologico e l’autoapprendimento delle macchine sono molto rapidi e non devono essere ignorati: la strada giusta da percorrere è quella di lavorare insieme alla tecnologia e non già contro di essa.

© Riproduzione riservata