C’è un aspetto dell’Ia su cui non si riflette abbastanza. Sappiamo tutti che la sua forza sta nella potenza di calcolo: processare una quantità enorme di informazioni in un segmento minimo di tempo. Ma non ha il senso della misura: intesa come modalità di calibrare il comportamento. Perché richiede una valutazione che non è calcolo, è giudizio, giudizio umano e critico, su limiti e condizioni delle cose
Mentre la giustizia guadagna il centro della scena, con la questione riforma che polarizza il dibattito, ho partecipato pochi giorni fa a una interessantissima tavola rotonda universitaria, organizzata per lo più da penalisti, sulla giustizia ai tempi dell’intelligenza artificiale. Poco tempo prima, con alcune delle stesse persone avevo avuto un dibattito sul rapporto fra verità giudiziaria e verità mediatica (e il tema continua ad appassionarmi; nel mio libro ne parlo nel capitolo dedicato ai true crime; anche in questi giorni, del resto, continuiamo ad avere nella nostra dose quotidiana di Garlasco…).
Dai media tradizionali all’intelligenza artificiale, del resto, il passo è breve, almeno secondo me e almeno sotto certi rispetti: ci consegnano tutti a un mondo “sceneggiato”, organizzato secondo i pattern preferiti dal senso comune: i temi più frequentati, le curiosità più frequenti, gli attori più apprezzati, i mali più conformi al cuore del nostro tempo.
Ma cosa succede quando un avvocato chiede a ChatGpt di trovargli i precedenti di un certo tipo di reato? O quando una requisitoria viene articolata e scritta con l’aiuto dell’intelligenza artificiale generativa? L’intelligenza umana viene in questi casi efficacemente sostituita? (Efficacemente, a dire il vero, non pare tanto…, perché al workshop che dicevo sono stati citati casi di ignominiosi errori).
Guardare avanti
Alla tavola rotonda, come accade sempre in questo genere di dibattiti, c’erano apocalittici (che esortavano alla resistenza, quasi luddista, verso queste nuove tecnologie); c’erano entusiasti, che ricordavano tutti i vantaggi che l’intelligenza artificiale può darci, smentendo radicalmente l’uniformazione che temiamo ogni volta che pensiamo a questi sistemi; e c’erano integrati, come me, che registravano l’ineluttabilità del cambiamento, la necessità di accettarlo, l’opportunità di sfruttarlo con consapevolezza critica.
Fondamentale, quanto meno ai miei occhi: non limitarsi a volgersi indietro verso i cari vecchi tempi andati (quali poi? Quelli dei faldoni cartacei? O già quelli di Google e Wikipedia?) come accecati da una Medusa che spaventa mentre attrae, così come non limitarsi a fare finta che niente stia cambiando davvero. Alcune cose – e importanti – sono già cambiate, in termini epistemici: cosa rappresenta oggi l’idea di evidenza? Quali sono i margini dei giudizi predittivi? Com’è cambiato il ragionamento probatorio? La perizia cosa diventa, di fronte a un’evidenza fornita dall’Ia?
Se questi sono alcuni dei quesiti epistemici che l’intelligenza artificiale solleva in un campo tecnico, autorevole e lento al cambiamento come quella della giustizia, e che dovrebbero impegnarci molto più della semplice giaculatoria della paura, c’è un aspetto dell’intelligenza artificiale su cui secondo me non si riflette abbastanza e che è assolutamente trasversale alle differenti sfere dell’esperienza umana in cui si ricorre alla Ia, dalla medicina alla giustizia, dalla didattica alla guerra: quello della misura.
Certo, sappiamo tutti che la forza dell’Ia sta nella sua potenza di calcolo: processare una quantità enorme di informazioni in un segmento minimo di tempo. E certo questo è un problema di misura.
Ma io intendo un altro aspetto del problema, che è quello della misura nel senso di criterio, come quando si dice di una persona: «Non ha il senso della misura». È un’affermazione che più o meno ha lo stesso senso pragmatico di: «non ha il senso della realtà».
La misura, nel modo in cui voglio intenderla io, non è solo una questione di quantità. È anche una questione di appropriatezza. C’è una misura della intransigenza, una misura del divertimento e del piacere, una misura perfino dell’amore o della generosità, cioè perfino di qualcosa che è in sé indubitabilmente buono.
Misura e giudizio
La misura, così intesa, in quanto modalità appropriata di calibrare il comportamento, richiede discernimento, richiede valutazione del contesto, richiede attenzione, richiede cioè una valutazione che non è calcolo, è giudizio, giudizio umano e critico, su limiti e condizioni delle cose.
In questi tempi in cui ci interroghiamo continuamente sui rischi cui ci espone l’intelligenza artificiale, o meglio sulla concorrenza che l’intelligenza artificiale fa alla nostra intelligenza, mentre pensiamo al fatto che l’Ia fa molte più cose di noi su formati infinitamente più estesi e molto più velocemente, non consideriamo però che essa non ha il senso della misura che dico io, non per ora, almeno. E in certi momenti questo fatto assume contorni drammatici: abbiamo letto dei sistemi di sorveglianza applicati dall’Idf nella striscia di Gaza per individuare i target da attaccare.
Lavender – questo il nome del programma – ha svolto un ruolo centrale e senza precedenti nei bombardamenti a quanto pare (si vedano a proposito gli articoli pubblicati da 972magazine). Addestrato sulle conversazioni e informazioni personali dei palestinesi, e così capace di individuare i soggetti-target, Lavender ha individuato migliaia di persone, indicando precisamente dove bombardare, e ha fatto chirurgicamente partire l’ordigno. Sembra, però, che non abbia tenuto in conto il “costo umano” complessivo di quel target; se colpire il target individuato comportava – faccio per dire – far saltare altri 20 civili totalmente estranei, non importava. Lavender indicava dove colpire, e in modo abbastanza automatizzato intervenire, riducendo la responsabilità della scelta del militare di turno a calcolo.
Ebbene, Lavender aveva capacità di misurazione, addestrata su misure enormi di dati, ma non aveva il senso della misura, quella facoltà tutta umana per cui si esita di fronte ai costi delle azioni, e si calcolano tutte le conseguenze dei propri gesti, anche le conseguenze morali.
Senza pensare a casi così drammatici, poniamoci il problema della misura quando leggiamo delle conversazioni intime, sempre più frequenti, fra adolescenti e ChatGpt(o affini) in merito a problemi di cuore: cosa mi consigli di fare? Cosa devo rispondere? Qual è la frase giusta da dire?
ChatGpt ha un serbatoio enorme di possibilità, sa certamente scegliere quella più usata in casi come quello che prefigura la domanda, ma avrà il senso della misura, saprà cioè commisurare la sua risposta alla reazione emotiva di chi dovrebbe pronunciarla o riceverla? Qual è l’appropriatezza pragmatica di una risposta come quella di ChatGpt? È una appropriatezza statistica, ma le vite intime o familiari, specie nei momenti di infelicità – lo diceva anche Tolstoj – non sono tutte uguali e la statistica, forse, non è la scienza giusta.
La capacità solo umana
L’intelligenza artificiale ci abitua a una misura statistica dei pensieri e delle azioni: valorizza ciò che ricorre di più. Ma noi umani alla misura statistica aggiungiamo la misura del giudizio – un giudizio che a volte viene perfino formalizzato, quando prende le forme procedurali di un processo, e arriva a una sentenza.
La capacità di calcolo è dell’intelligenza artificiale; il senso della misura è umano, tutto umano.
Non credo ci possa essere una giustizia artificiale, un giudizio artificiale, una valutazione dell’intelligenza artificiale. Questa può processare elementi, collegarli, trovare corrispondenze, ma intanto, per fare tutto ciò, avrà bisogno di un buon prompt (ovvero di buone domande – messaggio, questo, vecchio quanto l’uomo: la saggezza consiste nel saper fare buone domande più che nel dare risposte…); infine per essere davvero adeguata dovrebbe essere abduttiva, trovare la regola (la legge, il principio, lo schema) che spiega il caso su cui deve pronunciarsi. E questa è cosa creativa, non logicamente deduttiva né disordinata come sono le induzioni basate su accumulo di esperienza.
Anna Maria Lorusso, professoressa di Semiologia all’Università di Bologna è stata allieva e collaboratrice di Umberto Eco. È in libreria con il suo nuovo saggio, Il senso della realtà (La nave di Teseo), sarà ospite il 21 novembre all’Eredità delle Donne per dialogare insieme a Francesca Giovannini, Direttrice Esecutiva del programma di ricerca sul nucleare presso la Harvard Kennedy School, nel talk “Algoritmi muscolari”, un confronto per leggere la guerra di oggi tra forza, informazione, tecnologia e narrazione (Auditorium Fondazione CR dalle 15.30 alle16.15). L’Eredità delle Donne è il festival dedicato all’empowerment e alle competenze femminili con la direzione artistica di Serena Dandini. La manifestazione si terrà a Firenze e online, dal 21 al 23 novembre.
© Riproduzione riservata


