*avvocato e magistrato

È recentissima la pubblicazione della “bozza” di linee guida per l’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione, emesse nell’ambito del “Piano triennale per l’informatica nella pubblica amministrazione 2024-2026” approvato con D.P.C.M. del 2024.

Le linee guida sono emanate seguendo l’iter previsto all’articolo 71 del Codice dell’Amministrazione Digitale (CAD), e quindi prevedendo un termine, fino al marzo, per la consultazione.

La bozza in questione, all’art. 12, si occupa specificamente di “Reclutamento e gestione del personale” prevedendo che: “1. Nella ricerca e selezione del personale, nella costituzione del rapporto di lavoro e nella successiva gestione, l’Ente può avvalersi di Sistemi di Intelligenza Artificiale al fine di conseguire indicatori utili da sottoporre all’apprezzamento finale umano.

2. I Sistemi di Intelligenza Artificiale richiamati al comma che precede garantiscono, in quanto compatibili e conformemente ai regolamenti interni, il rispetto dei principi di pari opportunità e parità di genere”.

Si impone qualche riflessione. Viene data la possibilità, per la Pubblica Amministrazione, di utilizzare la IA nel rapporto di lavoro, dal momento iniziale (ricerca e selezione del personale), passando per il momento costitutivo del rapporto, fino ad arrivare a quello successivo della gestione.

L’utilizzo della IA è limitato ad acquisire indicatori da sottoporre ad un apprezzamento umano. Ebbene: la scelta di usare la IA per raccogliere indicatori rischia di essere fallace, nel senso di individuare uno strumento inidoneo allo scopo; infatti, la IA, soprattutto quella generativa, non è un mero raccoglitore di dati, ma è in grado di elaborare e generare dati anche non corrispondenti al vero (è il fenomeno noto come allucinazioni): sembra, quindi, a una prima lettura della disposizione, che si voglia usare la IA come un contenitore, cosa che non è.

Inoltre, anche a voler escludere il problema delle allucinazioni, resta concreto il rischio che l’elaborazione di dati risulti discriminatorio (ad esempio: le donne e/o gli uomini producono di più), incompatibile con l’agere pubblico: la IA non può garantire il rispetto di principi di pari opportunità e parità di genere per la dirimente ragione che apprende dai dati esistenti, che spesso riflettono disuguaglianze storiche e pregiudizi sociali; il rischio, quindi, è quello di perpetrare le disuguaglianze lavorative, senza farle evolvere. La IA è un oggetto, uno strumento, e questo, come tale, non garantisce alcunché, dipendendo da come è stato “costruito” e da come viene usato.

C’è poi un problema di trasparenza: considerando la quantità di dati necessaria per un addestramento e i diversi bilioni di parametri usati prima di dare una risposta, è praticamente impossibile verificare l’iter che ha condotto a quello specifico output.

Al più si potrebbe pensare ad una IA c.d. deduttiva, formata principalmente con la legge: questa non discrimina, infatti, e, completata e integrata dalla Costituzione, ne agevola anche la vis espansiva.

Il rischio più grande, infine, è che si ritagli, per l’uomo, quasi una funzione “notarile”, di mera certificazione degli esiti dell’elaborazione dell’IA. Il che è da evitare. Non solo perché l’esperienza recente della Pubblica Amministrazione (si pensi all’enorme contenzioso scaturito dai trasferimenti dei docenti regolati dall’algoritmo previsto dalla c.d. legge sulla “Buona Scuola”) insegna che spesso l’utilizzo di strumenti tecnologici avanzati costituisce un mezzo per delegare scelte irragionevoli spogliandosi di responsabilità.

Ma anche perché il rapporto di lavoro è, essenzialmente, un rapporto tra essere umani - o almeno si spera che resti ancora a lungo tale - in cui ciò che manca, spesso, specie nei momenti più complessi, come quelli in cui occorre scegliere se sanzionare il lavoratore per determinati comportamenti eventualmente anche con la misura estrema del licenziamento, è, a volte, il senso di umanità.

Ed è concreto il timore, allora, che una disposizione come quella esaminata possa ridurre ulteriormente, in maniera irrimediabile, gli spazi per quest’ultimo. Il che non sarebbe una buona notizia. Per nessuno.

© Riproduzione riservata