I senatori hanno bocciato gli emendamenti presentati dalla minoranza sul ddl 1146 che regola l’uso dell’Ia. No ad un ente autonomo di vigilanza diverso da Agid e Acn, e a misure che garantiscano la trasparenza sul sistema Sari usato dalla polizia. Ora il testo approvato con 85 sì e 42 no passa alla Camera
Il voto in Senato nella tarda mattinata di giovedì 20 marzo ha confermato la bocciatura agli emendamenti presentati da alcuni senatori del Partito democratico al disegno di legge 1146 sull’intelligenza artificiale, già deliberato in Consiglio dei ministri il 23 aprile 2024.
Presentato dalla presidente del Consiglio Giorgia Meloni e dal ministro della Giustizia Carlo Nordio lo scorso anno, ha lo scopo di stabilire regole applicabili ai settori investiti dall’intelligenza artificiale (sanità, lavoro, proprietà intellettuale). Ad esempio, vieta l’uso discriminatorio di sistemi di Ia nell’accesso alle prestazioni sanitarie e stabilisce l’obbligo di un’informazione trasparente ai pazienti sul loro utilizzo. Tutto ciò integrando e specificando meglio quanto già previsto dal Regolamento europeo sull’Intelligenza artificiale approvato nel 2024.
Gli emendamenti
Nella giornata di mercoledì 19 marzo, le Commissioni Ambiente e Lavori Pubblici e Sanità e Lavoro avevano già votato negativamente la proposta di istituire un’autorità indipendente per l’intelligenza artificiale che non fosse l’Agenzia per la cybersicurezza nazionale o l’AgID, come suggerito dai senatori Lorenzo Basso, Antonio Nicita e Filippo Sensi. «Il governo Meloni ha perso l’opportunità di dotare l’Italia di un’autorità indipendente per l’Ia, preferendo un modello frammentato e burocratico che rischia di rallentare lo sviluppo tecnologico e di lasciare i cittadini senza adeguate tutele», ha dichiarato Basso a Domani.
Stessa sorte è toccata all’emendamento del senatore Orfeo Mazzella del Movimento 5 Stelle, che proponeva l’introduzione di una relazione annuale sui sistemi di sorveglianza biometrica, da presentare anche al parlamento, pubblicata dal Garante per la privacy. «Uno strumento di trasparenza che avrebbe permesso di monitorare, con dati concreti e disaggregati, l’uso dei sistemi di identificazione biometrica e il loro impatto sui diritti umani», ha commentato Mazzella a Domani.
«Avremmo potuto verificare se l’utilizzo dei nostri dati biometrici fosse realmente giustificato dalla necessità di indagare su reati gravi, come il terrorismo, o se questi sistemi venissero utilizzati anche in altri casi», ha aggiunto, sottolineando come la decisione comprometta il controllo democratico su tecnologie particolarmente invasive come il riconoscimento facciale.
Il lungo stallo, che durava da mesi, ha visto una rapida accelerazione negli ultimi due giorni, ma senza particolari scadenze o ragioni che imponessero un rito più veloce. Un iter inusuale, che ha compresso inevitabilmente i tempi per le decisioni.
Il riconoscimento facciale
Un terzo emendamento non è arrivato né alle Commissioni né al Senato, essendo stato dichiarato inammissibile la sera di martedì 18 marzo. Prevedeva l’introduzione di alcune garanzie sull’utilizzo del sistema di riconoscimento facciale Sari, in dotazione alle forze di polizia a partire dal 2017.
Proposto da Mazzella e altri due senatori, chiedeva la pubblicazione trimestrale di dati in formato aperto sul funzionamento degli algoritmi impiegati da Sari, sul numero di ricerche effettuate con la versione Sari Enterprise (l’unica delle due attualmente legittima, che automatizza la corrispondenza tra volto e identità) e sul numero di risultati operativi idonei derivanti da queste corrispondenze. In altre parole, sapere in quante indagini il sistema Sari ha contribuito al fermo di sospetti criminali.
L’emendamento chiedeva anche maggiore trasparenza attraverso la pubblicazione di dati sui falsi positivi, ovvero gli errori nei riconoscimenti facciali prodotti dal sistema.
«Il rischio attuale con Sari è quello di impieghi distorti e abusi», commentano dalla Rete per i Diritti Umani Digitali, una coalizione di organizzazioni non governative, tra cui il Centro Hermes e The Good Lobby. «La mancata pubblicazione di dati fondamentali, come il numero di ricerche effettuate, i match risultati idonei e le statistiche di errore, non solo priva la cittadinanza di un dibattito informato, ma impedisce anche agli imputati di difendersi adeguatamente da eventuali errori di identificazione».
I passi precedenti
L’iter normativo italiano ha interessato anche la Commissione europea, che il 5 novembre scorso ha sottolineato in un parere la necessità di evitare una regolamentazione eccessiva, e caldeggiato una maggiore indipendenza per le autorità di regolamentazione nazionali.
Segnali precisi da Bruxelles, per indurre il legislatore italiano ad allineare maggiormente il disegno di legge al regolamento europeo sull’intelligenza artificiale (Ai Act), evitando una frammentazione normativa.
© Riproduzione riservata