Il Parlamento europeo ha prodotto il primo provvedimento al mondo che va a normare l’Intelligenza artificiale.

Il 13 marzo i parlamentari europei, a larghissima maggioranza, hanno approvato con 523 voti favorevoli, 46 contrari e 49 astensioni l’Artificial Intelligence Act.

Gli auro parlamentari a fine 2023 avevano già approvato la piattaforma che avrebbe prodotto poi il regolamento sull’intelligenza artificiale.

Come detto, l’Europa ha prodotto per prima il regolamento che definisce obblighi precisi per l'IA partendo dal considerare i rischi e i pericoli derivanti dall’utilizzo dei sistemi IA, considerando il livello d'impatto sul genere umano e sulle organizzazioni democratiche.

Nonostante l’approvazione, l’impatto normativo dell’IA Act non sarà immediato, bensì ponderato e a tappe.

Il legislatore europeo, così come avvenne nel 2016 con l’approvazione del Gdpr (il regolamento europeo per la protezione dei dati), si è posto l’obiettivo di proteggere i diritti fondamentali, ed ha valutato la sostenibilità ambientale dei sistemi di IA ad alto rischio.

L’iter normativo

Il nuovo regolamento europeo entrerà in vigore 20 giorni dopo la pubblicazione sulla Gazzetta Ufficiale dell’Unione europea, l’efficacia effettiva della norma, così come accaduto con il Gdpr, verrà messa in atto tra due anni.

Le ragioni di un iter così lungo sono date dall’attenzione del legislatore europeo alle imprese e ai soggetti che dovranno adeguarsi agli obblighi del AI Act.

I primi divieti scatteranno già tra 6 mesi.

Tra i divieti vi sono le applicazioni di IA che minacciano i diritti dei cittadini: i sistemi di categorizzazione biometrica, l'estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni da telecamere per creare banche dati, sistemi automatizzati di social scoring, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva ed i sistemi di manipolazione del comportamento umano.

Gli ulteriori effetti del AI Act si produrranno a 12,24 e 36 mesi (per i sistemi di intelligenza artificiale generale, distinti per livello di rischio), per arrivare ai 48 per i sistemi AI ad alto rischio utilizzati dalle autorità pubbliche.

L’utilizzo della IA da parte delle forze di pubblica sicurezza.

La prevenzione di attacchi terroristici e la prevenzione dei reati in genere mediante l’utilizzo dell’intelligenza artificiale risulta essere il tema più discusso nel corso del dibattito politico.

L’identificazione biometrica nell’ambito della prevenzione del terrorismo e per la prevenzione della commissione dei reati verranno lasciate al potere normativo degli Stati membri.

In linea generale – per non dire di principio – le forza di sicurezza pubblica non potranno utilizzare l’identificazione biometrica e saranno previste però specifiche situazioni previste obbligatoriamente per legge in cui sarà consentito l’utilizzo.

L'identificazione facciale in tempo reale potrà essere quindi utilizzata solo se, previamente, l’autorità di p.s. avrà rispettata rigorose garanzie per il rispetto delle libertà individuali.

L’uso dell’identificazione biometrica sarà limitato nel tempo e nello spazio e opportunamente autorizzato a ciò da parte dell’autorità giudiziaria o amministrativa.

L’utilizzo di questo tipo di tecnologia, quindi, dovrà essere utilizzato solo per condotte riferibili alla commissione di reati.

Ambito di applicazione e principali obblighi

Il nuovo Regolamento troverà quali principali referenti le aziende produttrici di sistemi di intelligenza artificiale che immettono i loro prodotti all’interno dell’Unione Europea.

Saranno obbligate al nuovo regolamento anche le aziende che produrranno extra Ue ma i cui risultati frutto dell’intelligenza artificiale verranno impiegati in Europa.

Escluse dall’ambito applicativo dell’AI Act, i soggetti che utilizzano intelligenza artificiale esclusivamente per scopi militari e di difesa e per ricerca e sviluppo scientifico.

Altro ambito di esclusione del regolamento comunitario è per i soggetti ( persone fisiche) che utilizzeranno l’intelligenza artificiale per motivi non professionali (ludico-ricreativi).

L’AI Act ha introdotto una serie di obblighi significativi che coinvolgono direttamente fornitori e distributori di sistemi di intelligenza artificiale classificati ad alto rischio.

Gli operatori economici di sistemi ad alto rischio dovranno garantire la conformità dei loro prodotti ai requisiti tecnici del Regolamento, disporre di un sistema di qualità, adottare misure correttive se richieste dalle Autorità competenti e, infine, dichiarare la conformità UE dei prodotti.

I produttori e importatori di IA per finalità generali dovranno affidare la sorveglianza umana dei sistemi a persone competenti e monitorare il funzionamento degli stessi, garantendo la cooperazione con le autorità di controllo.

© Riproduzione riservata