- L’intelligenza artificiale non è oggettiva e riproduce le discriminazioni già esistenti nella società a diversi livelli. Il problema può sorgere a livello di modello, di dati o di interpretazione della risposta data dall’AI.
- Senza un approccio critico, l’AI rischia di essere impiegato in maniera errata e di ledere i diritti di alcuni gruppi di persone, come ad esempio i migranti. Su di loro sono usati sistemi catalogati dall’Ue come ad alto rischio.
- L’AI è uno strumento attraverso cui concretizzare una certa idea di futuro, per questo è importante essere consapevoli della sua non-neutralità e implementare politiche pubbliche consapevoli.
Sistemi di Intelligenza artificiale come ChatGpt o modelli di decisione automatica per l’analisi dei curricula o dei mutui sono ormai parte integrante della nostra quotidianità, anche se non sempre ne siamo consapevoli. Negli ultimi anni anche le istituzioni europee hanno largamente investito nell’AI fino a trasformarla in uno dei pilastri delle politiche migratorie comunitarie, ma l’oggettività di questi sistemi - data ormai per scontata - è in realtà tutt’altro che confermata. Uno dei prob



