Tecnologia

L’intelligenza artificiale ha imparato a essere razzista e sessista

  • Arresti ingiustificati, discriminazioni nella selezione dei curriculum e altro ancora: a fare le spese dei bias dell’intelligenza artificiale sono sempre le donne e le minoranze
  • Nella maggior parte dei casi, il problema sta tutto nel database usato per l’addestramento, costituito da dati in cui sono inevitabilmente incorporati i pregiudizi della società
  • Gli stessi problemi si sono verificati recentemente anche con sistemi di ultima generazione come ChatGPT o Dall-E 2. E allora che cosa si può fare?

È il gennaio 2020 quando la polizia di Detroit si reca presso l’abitazione di Robert Julian-Borchak Williams, un uomo nero, per arrestarlo. Williams è accusato di aver rubato alcuni orologi nel negozio di lusso Shinola per un totale di 3.800 dollari. A segnalare la sua identità ai poliziotti è stato un algoritmo di riconoscimento facciale, incaricato di confrontare le immagini salvate dalle videocamere di sicurezza con il database a disposizione delle forze dell’ordine. “Questo non sono io, c

Per continuare a leggere questo articolo