News

L’Intelligenza Artificiale può essere “razzista” nell’identificazione delle persone

La tecnologia di riconoscimento facciale si è evoluta e alcuni prodotti commerciali riconoscono già il sesso della persona attraverso la fotografia. La circolazione delle informazioni attraverso i sistemi di intelligenza artificiale è sempre più comune e gli avvisi di errori stanno aumentando. Un nuovo studio mostra che l’efficacia percentuale si aggira intorno al 99% quando la foto è di un uomo bianco, ma diminuisce drasticamente la tonalità della pelle più scura.

Joy Buolamwini, una ricercatrice del MIT Media Lab, ha costruito un database di 1.270 immagini di volti usando quelli di politici selezionati in base alla classifica dei loro Paesi per parità di genere, cioè con un gran numero di donne. Il ricercatore ha presentato le immagini ai sistemi di riconoscimento facciale di Microsoft, IBM e Megvii, una soluzione di un’azienda cinese, e i risultati hanno mostrato incongruenze nell’identificazione del genere mediante la tecnologia dell’intelligenza artificiale.

Secondo il rapporto della ricercatrice, l’errore è stato inferiore all’1% negli uomini di pelle chiara, 7% nelle donne in toni chiari, il 12% degli uomini dalla pelle scura e fino al 35% quando le donne erano di colore. In generale, l’identificazione degli uomini è più efficace di quella delle donne e gli errori aumentano man mano che i toni della pelle diventano più scuri.

Già nel 2015, l’app Google Foto aveva identificato erroneamente i neri come gorilla. Nella promessa di correggere il sistema, solo la parola “gorilla” è stata rimossa dall’indicizzazione delle foto, il che dimostra la difficoltà di regolare gli algoritmi di identificazione. 

 

Un problema da risolvere

Il problema è più preoccupante poiché le autorità si affidano sempre più a sistemi di riconoscimento delle immagini per la ricerca e la sicurezza negli spazi pubblici. La polizia negli Stati Uniti, ad esempio, ha utilizzato le soluzioni di riconoscimento facciale dall’inizio del 2000 nelle loro indagini, con difetti fino al 15%, e diverse organizzazioni hanno sostenuto che questa mancanza di rigore aumenta il rischio che persone innocenti vengano considerate sospette di crimini.

Joy Buolamwini mette in guardia sulla necessità che i produttori di tecnologie aumentino il rigore e riducano il margine di errore degli algoritmi nei diversi gruppi demografici introducendo una maggiore trasparenza nel sistema di identificazione e capacità dei risultati.

Federica Vitale

Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Recent Posts

Apple: arriva la promo ufficiale del Black Friday

Anche quest'anno Apple ha deciso di lanciare una promozione speciale in occasione del Black Friday! Per ben 4 giorni, dal…

22 Novembre 2024

Ketamina a basso dosaggio: un trattamento salvavita per la depressione resistente

Negli ultimi anni, la ricerca clinica è rivolta all'attenzione sulla ketamina, un farmaco noto soprattutto come anestetico, per il suo…

22 Novembre 2024

Perché si chiama Black Friday? Origini e significato

Il termine Black Friday ha avuto origini molto diverse rispetto all’attuale associazione con lo shopping. Ecco una panoramica delle tappe…

22 Novembre 2024

Il linguaggio universale delle emozioni: i suoni che ci connettono oltre le parole

I suoni che esprimono emozioni, come risate, pianti, grida di sorpresa o gemme di dolore, sono un fenomeno umano che…

22 Novembre 2024

Cannabis e psicosi negli adolescenti: i percorsi metabolici alla base del rischio

L'uso della cannabis in adolescenza è da tempo associato a un aumento del rischio di sviluppo psicosi, ma i meccanismi…

21 Novembre 2024

Il Limite del Caos del Cervello: Verso Chip per Computer Ultraefficienti

Il cervello umano è un sistema straordinario che opera al limite tra ordine e caos, un punto in cui le…

21 Novembre 2024