L’Intelligenza Artificiale può essere “razzista” nell’identificazione delle persone

Date:

Share post:

La tecnologia di riconoscimento facciale si è evoluta e alcuni prodotti commerciali riconoscono già il sesso della persona attraverso la fotografia. La circolazione delle informazioni attraverso i sistemi di intelligenza artificiale è sempre più comune e gli avvisi di errori stanno aumentando. Un nuovo studio mostra che l’efficacia percentuale si aggira intorno al 99% quando la foto è di un uomo bianco, ma diminuisce drasticamente la tonalità della pelle più scura.

Joy Buolamwini, una ricercatrice del MIT Media Lab, ha costruito un database di 1.270 immagini di volti usando quelli di politici selezionati in base alla classifica dei loro Paesi per parità di genere, cioè con un gran numero di donne. Il ricercatore ha presentato le immagini ai sistemi di riconoscimento facciale di Microsoft, IBM e Megvii, una soluzione di un’azienda cinese, e i risultati hanno mostrato incongruenze nell’identificazione del genere mediante la tecnologia dell’intelligenza artificiale.

Secondo il rapporto della ricercatrice, l’errore è stato inferiore all’1% negli uomini di pelle chiara, 7% nelle donne in toni chiari, il 12% degli uomini dalla pelle scura e fino al 35% quando le donne erano di colore. In generale, l’identificazione degli uomini è più efficace di quella delle donne e gli errori aumentano man mano che i toni della pelle diventano più scuri.

Già nel 2015, l’app Google Foto aveva identificato erroneamente i neri come gorilla. Nella promessa di correggere il sistema, solo la parola “gorilla” è stata rimossa dall’indicizzazione delle foto, il che dimostra la difficoltà di regolare gli algoritmi di identificazione. 

 

Un problema da risolvere

Il problema è più preoccupante poiché le autorità si affidano sempre più a sistemi di riconoscimento delle immagini per la ricerca e la sicurezza negli spazi pubblici. La polizia negli Stati Uniti, ad esempio, ha utilizzato le soluzioni di riconoscimento facciale dall’inizio del 2000 nelle loro indagini, con difetti fino al 15%, e diverse organizzazioni hanno sostenuto che questa mancanza di rigore aumenta il rischio che persone innocenti vengano considerate sospette di crimini.

Joy Buolamwini mette in guardia sulla necessità che i produttori di tecnologie aumentino il rigore e riducano il margine di errore degli algoritmi nei diversi gruppi demografici introducendo una maggiore trasparenza nel sistema di identificazione e capacità dei risultati.

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Come l’istruzione protegge il cervello dall’invecchiamento

L'istruzione supplementare e la formazione continua sono temi spesso associati al miglioramento delle competenze professionali e alla crescita...

Droni con visione ultra-precisa grazie alla tecnologia ispirata agli occhi dei gatti

Una svolta nel campo della visione artificiale potrebbe cambiare per sempre la capacità di droni, veicoli autonomi e...

Tatto Umano: scoperte rivoluzionarie sui 16 tipi di cellule nervose

La percezione tattile è una delle capacità sensoriali più affascinanti e complesse dell'essere umano, permettendoci di interpretare il...

Lettura: come le relazioni parasociali migliorano il benessere psicologico

La lettura è molto più che un semplice passatempo: essa può influenzare profondamente il nostro benessere psicologico, in...