L’Intelligenza Artificiale può essere “razzista” nell’identificazione delle persone

Date:

Share post:

La tecnologia di riconoscimento facciale si è evoluta e alcuni prodotti commerciali riconoscono già il sesso della persona attraverso la fotografia. La circolazione delle informazioni attraverso i sistemi di intelligenza artificiale è sempre più comune e gli avvisi di errori stanno aumentando. Un nuovo studio mostra che l’efficacia percentuale si aggira intorno al 99% quando la foto è di un uomo bianco, ma diminuisce drasticamente la tonalità della pelle più scura.

Joy Buolamwini, una ricercatrice del MIT Media Lab, ha costruito un database di 1.270 immagini di volti usando quelli di politici selezionati in base alla classifica dei loro Paesi per parità di genere, cioè con un gran numero di donne. Il ricercatore ha presentato le immagini ai sistemi di riconoscimento facciale di Microsoft, IBM e Megvii, una soluzione di un’azienda cinese, e i risultati hanno mostrato incongruenze nell’identificazione del genere mediante la tecnologia dell’intelligenza artificiale.

Secondo il rapporto della ricercatrice, l’errore è stato inferiore all’1% negli uomini di pelle chiara, 7% nelle donne in toni chiari, il 12% degli uomini dalla pelle scura e fino al 35% quando le donne erano di colore. In generale, l’identificazione degli uomini è più efficace di quella delle donne e gli errori aumentano man mano che i toni della pelle diventano più scuri.

Già nel 2015, l’app Google Foto aveva identificato erroneamente i neri come gorilla. Nella promessa di correggere il sistema, solo la parola “gorilla” è stata rimossa dall’indicizzazione delle foto, il che dimostra la difficoltà di regolare gli algoritmi di identificazione. 

 

Un problema da risolvere

Il problema è più preoccupante poiché le autorità si affidano sempre più a sistemi di riconoscimento delle immagini per la ricerca e la sicurezza negli spazi pubblici. La polizia negli Stati Uniti, ad esempio, ha utilizzato le soluzioni di riconoscimento facciale dall’inizio del 2000 nelle loro indagini, con difetti fino al 15%, e diverse organizzazioni hanno sostenuto che questa mancanza di rigore aumenta il rischio che persone innocenti vengano considerate sospette di crimini.

Joy Buolamwini mette in guardia sulla necessità che i produttori di tecnologie aumentino il rigore e riducano il margine di errore degli algoritmi nei diversi gruppi demografici introducendo una maggiore trasparenza nel sistema di identificazione e capacità dei risultati.

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Polmonite bilaterale: cos’è, quali rischi comporta e come viene curata

La polmonite bilaterale è un'infiammazione che coinvolge entrambi i polmoni, spesso causata da infezioni batteriche, virali o fungine....

Neutrini: più grandi del previsto, una scoperta rivoluzionaria

I neutrini sono tra le particelle più misteriose dell'Universo. Invisibili e quasi privi di interazione con la materia,...

Acqua ionizzata: nuova frontiera del ringiovanimento della pelle senza aghi

L’industria della skincare è in continua evoluzione e sempre più spesso la scienza propone alternative non invasive ai...

E il re della pista da ballo cosmica della Via Lattea era… un buco nero

Il telescopio spaziale James Webb ha recentemente rilevato un fenomeno straordinario nel cuore della nostra galassia: il buco...