L’Intelligenza Artificiale può essere “razzista” nell’identificazione delle persone

Date:

Share post:

La tecnologia di riconoscimento facciale si è evoluta e alcuni prodotti commerciali riconoscono già il sesso della persona attraverso la fotografia. La circolazione delle informazioni attraverso i sistemi di intelligenza artificiale è sempre più comune e gli avvisi di errori stanno aumentando. Un nuovo studio mostra che l’efficacia percentuale si aggira intorno al 99% quando la foto è di un uomo bianco, ma diminuisce drasticamente la tonalità della pelle più scura.

Joy Buolamwini, una ricercatrice del MIT Media Lab, ha costruito un database di 1.270 immagini di volti usando quelli di politici selezionati in base alla classifica dei loro Paesi per parità di genere, cioè con un gran numero di donne. Il ricercatore ha presentato le immagini ai sistemi di riconoscimento facciale di Microsoft, IBM e Megvii, una soluzione di un’azienda cinese, e i risultati hanno mostrato incongruenze nell’identificazione del genere mediante la tecnologia dell’intelligenza artificiale.

Secondo il rapporto della ricercatrice, l’errore è stato inferiore all’1% negli uomini di pelle chiara, 7% nelle donne in toni chiari, il 12% degli uomini dalla pelle scura e fino al 35% quando le donne erano di colore. In generale, l’identificazione degli uomini è più efficace di quella delle donne e gli errori aumentano man mano che i toni della pelle diventano più scuri.

Già nel 2015, l’app Google Foto aveva identificato erroneamente i neri come gorilla. Nella promessa di correggere il sistema, solo la parola “gorilla” è stata rimossa dall’indicizzazione delle foto, il che dimostra la difficoltà di regolare gli algoritmi di identificazione. 

 

Un problema da risolvere

Il problema è più preoccupante poiché le autorità si affidano sempre più a sistemi di riconoscimento delle immagini per la ricerca e la sicurezza negli spazi pubblici. La polizia negli Stati Uniti, ad esempio, ha utilizzato le soluzioni di riconoscimento facciale dall’inizio del 2000 nelle loro indagini, con difetti fino al 15%, e diverse organizzazioni hanno sostenuto che questa mancanza di rigore aumenta il rischio che persone innocenti vengano considerate sospette di crimini.

Joy Buolamwini mette in guardia sulla necessità che i produttori di tecnologie aumentino il rigore e riducano il margine di errore degli algoritmi nei diversi gruppi demografici introducendo una maggiore trasparenza nel sistema di identificazione e capacità dei risultati.

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Guida ai Dispositivi di Telepedaggio: Scelte e Opzioni

I dispositivi di telepedaggio rappresentano oggi un must per tutti gli automobilisti della Penisola, soprattutto per coloro che...

Straordinaria scoperta della proteina anti-infiammazione che può prolungare la vita

Le recenti scoperte scientifiche stanno rivoluzionando la nostra comprensione di come l'infiammazione cronica influenzi l'invecchiamento e la longevità....

Splendida Luna del Cervo: un viaggio tra natura e tradizione

L'estate porta con sé molte meraviglie naturali, e una delle più affascinanti è senza dubbio la Luna del...

Microsoft: su Windows 11 arriverà l’IA solamente per alcune cose

E' il momento dell'IA, questo è in dubbio, la stiamo vedendo applicata in tantissimi ambiti, in alcune occasioni...