intelligenza_artificiale

La tecnologia di riconoscimento facciale si è evoluta e alcuni prodotti commerciali riconoscono già il sesso della persona attraverso la fotografia. La circolazione delle informazioni attraverso i sistemi di intelligenza artificiale è sempre più comune e gli avvisi di errori stanno aumentando. Un nuovo studio mostra che l’efficacia percentuale si aggira intorno al 99% quando la foto è di un uomo bianco, ma diminuisce drasticamente la tonalità della pelle più scura.

Joy Buolamwini, una ricercatrice del MIT Media Lab, ha costruito un database di 1.270 immagini di volti usando quelli di politici selezionati in base alla classifica dei loro Paesi per parità di genere, cioè con un gran numero di donne. Il ricercatore ha presentato le immagini ai sistemi di riconoscimento facciale di Microsoft, IBM e Megvii, una soluzione di un’azienda cinese, e i risultati hanno mostrato incongruenze nell’identificazione del genere mediante la tecnologia dell’intelligenza artificiale.

Secondo il rapporto della ricercatrice, l’errore è stato inferiore all’1% negli uomini di pelle chiara, 7% nelle donne in toni chiari, il 12% degli uomini dalla pelle scura e fino al 35% quando le donne erano di colore. In generale, l’identificazione degli uomini è più efficace di quella delle donne e gli errori aumentano man mano che i toni della pelle diventano più scuri.

Già nel 2015, l’app Google Foto aveva identificato erroneamente i neri come gorilla. Nella promessa di correggere il sistema, solo la parola “gorilla” è stata rimossa dall’indicizzazione delle foto, il che dimostra la difficoltà di regolare gli algoritmi di identificazione. 

 

Un problema da risolvere

Il problema è più preoccupante poiché le autorità si affidano sempre più a sistemi di riconoscimento delle immagini per la ricerca e la sicurezza negli spazi pubblici. La polizia negli Stati Uniti, ad esempio, ha utilizzato le soluzioni di riconoscimento facciale dall’inizio del 2000 nelle loro indagini, con difetti fino al 15%, e diverse organizzazioni hanno sostenuto che questa mancanza di rigore aumenta il rischio che persone innocenti vengano considerate sospette di crimini.

Joy Buolamwini mette in guardia sulla necessità che i produttori di tecnologie aumentino il rigore e riducano il margine di errore degli algoritmi nei diversi gruppi demografici introducendo una maggiore trasparenza nel sistema di identificazione e capacità dei risultati.