Facebook dice di avere una nuova arma per combattere l’incitamento all’odio. Il social network ha annunciato oggi un nuovo sistema di intelligenza artificiale, con il nome in codice “Rosetta”, che cerca di aiutare i propri computer a leggere e comprendere i miliardi di immagini e video pubblicati sul social network ogni giorno. Con il nuovo sistema, Facebook potrebbe rilevare più facilmente quali contenuti violano le sue regole sull’odio.
Normalmente, i computer usano un metodo chiamato Optical Character Recognition (OCR) per dire cosa c’è nelle immagini o nei video. Ma, a causa dei massicci numeri gestiti su Facebook (ci sono 2 miliardi e 200 milioni di persone che usano il social network ogni mese), anche l’OCR ha i suoi difetti. Quindi, Facebook ha affermato di aver costruito un sistema per operare su una scala più ampia.
Chi è Rosetta
Il sistema, che viene utilizzato sia su Facebook sia su Instagram, può anche essere utilizzato per migliorare la ricerca di foto e il contenuto del feed di notizie. Rosetta funziona estraendo testo in diverse lingue da oltre 1.000 miliardo di immagini e fotogrammi video in tempo reale.
Questo sistema sarà sicuramente utile, ora che Facebook si occupa del controllo dei contenuti nel suo social network. Facebook è stato accusato di contribuire a stimolare la violenza in Myanmar, Sri Lanka e India. Il mese scorso, il social network ha detto che stava prendendo provvedimenti per fermare la “diffusione dell’odio” in Myanmar a causa di disinformazioni pubblicate su Facebook. Il social network ha detto che 18 account e 52 pagine associate all’esercito del Myanmar sono stati eliminati a causa delle continue violenze etniche contro i musulmani Rohingya.
A luglio, Facebook ha dichiarato che inizierà a eliminare la disinformazione che mira a provocare o esacerbare la violenza. Ciò include pubblicazioni scritte e immagini manipolate. In precedenza, Facebook ha vietato solo i contenuti che richiedevano direttamente violenza. Ma la nuova politica copre ora le cosiddette fake news che hanno il potenziale di causare danni fisici, fino a casi estremi come il suicidio.
L’amministratore delegato di Facebook Mark Zuckerberg ha spesso affermato che l’azienda è alla ricerca di una intelligenza artificiale per cercare di ripulire Facebook. E rileverà in modo proattivo i contenuti discutibili invece di aspettare che qualcuno li segnali. Ma mentre la società sviluppa questa tecnologia, ha affermato che il social network sta assumendo 20.000 moderatori umani per monitorare la piattaforma alla ricerca di materiale dannoso.
D’altra parte, Facebook ha anche affermato che aggiungeva nuove lingue al suo set di strumenti di traduzione automatica. Il social network ha aggiunto 24 nuove lingue, che ora sono tradotte in più di 125 lingue, tra cui Hausa, Urdu e Nepalese.