Facebook dice di avere una nuova arma per combattere l’incitamento all’odio. Il social network ha annunciato oggi un nuovo sistema di intelligenza artificiale, con il nome in codice “Rosetta”, che cerca di aiutare i propri computer a leggere e comprendere i miliardi di immagini e video pubblicati sul social network ogni giorno. Con il nuovo sistema, Facebook potrebbe rilevare più facilmente quali contenuti violano le sue regole sull’odio.
Normalmente, i computer usano un metodo chiamato Optical Character Recognition (OCR) per dire cosa c’è nelle immagini o nei video. Ma, a causa dei massicci numeri gestiti su Facebook (ci sono 2 miliardi e 200 milioni di persone che usano il social network ogni mese), anche l’OCR ha i suoi difetti. Quindi, Facebook ha affermato di aver costruito un sistema per operare su una scala più ampia.
Il sistema, che viene utilizzato sia su Facebook sia su Instagram, può anche essere utilizzato per migliorare la ricerca di foto e il contenuto del feed di notizie. Rosetta funziona estraendo testo in diverse lingue da oltre 1.000 miliardo di immagini e fotogrammi video in tempo reale.
Questo sistema sarà sicuramente utile, ora che Facebook si occupa del controllo dei contenuti nel suo social network. Facebook è stato accusato di contribuire a stimolare la violenza in Myanmar, Sri Lanka e India. Il mese scorso, il social network ha detto che stava prendendo provvedimenti per fermare la “diffusione dell’odio” in Myanmar a causa di disinformazioni pubblicate su Facebook. Il social network ha detto che 18 account e 52 pagine associate all’esercito del Myanmar sono stati eliminati a causa delle continue violenze etniche contro i musulmani Rohingya.
A luglio, Facebook ha dichiarato che inizierà a eliminare la disinformazione che mira a provocare o esacerbare la violenza. Ciò include pubblicazioni scritte e immagini manipolate. In precedenza, Facebook ha vietato solo i contenuti che richiedevano direttamente violenza. Ma la nuova politica copre ora le cosiddette fake news che hanno il potenziale di causare danni fisici, fino a casi estremi come il suicidio.
L’amministratore delegato di Facebook Mark Zuckerberg ha spesso affermato che l’azienda è alla ricerca di una intelligenza artificiale per cercare di ripulire Facebook. E rileverà in modo proattivo i contenuti discutibili invece di aspettare che qualcuno li segnali. Ma mentre la società sviluppa questa tecnologia, ha affermato che il social network sta assumendo 20.000 moderatori umani per monitorare la piattaforma alla ricerca di materiale dannoso.
D’altra parte, Facebook ha anche affermato che aggiungeva nuove lingue al suo set di strumenti di traduzione automatica. Il social network ha aggiunto 24 nuove lingue, che ora sono tradotte in più di 125 lingue, tra cui Hausa, Urdu e Nepalese.
Il morbo di Alzheimer non è curabile, difficilmente prevedibile in quanto non si conosce appieno il percorso dietro l'origine, ma…
La dieta volumetrica è un regime alimentare ideato dalla nutrizionista Barbara Rolls, basato sul principio di assumere alimenti con un…
Negli ultimi cento anni, il fondale del Tamigi ha restituito centinaia di ossa umane, portando alla luce un mistero che…
Un team di ricercatori cinesi ha identificato un nuovo ceppo di coronavirus nei pipistrelli, denominato HKU5-CoV-2. La scoperta arriva dall’Istituto…
Nonostante un nuovo iPhone sia stato presentato pochi giorni fa, sul web già si pensa ai modelli che usciranno nei…
La campagna di vaccinazione contro il Covid-19 ha rappresentato un passo cruciale nella lotta alla pandemia, contribuendo in modo significativo…