Facebook usa l’IA per eliminare post falsi e potenzialmente pericolosi

Facebook ha deciso di utilizzare attivamente l'intelligenza artificiale per cancellare post falsi di disinformazione o pericolosi

facebook IA

Il social network Facebook è stato oggetto di critiche pesanti lo scorso anno da parte di persone che affermano che l’azienda non controlla a sufficienza l’incitamento all’odio, le molestie online e la diffusione di notizie false. Ovviamente, bisogna ammettere che il compito di controllare le attività di 1,62 miliardi di utenti giornalieri, incluse 350 milioni di foto al giorno, non è affatto facile. Anche per questo Facebook è la piattaforma social più grande al mondo.

Tuttavia, la società è stata criticata per aver consentito a decine di gruppi alimentati dall’odio di diffondere post offensivi e minacciosi e di aver dato possibilità a gruppi di teoria della cospirazione di estrema destra come QAnon di diffondere liberamente false accuse politiche, specialmente nel periodo delle elezioni americane.

 

Facebook utilizza l’intelligenza artificiale

Proprio per limitare questo problema, Facebook ha annunciato che introdurrà l’intelligenza artificiale nel processo di moderazione. Utilizzerà algoritmi per rilevare i problemi più gravi e assegnarli a moderatori umani. I moderatori del software continueranno a gestire gli abusi di livello inferiore come la violazione del copyright e lo spam.

Facebook afferma che valuterà i post problematici secondo tre criteri: viralità, gravità e probabilità che violino le regole. Un post intriso di oscenità che minaccia la violenza sul luogo di disordini razziali, ad esempio, avrebbe la massima priorità, rimosso automaticamente dalla macchina o assegnato a un moderatore per una valutazione e un’azione immediata.

“Tutte le violazioni dei contenuti ricevono ancora una sostanziale revisione umana”, ha affermato Ryan Barnes, un product manager del team di integrità e sicurezza dell’azienda. “Utilizzeremo questo sistema per dare priorità ai contenuti. Prevediamo di utilizzare una maggiore automazione quando la violazione dei contenuti è meno grave, soprattutto se il contenuto non è virale o viene rapidamente condiviso da un gran numero di persone”.

Foto di Thomas Ulrich da Pixabay