Facebook ha assunto da 3000 nuovi revisori per contrastare il fenomeno della violenza on-line, anche YouTube è da tempo alle prese con simili problematiche. Il gigantesco portale video sta cercando un modo per gestire i contenuti che incitano all’odio senza però incoraggiare esplicitamente atti violenti. Una zona grigia, che va a impattare sulla libertà d’espressione e sulla necessità di contrastare fenomeni pericolosi quali la propaganda legata al terrorismo internazionale.
Il problema fondamentale è rappresentato dalla mancata violazione di regole specificate dalla piattaforma, in linea teorica una video di propaganda jihadista infatti non contravviene alla linee guida di YouTube e non sarebbe dunque passibile di misure restrittive. Bannare alcuni video basati su un’ideologia e non fare lo stesso con contenuti di diversa natura potrebbe danneggiare fortemente Youtube. Scopriamo insieme quali piani ha il colosso dello streaming video.
YouTube contro il terrorismo e non solo
Domenica scorsa Google – che possiede YouTube – ha annunciato nuove linee guida per aiutare le forze dell’ordine. “Quattro step che compiamo oggi per contrastare il terrore on-line”, questo il titolo di un post a firma di Kent Walker, senior vice president di Big G.
I primi due step riguardano l’identificazione e la rimozione di video che incoraggiano esplicitamente il terrorismo. Ma, come scrive Walker, non è sempre semplice come sembra, visto che dal 2012 viene caricata un’ora di contenuti video ogni secondo.
“Questa è una sfida: un video di attacco terroristico può essere un contenuto informativo di BBC, o una glorificazione della violenza caricata con finalità differenti da diversi utenti”, scrive Wrote. Una questione complicata, una sfida anomala che richiede risposte ad hoc.
Attualmente YouTube utilizza una combinazione tra analisi via software e controllo umano per trovare e cancellare video che violano le linee guida della community. Il primo passo, come scrive Walker, è di riservare maggiori risorse allo sviluppo software, con il fine di sviluppare sistemi di intelligenza artificiale in grado di imparare a gestire autonomamente la situazione.
Il secondo passo prevede l’aumento di “esperti indipendenti” da organizzazioni non governative che possano svolgere attività di revisione. “Le macchine possono aiutare nell’identificazione di video problematici – prosegue Walker – ma gli umani giocano ancora un ruolo fondamentale nel discernere tra propaganda violenta e messaggi leciti”.
Il terzo step riguarda i contenuti che non violano le regole del sito, ma comunque portano avanti un’agenda fondata sull’odio, come “video che contengono messaggi suprematisti”. Prendiamo per esempio Ahmad Musa Jibril, un predicatore che espone visioni in linea con il credo dell’ISIS. Un report del 2014 in merito alla radicalizzazione ha evidenziato come oltre metà dei soggetti reclutati dallo Stato Islamico segua Jibril su Facebook o Twitter.
Uno degli autori dell’attentato al London Bridge è diventato follower di Jibril tramite YouTube, come riporta la BBC. Questi video facilitano il processo di radicalizzazione ma non istigano direttamente ad azioni violente. E, ricordiamolo, i contenuti di Jibril non violano le linee di YouTube.
Lo staff del sito non può cancellare questi video o altri contenuti di questo tipo, l’idea è quella di ridurre l’engagement a essi legati, renderli non monetizzabili. L’ultimo passagggio è l’utilizzo di “inserzioni targettizzate per raggiungere potenziali recrute dell’ISIS” e indirizzarle verso video che possono far loro cambiare idea.
Fonte: washingtonpost.com