Dalla collaborazione con Jigsaw nasce un nuovo progetto Google chiamato Perspective, il quale è espressamente finalizzato all’identificazione dei commenti offensivi tramite l’utilizzo delle tecnologie di machine learning. Del resto l’uomo non può fronteggiare un fenomeno che nell’ultimo periodo ha posto in essere milioni e milioni di commenti.
Un ristretto numero di utenti addetti al controllo non può monitorare di fatto tutti i commenti rilasciati in rete procedendo ad una valutazione obiettiva dello stato del contenuto. Con il progetto Google Perspective il problema viene invece risolto alla fonte.
Nell’ultimo periodo l’utilizzo di sistemi di filtraggio si è reso fondamentale contro tutte quelle espressioni violente, inopportune e comunque fastidiose. Alcuni temi sono poi più sensibili di altri e l’aggressività dell’utente rappresenta a volte un vero problema ed un’apertura diretta alle ostilità collettive. In tal caso si parla espressamente del fenomeno dell’hate speech.
“Immaginate di avere una conversazione con un vostro amico su una notizia che avete letto questa mattina, ma ogni volta che dite qualcosa qualcuno vi urla in faccia, vi insulta o vi accusa di un terribile crimine. Se così fosse, probabilmente mettereste fine alla conversazione. Sfortunatamente, questo avviene sempre più frequentemente online, quando la gente cerca di esprimere le proprie opinioni sul suo sito di informazione preferito e viene invece attaccata con commenti offensivi.”
Come funziona Google Perspective?
L’obiettivo fondamentale è quello della creazione di una piattaforma ad acceso libero a disposizione degli editori, per il controllo del contenuto semantico degli utenti. L’analisi non realizza un filtro o una censura dei contenuti, ma effettua una valutazione preliminare del contenuto, e lo segnala al responsabile del monitoraggio.
Il singolo editore avrà in tal caso il compito di disporre il comportamento da tenere nei confronti del commento e del commentatore. Come spiegato nel Blog ufficiale di Google infatti:
“Perspective rivede i commenti e assegna loro un punteggio basato su quanto siano simili a commenti che gli utenti hanno indicato come “tossici”, o tali da spingere le persone ad abbandonare la conversazione. Per imparare a identificare un linguaggio potenzialmente ingiurioso, Perspective ha esaminato decine di migliaia di commenti, che sono stati etichettati manualmente da revisori umani. Ogni volta che Perspective trova nuovi esempi di commenti potenzialmente offensivi, o la sua valutazione viene corretta dagli utenti, migliora la capacità di valutare i commenti in futuro.”
Si tratta quindi di un semplice strumento di valutazione.
I primi test sul campo hanno coinvolto il New York Times che ogni giorno accoglie oltre 11.000 commenti .Essendo in presenza di una piattaforma di machine learning c’è sempre modo di migliorare l’algoritmo col tempo, ma già da questi primi test è stato evidenziato un buon rendimento nella comprensione semantica dei commenti, delle parole e del contesto della discussione.
“Mentre miglioriamo la tecnologia, stiamo anche lavorando per ampliarla. Il nostro primo modello è pensato per identificare il linguaggio offensivo, ma nel corso del prossimo anno ci piacerebbe avviare nuove collaborazioni per offrire modelli che funzionino anche in lingue diverse dall’inglese e che siano capaci di identificare commenti che siano attacchi personali oppure fuori tema.”
Ulteriori test sono stati disposti anche per Wikipedia, The Economist e The Guardian. Gli editor possono chiedere sin da subito le API tramite la compilazione di un semplice modulo. E voi che cosa ne penaste in merito al fenomeno dell’Hate Speech? Lasciateci pure tutti i vostri (possibilmente privi di odio) commenti al riguardo.
LEGGI ANCHE: Google e Bing alleati per combattere la pirateria