Microsoft ha lanciato un nuovo software di analisi per individuare immagini o foto manipolate artificialmente, generalmente identificate con il nome di “deepfake”. Lo strumento, chiamato Video Authenticator, fornisce una percentuale o punteggio che determina se il supporto è stato manipolato. “Nel caso di un video, può fornire questa percentuale in tempo reale su ogni fotogramma durante la riproduzione del video”, scrive Microsoft in un post. “Funziona rilevando il confine di fusione degli elementi deepfake e sottili dissolvenze o scale di grigi che potrebbero non essere rilevabili dall’occhio umano.”
Se un contenuto online sembra reale, ma è sospetto, è probabile che si tratti di una manipolazione high tech che cerca di passare per reale, forse con un intento dannoso di disinformare le persone. E mentre molti deepfake sono creati con un intento ironico, tali media sintetici possono ancora assumere una vita propria mentre si diffondono, il che significa che possono anche finire per ingannare gli spettatori ignari.
Mentre la tecnologia AI viene utilizzata per generare deepfake realistici, identificare la disinformazione visiva utilizzando la tecnologia è ancora un problema difficile e una mente che pensa in modo critico rimane lo strumento migliore per individuare BS ad alta tecnologia. Tuttavia, i tecnologi continuano a lavorare sugli spotter deepfake, inclusa l’ultima offerta di Microsoft.
Una lotta continua contro la disinformazione
Sebbene il post avverta che la tecnologia può offrire solo un’utilità passeggera nella corsa agli armamenti contro la disinformazione alimentata dall’intelligenza artificiale: “Il fatto che i deepfake siano generati dall’intelligenza artificiale che può continuare ad apprendere rende inevitabile che batteranno la tecnologia di rilevamento convenzionale. Tuttavia, nel breve periodo, come le imminenti elezioni statunitensi, le tecnologie di rilevamento avanzate possono essere uno strumento utile per aiutare gli utenti più esigenti a identificare i deepfake”.
Microsoft sta anche collaborando con la AI Foundation con sede a San Francisco per rendere lo strumento disponibile alle organizzazioni coinvolte nel processo democratico quest’anno, compresi i notiziari e le campagne politiche. “Video Authenticator sarà inizialmente disponibile solo tramite RD2020 [Reality Defender 2020], che guiderà le organizzazioni attraverso i limiti e le considerazioni etiche inerenti a qualsiasi tecnologia di rilevamento deepfake. Le campagne e i giornalisti interessati a saperne di più possono contattare RD2020 qui”, aggiunge Microsoft.
Le “armi” anti-deepfake di Microsoft
Lo strumento è stato sviluppato dalla sua divisione R&D, Microsoft Research, in coordinamento con il suo team Responsible AI e un organo consultivo interno su AI, Ethics and Effects in Engineering and Research Committee – come parte di un programma più ampio che Microsoft sta conducendo per difendere la democrazia dalle minacce poste dalla disinformazione.
“Ci aspettiamo che i metodi per generare media sintetici continueranno a crescere in sofisticazione”, continua. “Poiché tutti i metodi di rilevamento dell’IA hanno tassi di fallimento, dobbiamo capire ed essere pronti a rispondere ai deepfake che sfuggono ai metodi di rilevamento. Pertanto, a lungo termine, dobbiamo cercare metodi più forti per mantenere e certificare l’ autenticità degli articoli di notizie e di altri media. Ci sono pochi strumenti oggi per assicurare ai lettori che i media che stanno vedendo online provengono da una fonte attendibile e che non sono stati alterati”.
Su quest’ultimo fronte, Microsoft ha anche annunciato un sistema che consentirà ai produttori di contenuti di aggiungere hash digitali e certificati ai media che rimangono nei loro metadati mentre il contenuto viaggia online, fornendo un punto di riferimento per l’autenticità. Il secondo componente del sistema è uno strumento di lettura, che può essere distribuito come estensione del browser, per il controllo dei certificati e la corrispondenza degli hash per offrire allo spettatore quello che Microsoft chiama “un alto grado di accuratezza”, ovvero che un particolare contenuto è autentico e non è stato modificato. La certificazione fornirà anche allo spettatore dettagli su chi ha prodotto i media.
Microsoft spera che questo sistema di autenticità del watermark digitale finisca per sostenere una “Trusted News Initiative” annunciata lo scorso anno dall’emittente britannica BBC, in particolare per un componente di verifica, chiamato Project Origin, che è guidato da una coalizione della BBC, CBC / Radio-Canada, Microsoft e The New York Times. Secondo Microsoft la tecnologia di watermarking digitale sarà testata da Project Origin con l’obiettivo di svilupparla in uno standard che possa essere adottato ampiamente.