Microsoft ha lanciato un nuovo software di analisi per individuare immagini o foto manipolate artificialmente, generalmente identificate con il nome di “deepfake”. Lo strumento, chiamato Video Authenticator, fornisce una percentuale o punteggio che determina se il supporto è stato manipolato. “Nel caso di un video, può fornire questa percentuale in tempo reale su ogni fotogramma durante la riproduzione del video”, scrive Microsoft in un post. “Funziona rilevando il confine di fusione degli elementi deepfake e sottili dissolvenze o scale di grigi che potrebbero non essere rilevabili dall’occhio umano.”
Se un contenuto online sembra reale, ma è sospetto, è probabile che si tratti di una manipolazione high tech che cerca di passare per reale, forse con un intento dannoso di disinformare le persone. E mentre molti deepfake sono creati con un intento ironico, tali media sintetici possono ancora assumere una vita propria mentre si diffondono, il che significa che possono anche finire per ingannare gli spettatori ignari.
Mentre la tecnologia AI viene utilizzata per generare deepfake realistici, identificare la disinformazione visiva utilizzando la tecnologia è ancora un problema difficile e una mente che pensa in modo critico rimane lo strumento migliore per individuare BS ad alta tecnologia. Tuttavia, i tecnologi continuano a lavorare sugli spotter deepfake, inclusa l’ultima offerta di Microsoft.
Sebbene il post avverta che la tecnologia può offrire solo un’utilità passeggera nella corsa agli armamenti contro la disinformazione alimentata dall’intelligenza artificiale: “Il fatto che i deepfake siano generati dall’intelligenza artificiale che può continuare ad apprendere rende inevitabile che batteranno la tecnologia di rilevamento convenzionale. Tuttavia, nel breve periodo, come le imminenti elezioni statunitensi, le tecnologie di rilevamento avanzate possono essere uno strumento utile per aiutare gli utenti più esigenti a identificare i deepfake”.
Microsoft sta anche collaborando con la AI Foundation con sede a San Francisco per rendere lo strumento disponibile alle organizzazioni coinvolte nel processo democratico quest’anno, compresi i notiziari e le campagne politiche. “Video Authenticator sarà inizialmente disponibile solo tramite RD2020 [Reality Defender 2020], che guiderà le organizzazioni attraverso i limiti e le considerazioni etiche inerenti a qualsiasi tecnologia di rilevamento deepfake. Le campagne e i giornalisti interessati a saperne di più possono contattare RD2020 qui”, aggiunge Microsoft.
Lo strumento è stato sviluppato dalla sua divisione R&D, Microsoft Research, in coordinamento con il suo team Responsible AI e un organo consultivo interno su AI, Ethics and Effects in Engineering and Research Committee – come parte di un programma più ampio che Microsoft sta conducendo per difendere la democrazia dalle minacce poste dalla disinformazione.
“Ci aspettiamo che i metodi per generare media sintetici continueranno a crescere in sofisticazione”, continua. “Poiché tutti i metodi di rilevamento dell’IA hanno tassi di fallimento, dobbiamo capire ed essere pronti a rispondere ai deepfake che sfuggono ai metodi di rilevamento. Pertanto, a lungo termine, dobbiamo cercare metodi più forti per mantenere e certificare l’ autenticità degli articoli di notizie e di altri media. Ci sono pochi strumenti oggi per assicurare ai lettori che i media che stanno vedendo online provengono da una fonte attendibile e che non sono stati alterati”.
Su quest’ultimo fronte, Microsoft ha anche annunciato un sistema che consentirà ai produttori di contenuti di aggiungere hash digitali e certificati ai media che rimangono nei loro metadati mentre il contenuto viaggia online, fornendo un punto di riferimento per l’autenticità. Il secondo componente del sistema è uno strumento di lettura, che può essere distribuito come estensione del browser, per il controllo dei certificati e la corrispondenza degli hash per offrire allo spettatore quello che Microsoft chiama “un alto grado di accuratezza”, ovvero che un particolare contenuto è autentico e non è stato modificato. La certificazione fornirà anche allo spettatore dettagli su chi ha prodotto i media.
Microsoft spera che questo sistema di autenticità del watermark digitale finisca per sostenere una “Trusted News Initiative” annunciata lo scorso anno dall’emittente britannica BBC, in particolare per un componente di verifica, chiamato Project Origin, che è guidato da una coalizione della BBC, CBC / Radio-Canada, Microsoft e The New York Times. Secondo Microsoft la tecnologia di watermarking digitale sarà testata da Project Origin con l’obiettivo di svilupparla in uno standard che possa essere adottato ampiamente.
La lettura è molto più che un semplice passatempo: essa può influenzare profondamente il nostro benessere psicologico, in modi spesso…
Dato il grandissimo successo Panasonic Lumix S5, l'azienda orientale negli ultimi anni ha pensato di mettere a disposizione del pubblico…
Recenti scoperte scientifiche hanno portato nuove speranze per chi soffre della malattia di Huntington, nota anche come “danza di San…
Su Amazon le feste di Natale arrivano prima! Il noto e-commerce ha appena inaugurato il "Negozio di Natale". Al suo…
Il cinema è una forma d'arte che cattura l'attenzione dello spettatore attraverso storie, immagini e suoni, ma c'è molto di…
WhatsApp continua a portare in campo funzioni riguardanti gli aggiornamenti di stato. Scovate nell'ultima beta dell'app per dispositivi iOS, tracce…