Il Garante per la protezione dei dati personali ha avviato un’indagine sull’uso diffuso di bot che generano false immagini di nudo sull’app di messaggistica Telegram. La notizia segue un’indagine della società di sicurezza Sensity, che ha scoperto che a luglio 2020 erano state generate e condivise nei canali Telegram più di 100.000 immagini deepfake ossia contraffate.
I bot possono generare finti nudi con filigrane o che mostrano solo nudità parziali, e gli utenti pagano per “rivelare” l’intera immagine. Gli utenti potevano inviare una foto di una donna al bot e ricevere una versione della foto con i vestiti “rimossi” e nessuna indicazione che l’immagine fosse stata alterata. E secondo Sensity, un numero limitato di immagini generate dai bot, la maggior parte delle quali vengono estratte dagli account dei social media e quindi manipolate, sono di vittime che “sembravano essere minorenni”.
Allarme deepfake, Telegram è sotto indagine
Sensity ha scoperto che i falsi nudi sono stati generati dal software DeepNude, che è emerso online l’anno scorso. Il suo creatore ha rimosso il sito web dicendo “la probabilità che le persone ne facciano un uso improprio è troppo alta”. Secondo Sensity, tuttavia, il software è stato decodificato ed è ampiamente disponibile su repository open source e siti torrent.
“La facilità d’uso di questo programma rende chiunque abbia una foto sul web potenzialmente vittima di deepfake”, ha riferito l’ agenzia italiana in un comunicato annunciando la sua indagine sulla questione. Ora secondo la sua dichiarazione, l’agenzia chiederà a Telegram di fornire informazioni per verificare se è conforme alle normative sulla protezione dei dati.
Foto di Pete Linforth da Pixabay