Da una semplice immagine statica, foto e dipinti prendono vita con il software di intelligenza artificiale. Il modello di animazione invia le espressioni facciali di una persona all’immagine. Quindi, qualunque cosa faccia la persona con il proprio viso, la foto o il dipinto. Il metodo ha reso possibile, ad esempio, che la Monna Lisa, il più celebre ritratto dipinto dal genio del Rinascimento Leonardo da Vinci, si muova e parli come una persona reale.
La tecnologia, sviluppata da Samsung, ha anche dato “vita” alle foto di personaggi famosi come il fisico Albert Einstein e il pittore Salvador Dalí. I ricercatori hanno addestrato l’algoritmo analizzando le espressioni facciali di oltre 7.000 immagini di celebrità attraverso video su YouTube.
Come affrontare l’invasione dell’intelligenza artificiale
I ricercatori hanno utilizzato punti importanti sul viso per un’analisi più rapida. Tra questi punti, la forma del viso, occhi, naso. La tecnica si inserisce nel campo dei deepfake , video che simulano scene che applicano tecniche di intelligenza artificiale a immagini esistenti.
L’intelligenza artificiale non crea ancora immagini animate perfette e, per ora, può solo portare un movimento di faccia. Anche così, il software rappresenta una svolta in quanto i ricercatori sono stati in grado di utilizzare solo un’immagine statica per creare il video. La maggior parte dei modelli di animazione fotografica richiede una grande quantità di dati, ad esempio video di almeno due minuti, piuttosto che un’immagine semplice, per ottenere il risultato.
Il lavoro è stato possibile solo grazie al cosiddetto processo di “apprendimento unico”. Cioè, il sistema funziona in anticipo prima di animare l’immagine.