Google dimostra l’efficacia del sistema di stabilizzazione avanzato Pixel Phone 2

Google dimostra assoluta affidabilità dei suoi sistemi di stabilizzazione video integrati a bordo dei Pixel Phone 2 provvisti di OIS ed EIS. Scopriamoli.

In sede di Conferenza Stampa lo scorso 4 Ottobre 2017, Google Corporation ha concesso la panoramica fondamentale su un nuovo paradigma tecnologico che vede l’intelligenza artificiale con applicazione al concept machine learning dominare su un ecosistema che vede al centro di tutto nuovi protagonisti della scena mobile e dell’interattività Hi-Tech.

Google Pixel Phone 2 e Pixel Phone 2 XL, quest’ultimo atteso anche in Italia, sono in particolare i due smartphone più discussi del periodo, tanto per quelle che sono le ottimizzazioni software volute per la risoluzione definitiva delle problematiche attualmente in corso, tanto per le nuove dotazioni hardware che equipaggiano le unità, forti di un vittorioso primo posto conferitogli dagli esperti anche nel comparto Multimedia Cam.

Tale successo si deve sostanzialmente all’applicabilità delle nuove soluzioni intelligenti base IA che si corrispondono agli esclusivi processori Pixel Visual Core realizzati in collaborazione con l’azienda californiana di Santa Clara, Intel Technologies ed indirizzati a rivestire il ruolo di innovativo sistema di post-processing intelligente nel contesto di utilizzo di dette nuove proposte di mercato.

Di fatto, grazie ai nuovi sistemi integrati, è possibile ottemperare la richiesta di un punta e scatta qualitativamente avanzato senza la necessità di un duplice obiettivo che concorra a generare l’effetto profondità sul modello cinematografico Bokeh.google pixel 2 xl stabilizzazione videoIn questo frangente, inoltre, assume rilevanza particolare anche l’ottimizzazione del comparto video, che beneficia di un sistema multiplo di stabilizzazione ottico – digitale (OIS + EIS) che garantisce una ripresa senza scatti o tremolii anche in movimento o situazioni particolarmente dinamiche. Google, riguardo i suoi nuovi sistemi, ha aperto un focus esplicativo specifico che spiega in maniera approfondita il funzionamento di questo nuovo componente. 

Come ci si può certo immaginare, la società ha previsto l’applicazione di una serie di algoritmi di stabilizzazione software che provvedono a bilanciare la scena coadiuvando l’intervento dei sensori previsti. Il nuovo sistema, pertanto, raccogli le informazioni sul movimento sia dal giroscopio sia dall’OIS e le processa sincronizzando i dati con l’immagine ripresa. Ciò che succede in seguito è poi altrettanto importante.

Grazie, infatti, ad un algoritmo di filtraggio “lookahead”, i fotogrammi delle immagini vengono prelevati e spostati in singolo in una zona dedicata in cui il sistema IA interviene applicando le dovute correzioni alle imperfezioni causate dalla gamma dinamica di movimento. Rispetto al solo OIS, in questo caso, la correzione IA prevede un intervento più mirato anche per i fenomeni di distorsione e la perdita di messa a fuoco.

Il metodo algoritmico introduce anche il movimento virtuale per mascherare le variazioni di nitidezza improvvise che si hanno nel momento in cui il telefono viene spostato rapidamente.Ciò dimostra l’impeccabile lavoro di ottimizzazione svolto da Google nel comparto imaging, Alcuni esperti hanno tuttavia evidenziato come il Pixel 2 possa ritagliare inaspettatamente i fotogrammi concorrendo a generare un effetto sfocatura eccessivo nei filmati a basso indice di luminosità.

Ad ogni modo, la tecnologia ad Intelligenza Artificiale Google avrà modo di migliorarsi in futuro, in luogo di opportuni update e sistemi ad auto-apprendimento dall’indubbia efficacia. Qui di seguito, per confronto, proponiamo un video side-by-side che mostra una scena registrata con e senza supporto OIS+EIS tramite Pixel 2. A voi le conclusioni.


Approfondisci con: in ,
FONTE: Google Research Blog