In sede di Conferenza Stampa lo scorso 4 Ottobre 2017, Google Corporation ha concesso la panoramica fondamentale su un nuovo paradigma tecnologico che vede l’intelligenza artificiale con applicazione al concept machine learning dominare su un ecosistema che vede al centro di tutto nuovi protagonisti della scena mobile e dell’interattività Hi-Tech.
Google Pixel Phone 2 e Pixel Phone 2 XL, quest’ultimo atteso anche in Italia, sono in particolare i due smartphone più discussi del periodo, tanto per quelle che sono le ottimizzazioni software volute per la risoluzione definitiva delle problematiche attualmente in corso, tanto per le nuove dotazioni hardware che equipaggiano le unità, forti di un vittorioso primo posto conferitogli dagli esperti anche nel comparto Multimedia Cam.
Tale successo si deve sostanzialmente all’applicabilità delle nuove soluzioni intelligenti base IA che si corrispondono agli esclusivi processori Pixel Visual Core realizzati in collaborazione con l’azienda californiana di Santa Clara, Intel Technologies ed indirizzati a rivestire il ruolo di innovativo sistema di post-processing intelligente nel contesto di utilizzo di dette nuove proposte di mercato.
Di fatto, grazie ai nuovi sistemi integrati, è possibile ottemperare la richiesta di un punta e scatta qualitativamente avanzato senza la necessità di un duplice obiettivo che concorra a generare l’effetto profondità sul modello cinematografico Bokeh.
Come ci si può certo immaginare, la società ha previsto l’applicazione di una serie di algoritmi di stabilizzazione software che provvedono a bilanciare la scena coadiuvando l’intervento dei sensori previsti. Il nuovo sistema, pertanto, raccogli le informazioni sul movimento sia dal giroscopio sia dall’OIS e le processa sincronizzando i dati con l’immagine ripresa. Ciò che succede in seguito è poi altrettanto importante.
Grazie, infatti, ad un algoritmo di filtraggio “lookahead”, i fotogrammi delle immagini vengono prelevati e spostati in singolo in una zona dedicata in cui il sistema IA interviene applicando le dovute correzioni alle imperfezioni causate dalla gamma dinamica di movimento. Rispetto al solo OIS, in questo caso, la correzione IA prevede un intervento più mirato anche per i fenomeni di distorsione e la perdita di messa a fuoco.
Il metodo algoritmico introduce anche il movimento virtuale per mascherare le variazioni di nitidezza improvvise che si hanno nel momento in cui il telefono viene spostato rapidamente.Ciò dimostra l’impeccabile lavoro di ottimizzazione svolto da Google nel comparto imaging, Alcuni esperti hanno tuttavia evidenziato come il Pixel 2 possa ritagliare inaspettatamente i fotogrammi concorrendo a generare un effetto sfocatura eccessivo nei filmati a basso indice di luminosità.
Ad ogni modo, la tecnologia ad Intelligenza Artificiale Google avrà modo di migliorarsi in futuro, in luogo di opportuni update e sistemi ad auto-apprendimento dall’indubbia efficacia. Qui di seguito, per confronto, proponiamo un video side-by-side che mostra una scena registrata con e senza supporto OIS+EIS tramite Pixel 2. A voi le conclusioni.
La flessibilità neurale, ovvero la capacità del cervello di adattarsi a nuove situazioni e modificare il comportamento in base alle…
L'intestino è un organo in costante lavoro e che, soprattutto, ha bisogno di una continua rigenerazione a causa del lavoro…
La sindrome della morte improvvisa del lattante (SIDS), una condizione in cui neonati apparentemente sani muoiono senza una causa evidente,…
WhatsApp ha appena rilasciato un nuovo aggiornamento per dispositivi iOS. Tra le novità portate in campo, finalmente, anche i nuovi…
Una delle domande che maggiormente hanno colpito gli utenti di tutto il mondo va a toccare il destino di Naughty Dog,…
Il morbo di Alzheimer continua a rimanere una malattia complicata dove si possono guardare diversi spunti per trovare risposte e…