Nel corso della giornata di ieri è stato posto sotto esame l’ultimo ritrovato top di gamma della tecnologia mobile made in Google, ovvero sia il Pixel Phone 2 verso cui si è corrisposto un inedito ed esilarante sistema a microprocessore basato su Intelligenza Artificiale di processing per il comparto imaging che è stato affiancato all’unità principale di elaborazione dati.
Ma Google così come descritto dal nuovo trend evolutivo del periodo, non è l’unica realtà commerciale del segmento business a portarsi alle implementazioni legate al contesto del machine learning e dell’intelligenza artificiale applicata.
Produttori di fama internazionale come NVidia ed Intel, di fatto, si sono portati ad un’approfondita fase di studio, analisi e sviluppo volta a favorire la creazione di sistemi d’avanguardia che consentano di accrescere il divario con un passato della tecnologia le cui prestazioni non sono nemmeno lontanamente equiparabili al nuovo paradigma futuro di sviluppo ed implementazione.
Dopo la promessa di uno straordinario processore quantico a 17quibit di innata potenza, Intel si getta a capofitto nella realizzazione di una soluzione che consente di prendere le dovute distanze dal rivale NVidia nel contesto delle intelligenze integrate del comparto CPU che introducono ora un inedito Neural Network Processor.
Intel NNP è il nuovo ASIC del costruttore americano voluto allo scopo di massimizzare le performance nel campo dell’apprendimento digitalizzato automatico. Un sistema che si pone quindi a margine di un competitor NVidia GPU che ha consentito di registrare nuovi traguardi nella gestione dei process di apprendimentoi.
Realizzato in-house seguendo le direttive di Nervana, corrisponde ad un’unità gerarchica priva di cache standard e con sistema di memoria on-chip gestito per via diretta tramite software. Il core di tutto il sistema esula quindi dai paradigmi di costruzione standard in luogo di processi di risoluzione matematica dei calcoli che nulla hanno a che vedere con le tradizionali soluzioni di elaborazione CPU.
Il livello di calcolo richiesto per queste unità Intel Neural Network Processor non è quindi equiparabile ai classici sistemi a microprocessore tradizionali, in quanto i tempi richiesti per il processing sono molto più rapidi e votati ad un’interpretazione anticipata dei risultati. Il nuovo sistema di apprendimento, basato sull’utilizzo di memorie specifiche ad alto potenziale operativo, ha richiesto uno sforzo architetturale di ammodernamento su singolo chip e l’introduzione di un nuovo formato numerico di confronto chiamato flexpoint.
Secondo Intel Corporation, flexpoint garantisce l’implementazione di calcoli scalari sotto forma di cifre matematiche a punto fisso, il che permette di generare circuiti logicamente più piccoli e quindi meno avidi di risorse. Un simile approccio matematico, ad ogni modo, limita solitamente la flessibilità operativa lato software e sarà quindi compito degli utenti verificare nel tempo la stabilità di dette soluzioni.
Il nuovo chip Intel, che dalle immagini pare coadiuvato da memoria HBM, è stato realizzato tenendo conto di interconnessioni ad alta velocità sia interne che verso l’esterno, secondo uno schema che la stessa società ha definito come “data transfer bidirezionale imponente”. In tal senso, dal punto di vista logico, il sistema si assimila ad un unico grande microchip virtuale di straordinaria potenza.
Allo stato attuale, comunque, lo sviluppatore statunitense non ha diffuso i dati sugli indici prestazionali della piattaforma NNP, ma i dati preliminari evidenziano un fattore maggiorato di performance pari a 10x rispetto a controparti machine learning chip made in NVidia per le architetture Maxwell.
Una realtà, quella dell’ASIC Intel NNP, che si affianca quindi al lavoro svolto dalle diretti concorrenti per le TPU (Google) e le stesse piattaforme NVidia per il machine learning verso cui si attendono ancora i resoconti metrici di paragone sul piano delle prestazioni e dell’affidabilità.
In via dal tutto preliminare, sappiamo che Nervana ha predisposto la realizzazione di unità logiche basate su processi produttivi a 14/10 nanometri, in controtendenza con quanto inizialmente stabilito per le architetture iniziali Lake Crest a 28 nanometri.
La collaborazione ed il coordinamento degli ingegneri Intel, in questo caso, sono stati discriminanti per la realizzazione di un prodotto che ha come valore aggiunto una base hardware dalle prestazioni eccezionali e dai consumi ridotti.
Dall’altra parte, NVidia si è portata anche alle implementazioni Tensor Core basati su Tesla V100 che garantiscono prestazioni 12 volte maggiori rispetto ai sistemi ad architettura Pascal per operazioni in virgola mobile FP32 e 6 volte rispetto a calcoli FP16.
Come andrà a finire lo scontro tra le piattaforme Intel IA e la concorrenza di mercato? Lo scopriremo a breve, Nel frattempo, l’azienda di Santa Clara anticipa i tempi riferendo che entro il prossimo 2020 conta di accelerare il processo di machine learning di un fattore 100.
La distribuzione delle piattaforma NNP prenderà il via entro l’anno. In attesa di ulteriori dettagli e confronti diretti ti invitiamo ad esprimere qui tutti i tuoi personali giudizi sulla questione.