Industria Tech

Intel NNP: nuovo processore a rete neurale per sfidare NVidia

Nel corso della giornata di ieri è stato posto sotto esame l’ultimo ritrovato top di gamma della tecnologia mobile made in Google, ovvero sia il Pixel Phone 2 verso cui si è corrisposto un inedito ed esilarante sistema a microprocessore basato su Intelligenza Artificiale di processing per il comparto imaging che è stato affiancato all’unità principale di elaborazione dati.

Ma Google così come descritto dal nuovo trend evolutivo del periodo, non è l’unica realtà commerciale del segmento business a portarsi alle implementazioni legate al contesto del machine learning e dell’intelligenza artificiale applicata.

Produttori di fama internazionale come NVidia ed Intel, di fatto, si sono portati ad un’approfondita fase di studio, analisi e sviluppo volta a favorire la creazione di sistemi d’avanguardia che consentano di accrescere il divario con un passato della tecnologia le cui prestazioni non sono nemmeno lontanamente equiparabili al nuovo paradigma futuro di sviluppo ed implementazione.

Dopo la promessa di uno straordinario processore quantico a 17quibit di innata potenza, Intel si getta a capofitto nella realizzazione di una soluzione che consente di prendere le dovute distanze dal rivale NVidia nel contesto delle intelligenze integrate del comparto CPU che introducono ora un inedito Neural Network Processor.

Intel NNP è il nuovo ASIC del costruttore americano voluto allo scopo di massimizzare le performance nel campo dell’apprendimento digitalizzato automatico. Un sistema che si pone quindi a margine di un competitor NVidia GPU che ha consentito di registrare nuovi traguardi nella gestione dei process di apprendimentoi.

Realizzato in-house seguendo le direttive di Nervana, corrisponde ad un’unità gerarchica priva di cache standard e con sistema di memoria on-chip gestito per via diretta tramite software. Il core di tutto il sistema esula quindi dai paradigmi di costruzione standard in luogo di processi di risoluzione matematica dei calcoli che nulla hanno a che vedere con le tradizionali soluzioni di elaborazione CPU.

Il livello di calcolo richiesto per queste unità Intel Neural Network Processor non è quindi equiparabile ai classici sistemi a microprocessore tradizionali, in quanto i tempi richiesti per il processing sono molto più rapidi e votati ad un’interpretazione anticipata dei risultati. Il nuovo sistema di apprendimento, basato sull’utilizzo di memorie specifiche ad alto potenziale operativo, ha richiesto uno sforzo architetturale di ammodernamento su singolo chip e l’introduzione di un nuovo formato numerico di confronto chiamato flexpoint.

Secondo Intel Corporation, flexpoint garantisce l’implementazione di calcoli scalari sotto forma di cifre matematiche a punto fisso, il che permette di generare circuiti logicamente più piccoli e quindi meno avidi di risorse. Un simile approccio matematico, ad ogni modo, limita solitamente la flessibilità operativa lato software e sarà quindi compito degli utenti verificare nel tempo la stabilità di dette soluzioni.

Il nuovo chip Intel, che dalle immagini pare coadiuvato da memoria HBM, è stato realizzato tenendo conto di interconnessioni ad alta velocità sia interne che verso l’esterno, secondo uno schema che la stessa società ha definito come “data transfer bidirezionale imponente”. In tal senso, dal punto di vista logico, il sistema si assimila ad un unico grande microchip virtuale di straordinaria potenza.

Allo stato attuale, comunque, lo sviluppatore statunitense non ha diffuso i dati sugli indici prestazionali della piattaforma NNP, ma i dati preliminari evidenziano un fattore maggiorato di performance pari a 10x rispetto a controparti machine learning chip made in NVidia per le architetture Maxwell.

Una realtà, quella dell’ASIC Intel NNP, che si affianca quindi al lavoro svolto dalle diretti concorrenti per le TPU (Google) e le stesse piattaforme NVidia per il machine learning verso cui si attendono ancora i resoconti metrici di paragone sul piano delle prestazioni e dell’affidabilità.

In via dal tutto preliminare, sappiamo che Nervana ha predisposto la realizzazione di unità logiche basate su processi produttivi a 14/10 nanometri, in controtendenza con quanto inizialmente stabilito per le architetture iniziali Lake Crest a 28 nanometri. 

La collaborazione ed il coordinamento degli ingegneri Intel, in questo caso, sono stati discriminanti per la realizzazione di un prodotto che ha come valore aggiunto una base hardware dalle prestazioni eccezionali e dai consumi ridotti.

Dall’altra parte, NVidia si è portata anche alle implementazioni Tensor Core basati su Tesla V100 che garantiscono prestazioni 12 volte maggiori rispetto ai sistemi ad architettura Pascal per operazioni in virgola mobile FP32 e 6 volte rispetto a calcoli FP16.

Come andrà a finire lo scontro tra le piattaforme Intel IA e la concorrenza di mercato? Lo scopriremo a breve, Nel frattempo, l’azienda di Santa Clara anticipa i tempi riferendo che entro il prossimo 2020 conta di accelerare il processo di machine learning di un fattore 100.

La distribuzione delle piattaforma NNP prenderà il via entro l’anno. In attesa di ulteriori dettagli e confronti diretti ti invitiamo ad esprimere qui tutti i tuoi personali giudizi sulla questione.

Federica Vitale

Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Recent Posts

Perché mangiare solo una banana a colazione può essere una cattiva idea

Le banane sono spesso considerate uno spuntino sano e pratico, e non a torto: sono ricche di vitamina B6 e…

1 Giugno 2025

Attenzione alla nuova truffa dell’SMS dagli uffici A.S.I.

Avete ricevuto un SMS in cui vi viene detto che dovete contattare gli uffici A.S.I. per delle comunicazioni che vi…

31 Maggio 2025

Se noti questo segnale mentre parla, potresti avere a che fare con uno psicopatico

In ogni interazione umana, ci affidiamo al linguaggio per costruire fiducia, empatia e connessione. Ma cosa succede quando dietro le…

31 Maggio 2025

Fukushima ha ridotto le capacità cognitive delle api: lo studio che svela gli effetti della radioattività sugli insetti

Nella prefettura giapponese di Fukushima, dove nel 2011 si è verificato uno dei più gravi incidenti nucleari della storia, un…

31 Maggio 2025

Dieta mediterranea e stress: come l’alimentazione può migliorare il benessere mentale

Negli ultimi anni, il legame tra alimentazione e salute mentale ha ricevuto crescente attenzione dalla comunità scientifica. Tra le diete…

31 Maggio 2025

Dormire meglio grazie a un rapporto sessuale

Dormire bene è fondamentale per la propria, ormai numerosi studi hanno assodato questo. L'accumulo nel tempo di più e più…

31 Maggio 2025