linguaggio ordinario
Foto di Gerd Altmann da Pixabay

Negli ultimi anni, i ricercatori hanno usato l’intelligenza artificiale per migliorare la traduzione tra i linguaggi di programmazione o risolvere automaticamente i problemi che si presentavano. Il sistema di intelligenza artificiale DrRepair, per esempio, ha dimostrato di poter risolvere la maggior parte dei problemi che generano messaggi di errore. Tuttavia, alcuni ricercatori sognano il giorno in cui l’AI potrà scrivere programmi basati su semplici descrizioni redatte in linguaggio ordinario da non esperti.

 

Come avverrà la rivoluzione del linguaggio ordinario nell’intelligenza artificiale

Lo scorso martedì, Microsoft e OpenAI hanno condiviso i rispettivi progetti che intendono introdurre il GPT-3, uno dei modelli più avanzati al mondo per la generazione di testo, nella programmazione basata su descrizioni in linguaggio naturale. Questa è la prima applicazione commerciale di GPT-3 intrapresa dallo scorso anno, quando Microsoft ha investito 1 miliardo di dollari in OpenAI e ha ottenuto i diritti di licenza esclusiva di GPT-3.  Nel suo intervento in occasione della conferenza degli sviluppatori, Satya Nadella, CEO di Microsoft, spiega che, se si riesce a descrivere ciò che si vuole fare in linguaggio naturale, GPT-3 genererà una lista delle principali formule da cui è possibile scegliere; il sistema scriverà automaticamente il codice.

Il vicepresidente di Microsoft, Charles Lamanna, ha dichiarato che la raffinatezza del sistema GPT-3 può aiutare le persone ad affrontare sfide complesse e semplificare il lavoro degli utenti con poca esperienza di codifica. Il sistema GPT-3 tradurrà il linguaggio naturale in PowerFx, un linguaggio di programmazione abbastanza semplice simile ai comandi di Excel, che Microsoft ha introdotto lo scorso marzo. La nuova funzione di Microsoft si basa su un’architettura di rete neurale nota come Transformer, utilizzata da grandi aziende tecnologiche tra cui Baidu, Google, Microsoft, Nvidia e Salesforce per creare grandi modelli linguistici utilizzando dati relativi al text training raccolti dal web.

Questi modelli linguistici crescono continuamente; la più grande versione di BERT di Google, un modello linguistico rilasciato nel 2018, aveva 340 milioni di parametri che formavano un blocco di costruzione delle reti neurali. Il sistema GPT-3, nato un anno fa, possiede ben 175 miliardi di parametri. I ricercatori che hanno condotto lo studio concludono che i test dimostrano che i modelli di apprendimento automatico stanno iniziando a imparare a scrivere codice.