News

L’intelligenza artificiale potrebbe scrivere codice in linguaggio ordinario

Negli ultimi anni, i ricercatori hanno usato l’intelligenza artificiale per migliorare la traduzione tra i linguaggi di programmazione o risolvere automaticamente i problemi che si presentavano. Il sistema di intelligenza artificiale DrRepair, per esempio, ha dimostrato di poter risolvere la maggior parte dei problemi che generano messaggi di errore. Tuttavia, alcuni ricercatori sognano il giorno in cui l’AI potrà scrivere programmi basati su semplici descrizioni redatte in linguaggio ordinario da non esperti.

 

Come avverrà la rivoluzione del linguaggio ordinario nell’intelligenza artificiale

Lo scorso martedì, Microsoft e OpenAI hanno condiviso i rispettivi progetti che intendono introdurre il GPT-3, uno dei modelli più avanzati al mondo per la generazione di testo, nella programmazione basata su descrizioni in linguaggio naturale. Questa è la prima applicazione commerciale di GPT-3 intrapresa dallo scorso anno, quando Microsoft ha investito 1 miliardo di dollari in OpenAI e ha ottenuto i diritti di licenza esclusiva di GPT-3.  Nel suo intervento in occasione della conferenza degli sviluppatori, Satya Nadella, CEO di Microsoft, spiega che, se si riesce a descrivere ciò che si vuole fare in linguaggio naturale, GPT-3 genererà una lista delle principali formule da cui è possibile scegliere; il sistema scriverà automaticamente il codice.

Il vicepresidente di Microsoft, Charles Lamanna, ha dichiarato che la raffinatezza del sistema GPT-3 può aiutare le persone ad affrontare sfide complesse e semplificare il lavoro degli utenti con poca esperienza di codifica. Il sistema GPT-3 tradurrà il linguaggio naturale in PowerFx, un linguaggio di programmazione abbastanza semplice simile ai comandi di Excel, che Microsoft ha introdotto lo scorso marzo. La nuova funzione di Microsoft si basa su un’architettura di rete neurale nota come Transformer, utilizzata da grandi aziende tecnologiche tra cui Baidu, Google, Microsoft, Nvidia e Salesforce per creare grandi modelli linguistici utilizzando dati relativi al text training raccolti dal web.

Questi modelli linguistici crescono continuamente; la più grande versione di BERT di Google, un modello linguistico rilasciato nel 2018, aveva 340 milioni di parametri che formavano un blocco di costruzione delle reti neurali. Il sistema GPT-3, nato un anno fa, possiede ben 175 miliardi di parametri. I ricercatori che hanno condotto lo studio concludono che i test dimostrano che i modelli di apprendimento automatico stanno iniziando a imparare a scrivere codice.

 

 

Gloria Fiorani

Recent Posts

Recensione Blasphemous 2: Mea Culpa – il DLC che completa la storia

Blasphemous 2 è stato indiscutibilmente uno dei titoli più discussi ed apprezzati dell'intero panorama videoludico degli ultimi anni, un gioco capace…

12 Novembre 2024

MacBook Air OLED non arriverà prima del 2028

Brutte notizie per chi sperava in un lancio "imminente" dei MacBook Air con display OLED. Stando ad un recente report…

12 Novembre 2024

Le nanoplastiche possono indebolire l’efficacia degli antibiotici

Un nuovo studio rivela che le nanoplastiche, minuscole particelle di plastica di dimensioni inferiori a 0,001 millimetri, possono compromettere la…

12 Novembre 2024

Il ruolo protettivo della madre nel prevenire il PTSD nei bambini

Il ruolo della madre nel proteggere il bambino dal Disturbo da Stress Post-Traumatico (PTSD) è di fondamentale importanza. Diversi studi…

11 Novembre 2024

Macchie verdi su Marte: una scoperta inaspettata del rover Perseverance

Il rover Perseverance della NASA ha individuato insolite macchie verdi su alcune rocce marziane, suggerendo che possano essere state in…

11 Novembre 2024

Perché alcuni di noi restano sedentari? la risposta è nei tratti della personalità

È ormai noto che l'attività fisica e lo stile di vita sedentario non dipendono solo da fattori ambientali, come la…

11 Novembre 2024