News

L’intelligenza artificiale potrebbe scrivere codice in linguaggio ordinario

Negli ultimi anni, i ricercatori hanno usato l’intelligenza artificiale per migliorare la traduzione tra i linguaggi di programmazione o risolvere automaticamente i problemi che si presentavano. Il sistema di intelligenza artificiale DrRepair, per esempio, ha dimostrato di poter risolvere la maggior parte dei problemi che generano messaggi di errore. Tuttavia, alcuni ricercatori sognano il giorno in cui l’AI potrà scrivere programmi basati su semplici descrizioni redatte in linguaggio ordinario da non esperti.

 

Come avverrà la rivoluzione del linguaggio ordinario nell’intelligenza artificiale

Lo scorso martedì, Microsoft e OpenAI hanno condiviso i rispettivi progetti che intendono introdurre il GPT-3, uno dei modelli più avanzati al mondo per la generazione di testo, nella programmazione basata su descrizioni in linguaggio naturale. Questa è la prima applicazione commerciale di GPT-3 intrapresa dallo scorso anno, quando Microsoft ha investito 1 miliardo di dollari in OpenAI e ha ottenuto i diritti di licenza esclusiva di GPT-3.  Nel suo intervento in occasione della conferenza degli sviluppatori, Satya Nadella, CEO di Microsoft, spiega che, se si riesce a descrivere ciò che si vuole fare in linguaggio naturale, GPT-3 genererà una lista delle principali formule da cui è possibile scegliere; il sistema scriverà automaticamente il codice.

Il vicepresidente di Microsoft, Charles Lamanna, ha dichiarato che la raffinatezza del sistema GPT-3 può aiutare le persone ad affrontare sfide complesse e semplificare il lavoro degli utenti con poca esperienza di codifica. Il sistema GPT-3 tradurrà il linguaggio naturale in PowerFx, un linguaggio di programmazione abbastanza semplice simile ai comandi di Excel, che Microsoft ha introdotto lo scorso marzo. La nuova funzione di Microsoft si basa su un’architettura di rete neurale nota come Transformer, utilizzata da grandi aziende tecnologiche tra cui Baidu, Google, Microsoft, Nvidia e Salesforce per creare grandi modelli linguistici utilizzando dati relativi al text training raccolti dal web.

Questi modelli linguistici crescono continuamente; la più grande versione di BERT di Google, un modello linguistico rilasciato nel 2018, aveva 340 milioni di parametri che formavano un blocco di costruzione delle reti neurali. Il sistema GPT-3, nato un anno fa, possiede ben 175 miliardi di parametri. I ricercatori che hanno condotto lo studio concludono che i test dimostrano che i modelli di apprendimento automatico stanno iniziando a imparare a scrivere codice.

 

 

Gloria Fiorani

Recent Posts

Hisense presenta Laser Mini M2 Pro: il proiettore 4K laser più compatto e intelligente della sua categoria

Hisense, leader globale nel mercato dell’elettronica di consumo e degli elettrodomestici, annuncia il lancio del nuovo Laser Mini M2 Pro,…

23 Giugno 2025

Amazon: tanti gadget hi-tech in super offerta

Siete alla ricerca di qualche nuovo prodotto tecnologico, ma non volete spendere un capitale? Amazon è il posto giusto dove…

22 Giugno 2025

Comportamento infantile e intelligenza adulta: cosa rivela lo sviluppo precoce

Già nei primi anni di vita, i bambini mostrano comportamenti che possono offrire indizi importanti sul loro sviluppo cognitivo futuro.…

22 Giugno 2025

Come monitorare i progressi di scommessa del bonus

Quando si richiede un bonus da un casinò online, spesso questo include requisiti di scommessa. Questi requisiti specificano quante volte…

22 Giugno 2025

Privazione del sonno ed emicrania: perché dormire poco peggiora il dolore

Dormire bene non è solo un gesto di benessere, ma una vera e propria necessità biologica. Sempre più ricerche dimostrano…

22 Giugno 2025

Cosa vedono davvero le persone cieche? Non è nero, e non è come immagini

È comune pensare che le persone cieche vedano solo buio, come quando chiudiamo gli occhi. Ma secondo studi recenti, questa…

22 Giugno 2025