News

L’intelligenza artificiale potrebbe scrivere codice in linguaggio ordinario

Negli ultimi anni, i ricercatori hanno usato l’intelligenza artificiale per migliorare la traduzione tra i linguaggi di programmazione o risolvere automaticamente i problemi che si presentavano. Il sistema di intelligenza artificiale DrRepair, per esempio, ha dimostrato di poter risolvere la maggior parte dei problemi che generano messaggi di errore. Tuttavia, alcuni ricercatori sognano il giorno in cui l’AI potrà scrivere programmi basati su semplici descrizioni redatte in linguaggio ordinario da non esperti.

 

Come avverrà la rivoluzione del linguaggio ordinario nell’intelligenza artificiale

Lo scorso martedì, Microsoft e OpenAI hanno condiviso i rispettivi progetti che intendono introdurre il GPT-3, uno dei modelli più avanzati al mondo per la generazione di testo, nella programmazione basata su descrizioni in linguaggio naturale. Questa è la prima applicazione commerciale di GPT-3 intrapresa dallo scorso anno, quando Microsoft ha investito 1 miliardo di dollari in OpenAI e ha ottenuto i diritti di licenza esclusiva di GPT-3.  Nel suo intervento in occasione della conferenza degli sviluppatori, Satya Nadella, CEO di Microsoft, spiega che, se si riesce a descrivere ciò che si vuole fare in linguaggio naturale, GPT-3 genererà una lista delle principali formule da cui è possibile scegliere; il sistema scriverà automaticamente il codice.

Il vicepresidente di Microsoft, Charles Lamanna, ha dichiarato che la raffinatezza del sistema GPT-3 può aiutare le persone ad affrontare sfide complesse e semplificare il lavoro degli utenti con poca esperienza di codifica. Il sistema GPT-3 tradurrà il linguaggio naturale in PowerFx, un linguaggio di programmazione abbastanza semplice simile ai comandi di Excel, che Microsoft ha introdotto lo scorso marzo. La nuova funzione di Microsoft si basa su un’architettura di rete neurale nota come Transformer, utilizzata da grandi aziende tecnologiche tra cui Baidu, Google, Microsoft, Nvidia e Salesforce per creare grandi modelli linguistici utilizzando dati relativi al text training raccolti dal web.

Questi modelli linguistici crescono continuamente; la più grande versione di BERT di Google, un modello linguistico rilasciato nel 2018, aveva 340 milioni di parametri che formavano un blocco di costruzione delle reti neurali. Il sistema GPT-3, nato un anno fa, possiede ben 175 miliardi di parametri. I ricercatori che hanno condotto lo studio concludono che i test dimostrano che i modelli di apprendimento automatico stanno iniziando a imparare a scrivere codice.

 

 

Gloria Fiorani

Recent Posts

Recensione Harry Potter: Campioni di Quidditch – è bello volare con le scope?

Harry Potter: Campioni di Quidditch rappresenta la risposta di Warner Bros Games alla grandissima richiesta da parte dei fan di tutto…

21 Settembre 2024

Microplastica: cosa sappiamo sui possibili problemi di salute

Il problema della microplastica è qualcosa di relativamente recente, anche se meno di quello che la gente in realtà pensa.…

21 Settembre 2024

Vuoi Essere Più Felice al Lavoro? Riduci l’Uso del Cellulare e Aumenta l’Attività Fisica

Se desideri essere più felice e soddisfatto al lavoro, potrebbe essere sufficiente ridurre l'uso del cellulare e fare un po'…

21 Settembre 2024

Scorrimento Digitale: come il consumo rapido di video riduce il divertimento e aumenta la noia

Il consumo di contenuti digitali è diventato una parte fondamentale della nostra vita quotidiana, con video e social media che…

21 Settembre 2024

L’Intelligenza Artificiale: non è una minaccia esistenziale e rimane sotto il controllo umano

L'intelligenza artificiale (IA) ha fatto enormi progressi negli ultimi anni, e molte persone hanno iniziato a preoccuparsi del potenziale impatto…

20 Settembre 2024

Covid-19: l’effettiva origine della pandemia

All'inizio della pandemia da Covid-19 si è cercato di capire da dove sia nata la pandemia. Non si parla tanto…

20 Settembre 2024