News

Google conferma: la sua intelligenza artificiale ha imparato cose che non avrebbe dovuto

Il CEO di Google Sundar Pichai ha recentemente rivelato in un’intervista che i sistemi di intelligenza artificiale dell’azienda hanno iniziato a sviluppare abilità da soli, senza una programmazione esplicita. Pichai e il vicepresidente della società di Google, James Manyika, hanno dichiarato che la loro IA ha mostrato “proprietà emergenti“, considerate un problema misterioso nella ricerca sull’IA.

Pichai ha affermato che alcuni sistemi di intelligenza artificiale stanno insegnando a se stessi abilità che non ci si aspettava da loro e le ragioni di ciò non sono ben comprese. Un programma di intelligenza artificiale di Google, ad esempio, si è adattato alla lingua bengalese, una lingua in cui non era stato addestrato. Manyika ha spiegato che con poche istruzioni in bengalese, l’IA potrebbe tradurre “tutto in bengalese”.

Tuttavia, sebbene ciò possa sembrare impressionante, altri ricercatori dell’intelligenza artificiale non sono impressionati. La ricercatrice informatica e intelligenza artificiale Margaret Mitchell ha suggerito che i dati di addestramento utilizzati per l’IA potrebbero aver contenuto delle espressioni in bengalese.

Mitchell ha spiegato che il modello PaLM, il precursore di Bard, era già stato addestrato in bengalese. Quindi non è una forzatura presumere che Bard, che ha incorporato il lavoro PaLM, abbia incluso anche il bengalese nei suoi dati di addestramento. Ordinando un modello addestrato in bengalese con il bengalese, scivolerà facilmente in quel che sa in bengalese.

Un portavoce di Google ha confermato che l’intelligenza artificiale è stata effettivamente addestrata in bengalese, ma non è stata addestrata a tradurre lingue o rispondere a domande in formato Q&A. Ha imparato queste abilità da sola, il che è ancora considerato un risultato impressionante.

Sebbene lo sviluppo di abilità da parte dell’IA senza una programmazione esplicita sia considerato impressionante, solleva preoccupazioni sulla capacità dei ricercatori di comprendere come funziona l’IA. Pichai ha ammesso che c’è un aspetto dell’intelligenza artificiale, chiamato la “scatola nera”, che non è del tutto compreso, e gli scienziati non possono dire perché abbia preso determinate decisioni o perché abbia sbagliato.

Federica Vitale

Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Recent Posts

Colori primari, secondari e terziari: cosa sono, come funzionano e perché sono diversi

La teoria del colore è alla base dell’arte, del design e della stampa. Ma cosa si intende davvero per colori…

16 Giugno 2025

La nuova Stazione Meteo ORIGINAL combina un’estetica distintiva con tecnologie di misurazione ambientale all’avanguardia

Tredici anni fa, Netatmo lanciava sul mercato il suo primo prodotto: la Stazione Meteo. Un dispositivo che non solo apriva…

16 Giugno 2025

WhatsApp: arrivano i riassunti delle chat con l’AI

WhatsApp ha appena portato in campo una novità molto interessante basata sull'AI, i riassunti delle chat! Da ora in poi…

15 Giugno 2025

Elettroshock e depressione grave: ECT riduce il rischio di suicidio del 34%

L’elettroshock, noto in ambito medico come terapia elettroconvulsivante (ECT), continua a suscitare forti reazioni emotive e dibattiti etici. Tuttavia, nuovi…

15 Giugno 2025

Oceani troppo acidi: raggiunto il punto critico

Tra i tanti effetti del surriscaldamento globale c'è quello dell'aumento dell'acidità degli oceani a causa dell'eccessiva anidride carbonica. Negli ultimi…

15 Giugno 2025

Energia dalla pioggia: Singapore trasforma le gocce d’acqua in elettricità con una nuova tecnologia

In un’epoca in cui la corsa alle energie rinnovabili è diventata una priorità globale, Singapore sorprende il mondo con un’innovazione…

15 Giugno 2025