Google conferma: la sua intelligenza artificiale ha imparato cose che non avrebbe dovuto

Date:

Share post:

Il CEO di Google Sundar Pichai ha recentemente rivelato in un’intervista che i sistemi di intelligenza artificiale dell’azienda hanno iniziato a sviluppare abilità da soli, senza una programmazione esplicita. Pichai e il vicepresidente della società di Google, James Manyika, hanno dichiarato che la loro IA ha mostrato “proprietà emergenti“, considerate un problema misterioso nella ricerca sull’IA.

Pichai ha affermato che alcuni sistemi di intelligenza artificiale stanno insegnando a se stessi abilità che non ci si aspettava da loro e le ragioni di ciò non sono ben comprese. Un programma di intelligenza artificiale di Google, ad esempio, si è adattato alla lingua bengalese, una lingua in cui non era stato addestrato. Manyika ha spiegato che con poche istruzioni in bengalese, l’IA potrebbe tradurre “tutto in bengalese”.

Tuttavia, sebbene ciò possa sembrare impressionante, altri ricercatori dell’intelligenza artificiale non sono impressionati. La ricercatrice informatica e intelligenza artificiale Margaret Mitchell ha suggerito che i dati di addestramento utilizzati per l’IA potrebbero aver contenuto delle espressioni in bengalese.

Mitchell ha spiegato che il modello PaLM, il precursore di Bard, era già stato addestrato in bengalese. Quindi non è una forzatura presumere che Bard, che ha incorporato il lavoro PaLM, abbia incluso anche il bengalese nei suoi dati di addestramento. Ordinando un modello addestrato in bengalese con il bengalese, scivolerà facilmente in quel che sa in bengalese.

Un portavoce di Google ha confermato che l’intelligenza artificiale è stata effettivamente addestrata in bengalese, ma non è stata addestrata a tradurre lingue o rispondere a domande in formato Q&A. Ha imparato queste abilità da sola, il che è ancora considerato un risultato impressionante.

Sebbene lo sviluppo di abilità da parte dell’IA senza una programmazione esplicita sia considerato impressionante, solleva preoccupazioni sulla capacità dei ricercatori di comprendere come funziona l’IA. Pichai ha ammesso che c’è un aspetto dell’intelligenza artificiale, chiamato la “scatola nera”, che non è del tutto compreso, e gli scienziati non possono dire perché abbia preso determinate decisioni o perché abbia sbagliato.

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

La sedentarietà che fa bene: attività per nutrire il cervello e migliorare il benessere mentale

Quando si parla di attività sedentarie, si tende spesso a collegarle a rischi per la salute, come obesità,...

Il primo iPad pieghevole potrebbe arrivare nel 2028

Si torna a parlare di Apple e del suo interesse verso il mercato dei dispositivi pieghevoli. Nonostante l'azienda...

Uno sguardo alla scommessa da 140 miliardi di $ di AT&T su 5G, satellite e fibra per dominare la connettività

L'investimento da 140 miliardi di $ di AT&T in 5G, fibra ottica e tecnologia satellitare segna un passo...

Pacemaker del futuro: nuovi materiali per un funzionamento silenzioso e confortevole

I pacemaker, dispositivi essenziali per regolare il battito cardiaco, hanno rappresentato una svolta nella medicina cardiovascolare. Tuttavia, alcune...