Google conferma: la sua intelligenza artificiale ha imparato cose che non avrebbe dovuto

Date:

Share post:

Il CEO di Google Sundar Pichai ha recentemente rivelato in un’intervista che i sistemi di intelligenza artificiale dell’azienda hanno iniziato a sviluppare abilità da soli, senza una programmazione esplicita. Pichai e il vicepresidente della società di Google, James Manyika, hanno dichiarato che la loro IA ha mostrato “proprietà emergenti“, considerate un problema misterioso nella ricerca sull’IA.

Pichai ha affermato che alcuni sistemi di intelligenza artificiale stanno insegnando a se stessi abilità che non ci si aspettava da loro e le ragioni di ciò non sono ben comprese. Un programma di intelligenza artificiale di Google, ad esempio, si è adattato alla lingua bengalese, una lingua in cui non era stato addestrato. Manyika ha spiegato che con poche istruzioni in bengalese, l’IA potrebbe tradurre “tutto in bengalese”.

Tuttavia, sebbene ciò possa sembrare impressionante, altri ricercatori dell’intelligenza artificiale non sono impressionati. La ricercatrice informatica e intelligenza artificiale Margaret Mitchell ha suggerito che i dati di addestramento utilizzati per l’IA potrebbero aver contenuto delle espressioni in bengalese.

Mitchell ha spiegato che il modello PaLM, il precursore di Bard, era già stato addestrato in bengalese. Quindi non è una forzatura presumere che Bard, che ha incorporato il lavoro PaLM, abbia incluso anche il bengalese nei suoi dati di addestramento. Ordinando un modello addestrato in bengalese con il bengalese, scivolerà facilmente in quel che sa in bengalese.

Un portavoce di Google ha confermato che l’intelligenza artificiale è stata effettivamente addestrata in bengalese, ma non è stata addestrata a tradurre lingue o rispondere a domande in formato Q&A. Ha imparato queste abilità da sola, il che è ancora considerato un risultato impressionante.

Sebbene lo sviluppo di abilità da parte dell’IA senza una programmazione esplicita sia considerato impressionante, solleva preoccupazioni sulla capacità dei ricercatori di comprendere come funziona l’IA. Pichai ha ammesso che c’è un aspetto dell’intelligenza artificiale, chiamato la “scatola nera”, che non è del tutto compreso, e gli scienziati non possono dire perché abbia preso determinate decisioni o perché abbia sbagliato.

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Perché mangiare solo una banana a colazione può essere una cattiva idea

Le banane sono spesso considerate uno spuntino sano e pratico, e non a torto: sono ricche di vitamina...

Attenzione alla nuova truffa dell’SMS dagli uffici A.S.I.

Avete ricevuto un SMS in cui vi viene detto che dovete contattare gli uffici A.S.I. per delle comunicazioni...

Se noti questo segnale mentre parla, potresti avere a che fare con uno psicopatico

In ogni interazione umana, ci affidiamo al linguaggio per costruire fiducia, empatia e connessione. Ma cosa succede quando...

Fukushima ha ridotto le capacità cognitive delle api: lo studio che svela gli effetti della radioattività sugli insetti

Nella prefettura giapponese di Fukushima, dove nel 2011 si è verificato uno dei più gravi incidenti nucleari della...