Il CEO di Google Sundar Pichai ha recentemente rivelato in un’intervista che i sistemi di intelligenza artificiale dell’azienda hanno iniziato a sviluppare abilità da soli, senza una programmazione esplicita. Pichai e il vicepresidente della società di Google, James Manyika, hanno dichiarato che la loro IA ha mostrato “proprietà emergenti“, considerate un problema misterioso nella ricerca sull’IA.
Pichai ha affermato che alcuni sistemi di intelligenza artificiale stanno insegnando a se stessi abilità che non ci si aspettava da loro e le ragioni di ciò non sono ben comprese. Un programma di intelligenza artificiale di Google, ad esempio, si è adattato alla lingua bengalese, una lingua in cui non era stato addestrato. Manyika ha spiegato che con poche istruzioni in bengalese, l’IA potrebbe tradurre “tutto in bengalese”.
Tuttavia, sebbene ciò possa sembrare impressionante, altri ricercatori dell’intelligenza artificiale non sono impressionati. La ricercatrice informatica e intelligenza artificiale Margaret Mitchell ha suggerito che i dati di addestramento utilizzati per l’IA potrebbero aver contenuto delle espressioni in bengalese.
Mitchell ha spiegato che il modello PaLM, il precursore di Bard, era già stato addestrato in bengalese. Quindi non è una forzatura presumere che Bard, che ha incorporato il lavoro PaLM, abbia incluso anche il bengalese nei suoi dati di addestramento. Ordinando un modello addestrato in bengalese con il bengalese, scivolerà facilmente in quel che sa in bengalese.
Un portavoce di Google ha confermato che l’intelligenza artificiale è stata effettivamente addestrata in bengalese, ma non è stata addestrata a tradurre lingue o rispondere a domande in formato Q&A. Ha imparato queste abilità da sola, il che è ancora considerato un risultato impressionante.
Sebbene lo sviluppo di abilità da parte dell’IA senza una programmazione esplicita sia considerato impressionante, solleva preoccupazioni sulla capacità dei ricercatori di comprendere come funziona l’IA. Pichai ha ammesso che c’è un aspetto dell’intelligenza artificiale, chiamato la “scatola nera”, che non è del tutto compreso, e gli scienziati non possono dire perché abbia preso determinate decisioni o perché abbia sbagliato.