News

Google conferma: la sua intelligenza artificiale ha imparato cose che non avrebbe dovuto

Il CEO di Google Sundar Pichai ha recentemente rivelato in un’intervista che i sistemi di intelligenza artificiale dell’azienda hanno iniziato a sviluppare abilità da soli, senza una programmazione esplicita. Pichai e il vicepresidente della società di Google, James Manyika, hanno dichiarato che la loro IA ha mostrato “proprietà emergenti“, considerate un problema misterioso nella ricerca sull’IA.

Pichai ha affermato che alcuni sistemi di intelligenza artificiale stanno insegnando a se stessi abilità che non ci si aspettava da loro e le ragioni di ciò non sono ben comprese. Un programma di intelligenza artificiale di Google, ad esempio, si è adattato alla lingua bengalese, una lingua in cui non era stato addestrato. Manyika ha spiegato che con poche istruzioni in bengalese, l’IA potrebbe tradurre “tutto in bengalese”.

Tuttavia, sebbene ciò possa sembrare impressionante, altri ricercatori dell’intelligenza artificiale non sono impressionati. La ricercatrice informatica e intelligenza artificiale Margaret Mitchell ha suggerito che i dati di addestramento utilizzati per l’IA potrebbero aver contenuto delle espressioni in bengalese.

Mitchell ha spiegato che il modello PaLM, il precursore di Bard, era già stato addestrato in bengalese. Quindi non è una forzatura presumere che Bard, che ha incorporato il lavoro PaLM, abbia incluso anche il bengalese nei suoi dati di addestramento. Ordinando un modello addestrato in bengalese con il bengalese, scivolerà facilmente in quel che sa in bengalese.

Un portavoce di Google ha confermato che l’intelligenza artificiale è stata effettivamente addestrata in bengalese, ma non è stata addestrata a tradurre lingue o rispondere a domande in formato Q&A. Ha imparato queste abilità da sola, il che è ancora considerato un risultato impressionante.

Sebbene lo sviluppo di abilità da parte dell’IA senza una programmazione esplicita sia considerato impressionante, solleva preoccupazioni sulla capacità dei ricercatori di comprendere come funziona l’IA. Pichai ha ammesso che c’è un aspetto dell’intelligenza artificiale, chiamato la “scatola nera”, che non è del tutto compreso, e gli scienziati non possono dire perché abbia preso determinate decisioni o perché abbia sbagliato.

Federica Vitale

Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Recent Posts

Sorpresa Telepass: attenzione all’e-mail truffa

Avete ricevuto una strana e-mal dove vi viene comunicato che siete stati selezionati per vincere un kit di emergenza per…

19 Gennaio 2025

Come il cervello combina vista e udito per comprendere il parlato in ambienti rumorosi

In ambienti rumorosi, comprendere una conversazione può diventare una sfida, soprattutto quando il rumore di fondo è intenso e persistente.…

19 Gennaio 2025

Le offerte Amazon del fine settimana da non farsi sfuggire

Il fine settimana di Amazon è ricco di offerte super vantaggiose. Migliaia di prodotti tecnologici e non sono ora disponibili…

18 Gennaio 2025

Come l’esercizio fisico migliora l’elaborazione del linguaggio negli anziani

L’invecchiamento è spesso accompagnato da una riduzione delle capacità cognitive, inclusa l'elaborazione del linguaggio. Tuttavia, recenti studi suggeriscono che l’esercizio…

18 Gennaio 2025

I pianeti “sfileranno” a febbraio: il fenomeno diventa nuovamente visibile solo nel 2492

L’allineamento planetario del 28 febbraio 2025 è destinato a essere un evento straordinario per gli appassionati di astronomia. In quella…

18 Gennaio 2025

TikTok bannato dagli Stati Uniti per la Corte Suprema: cosa farà Trump?

Una decisione epocale per la Corte Suprema degli Stati Uniti, la quale ha ufficialmente deciso di bannare TikTok dal suolo americano, con inizio a…

18 Gennaio 2025