Gli anni intorno al 2010 hanno rappresentato una svolta per l’informatica grazie ai progressi compiuti nell’apprendimento profondo, un ramo dell’intelligenza artificiale che è diventato realtà grazie alla crescente capacità di raccogliere, archiviare ed elaborare grandi quantità di dati. Oggi, l’apprendimento profondo non è solo un argomento di ricerca scientifica, ma anche una componente chiave di molte applicazioni quotidiane. Tuttavia, un decennio di ricerche e applicazioni ha chiarito che, allo stato attuale, l’apprendimento profondo non è la soluzione definitiva alla sfida sempre sfuggente della creazione di intelligenza artificiale a livello umano.
Questo argomento, oggetto di un acceso dibattito fra gli esperti di intelligenza artificiale, è stato protagonista di una discussione online che la comunità Montreal.AI ha tenuto la settimana scorsa. Il dibattito, intitolato “AI debate 2: Moving AI forward: An interdisciplinary approach”, ha coinvolto scienziati di diversa estrazione e appartenenti a diverse discipline.
Lo scienziato cognitivo Gary Marcus, che ha collaborato alla conduzione del dibattito, ha ribadito alcune delle principali carenze dell’apprendimento profondo, tra cui l’eccessiva richiesta di dati, la scarsa capacità di trasferire la conoscenza ad altri domini, l’opacità e la mancanza di ragionamento e di rappresentazione delle conoscenze. All’inizio del 2020 Marcus, che critica apertamente gli approcci basati esclusivamente sull’apprendimento profondo, ha pubblicato un articolo in cui suggerisce un approccio ibrido che combina algoritmi di apprendimento con un software basato su regole.
Anche altri oratori hanno indicato l’intelligenza artificiale ibrida come possibile soluzione alle sfide dell’apprendimento profondo. L’informatico Luis Lamb, ad esempio, sostiene che una delle questioni chiave è l’identificazione dei mattoni dell’intelligenza artificiale e il modo in cui rendere l’intelligenza artificiale più affidabile, spiegabile e interpretabile. Lamb, coautore del libro Neural-symbolic Cognitive Reasoning, ha proposto un approccio fondamentale per l’AI neurosimbolica, che si basa sia sulla formalizzazione logica che sull’apprendimento automatico.
Dal canto suo Fei-fei Li, docente di Informatica alla Stanford University, ha sottolineato come, nella storia dell’evoluzione, la visione sia stata uno dei catalizzatori chiave per l’emergere dell’intelligenza negli esseri viventi. Allo stesso modo, il lavoro sulla classificazione delle immagini e la visione artificiale ha contribuito a innescare la profonda rivoluzione dell’apprendimento dell’ultimo decennio. Li è il creatore di ImageNet, un dataset di milioni di immagini etichettate utilizzate per addestrare e valutare i sistemi di visione artificiale.
Si tratta, in conclusione, di una ricca e variegata discussione in cui è possibile trovare interessanti spunti di riflessione e nuovi sbocchi per un’intelligenza artificiale che sia sempre più a misura umana.
Ph. credits: Franck V. via Venturebeat.com
Dato il grandissimo successo Panasonic Lumix S5, l'azienda orientale negli ultimi anni ha pensato di mettere a disposizione del pubblico…
Recenti scoperte scientifiche hanno portato nuove speranze per chi soffre della malattia di Huntington, nota anche come “danza di San…
Su Amazon le feste di Natale arrivano prima! Il noto e-commerce ha appena inaugurato il "Negozio di Natale". Al suo…
Il cinema è una forma d'arte che cattura l'attenzione dello spettatore attraverso storie, immagini e suoni, ma c'è molto di…
WhatsApp continua a portare in campo funzioni riguardanti gli aggiornamenti di stato. Scovate nell'ultima beta dell'app per dispositivi iOS, tracce…
Gli astronauti americani, anche quando sono in orbita sulla Stazione Spaziale Internazionale (ISS), non rinunciano al diritto di voto, un’opportunità…