artificiale

Gli anni intorno al 2010 hanno rappresentato una svolta per l’informatica grazie ai progressi compiuti nell’apprendimento profondo, un ramo dell’intelligenza artificiale che è diventato realtà grazie alla crescente capacità di raccogliere, archiviare ed elaborare grandi quantità di dati. Oggi, l’apprendimento profondo non è solo un argomento di ricerca scientifica, ma anche una componente chiave di molte applicazioni quotidiane. Tuttavia, un decennio di ricerche e applicazioni ha chiarito che, allo stato attuale, l’apprendimento profondo non è la soluzione definitiva alla sfida sempre sfuggente della creazione di intelligenza artificiale a livello umano.

 

I prossimi passi dell’intelligenza artificiale per il 2021

Questo argomento, oggetto di un acceso dibattito fra gli esperti di intelligenza artificiale, è stato protagonista di una discussione online che la comunità Montreal.AI ha tenuto la settimana scorsa. Il dibattito, intitolato “AI debate 2: Moving AI forward: An interdisciplinary approach”, ha coinvolto scienziati di diversa estrazione e appartenenti a diverse discipline.

Lo scienziato cognitivo Gary Marcus, che ha collaborato alla conduzione del dibattito, ha ribadito alcune delle principali carenze dell’apprendimento profondo, tra cui l’eccessiva richiesta di dati, la scarsa capacità di trasferire la conoscenza ad altri domini, l’opacità e la mancanza di ragionamento e di rappresentazione delle conoscenze. All’inizio del 2020 Marcus, che critica apertamente gli approcci basati esclusivamente sull’apprendimento profondo, ha pubblicato un articolo in cui suggerisce un approccio ibrido che combina algoritmi di apprendimento con un software basato su regole.

 

Un confronto variegato e ricco di spunti

Anche altri oratori hanno indicato l’intelligenza artificiale ibrida come possibile soluzione alle sfide dell’apprendimento profondo. L’informatico Luis Lamb, ad esempio, sostiene che una delle questioni chiave è l’identificazione dei mattoni dell’intelligenza artificiale e il modo in cui rendere l’intelligenza artificiale più affidabile, spiegabile e interpretabile. Lamb, coautore del libro Neural-symbolic Cognitive Reasoning, ha proposto un approccio fondamentale per l’AI neurosimbolica, che si basa sia sulla formalizzazione logica che sull’apprendimento automatico.

Dal canto suo Fei-fei Li, docente di Informatica alla Stanford University, ha sottolineato come, nella storia dell’evoluzione, la visione sia stata uno dei catalizzatori chiave per l’emergere dell’intelligenza negli esseri viventi. Allo stesso modo, il lavoro sulla classificazione delle immagini e la visione artificiale ha contribuito a innescare la profonda rivoluzione dell’apprendimento dell’ultimo decennio. Li è il creatore di ImageNet, un dataset di milioni di immagini etichettate utilizzate per addestrare e valutare i sistemi di visione artificiale.

Si tratta, in conclusione, di una ricca e variegata discussione in cui è possibile trovare interessanti spunti di riflessione e nuovi sbocchi per un’intelligenza artificiale che sia sempre più a misura umana.

Ph. credits: Franck V. via Venturebeat.com