Categorie: News

Intelligenza artificiale: una rete neurale riconosce i casi in cui è inaffidabile

Sempre più spesso, i sistemi di intelligenza artificiale noti come reti neurali di apprendimento profondo vengono utilizzati per comunicare decisioni vitali per la salute e la sicurezza umana, come accade nella guida autonoma o nella diagnosi medica. Queste reti sono in grado di riconoscere i modelli in grandi e complessi set di dati per aiutare a compiere il processo decisionale. Ma come essere certi che una rete neurale non commetta errori? Alexander Amini e i suoi colleghi del MIT e della Harvard University avevano intenzione di scoprirlo.

 

Una rete neurale potrà aiutarci a compiere decisioni importanti

Gli studiosi hanno sviluppato un modo rapido per far assimilare i dati a una rete neurale e far sì che essa fornisca non solo una previsione, ma anche il livello di affidabilità del modello in base alla qualità dei dati disponibili. Questo importante progresso potrebbe salvare vite umane, dato che l’apprendimento profondo è già diffuso nel mondo reale. Il livello di affidabilità di una rete può fare la differenza; ad esempio, nel caso di un veicolo autonomo che deve attraversare un incrocio può distinguere fra l’indicazione di “via libera” e quella di “via probabilmente libera: fermarsi”.

Gli attuali metodi di stima dell’incertezza nel campo delle reti neurali tendono ad essere impegnativi dal punto di vista dei calcoli e relativamente lenti nelle decisioni da prendere in poche frazioni di secondo. Ma l’approccio di Amini, soprannominato “regressione profonda basata sull’evidenza”, accelera il processo e potrebbe portare a risultati più sicuri. Amini, dottorando che fa parte del gruppo guidato dalla professoressa Daniela Rus del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, spiega che occorre essere in grado capacità non solo di avere modelli ad alte prestazioni, ma anche di capire in quali occasioni tali modelli non sono affidabili.

La professoressa Rus aggiunge che questa idea è importante e applicabile in senso lato; è utilizzabile per valutare prodotti che si basano su modelli appresi. Stimando l’incertezza di un modello appreso, scopriamo anche il margine di errore che bisogna aspettarsi e quali sono i dati mancanti che potrebbero migliorare il modello. Amini presenterà la ricerca alla conferenza NeurIPS che si terrà il mese prossimo, insieme a Daniela Rus, docente di Ingegneria Elettrica e Informatica all’Andrew e Erna Viterbi, direttore del CSAIL, e agli studenti Wilko Schwarting del MIT e Ava Soleimany del MIT e di Harvard.

.Ph. credits: Foto di Gerd Altmann da Pixabay

Gloria Fiorani

Recent Posts

Cosa Viene Dopo i Pieghevoli? Il Futuro dei Form Factor degli Smartphone

In poco più di un decennio, gli smartphone sono passati da blocchi rettangolari a bordi curvi, fino a diventare meraviglie…

16 Giugno 2025

Il Tuo Respiro Rivela Chi Sei: Identità e Salute Mentale nei Tuoi Schemi Respiratori

Il modo in cui respiriamo potrebbe dire molto più di quanto pensiamo. Secondo ricerche scientifiche recenti, ogni persona ha uno…

16 Giugno 2025

Aurora: l’IA che prevede disastri naturali in anticipo, spendendo meno

Il futuro delle previsioni climatiche è arrivato. Si chiama Aurora ed è un modello di intelligenza artificiale capace di anticipare…

16 Giugno 2025

Colori primari, secondari e terziari: cosa sono, come funzionano e perché sono diversi

La teoria del colore è alla base dell’arte, del design e della stampa. Ma cosa si intende davvero per colori…

16 Giugno 2025

L’Esercizio Fisico Può Riprogrammare le Cellule Cerebrali Colpite dall’Alzheimer

Un nuovo studio scientifico lancia un messaggio di speranza nella lotta contro l’Alzheimer: l’esercizio fisico regolare potrebbe aiutare il cervello…

16 Giugno 2025

La nuova Stazione Meteo ORIGINAL combina un’estetica distintiva con tecnologie di misurazione ambientale all’avanguardia

Tredici anni fa, Netatmo lanciava sul mercato il suo primo prodotto: la Stazione Meteo. Un dispositivo che non solo apriva…

16 Giugno 2025