intelligenza-artificiale

Neuroingegneri e neuroscienziati hanno creato, sulla base dell’intelligenza artificiale, un sistema in grado di tradurre i segnali cerebrali in un linguaggio intelligibile e che potrebbe essere promettente per le persone con disabilità del linguaggio.

Monitorando l’attività cerebrale di una persona, la tecnologia “può ricostruire, con una chiarezza senza precedenti, le parole che sente“, ha detto in un comunicato l’Istituto Zuckerman alla Columbia University negli Stati Uniti, che ha partecipato al lavoro.

I risultati sono stati pubblicati su Scientific Reports e il team coinvolto nel lavoro ha spianato la strada a nuove forme di comunicazione diretta tra i computer e il cervello e aiutare le persone che non possono parlare – come quelli con sclerosi laterale amiotrofico o hanno subito un ictus – per riconquistare la capacità di comunicare.

 

Gli esperimenti

Per condurre il loro compito, gli scienziati hanno usato una voce umana sintetizzatore, simile a quello utilizzato dall’astrofisico Stephen Hawking in un algoritmo su un computer e in grado di sintetizzare il discorso dopo essere stato addestrato con persone che chiacchierano. 

Il sintetizzatore ha imparato ad interpretare l’attività cerebrale dei pazienti epilettici che hanno sentito frasi pronunciate da più persone. Ai pazienti è stato anche chiesto di sentire persone che numerano cifre da 0 a 9 mentre i segnali cerebrali emessi durante questo compito venivano registrati.

Il suono prodotto dal sintetizzatore in risposta a questi segnali è stato quindi analizzato e “ripulito” da reti di intelligenza artificiale che imitano la struttura dei neuroni nel cervello. Il risultato è stata una voce robotica che recitava una sequenza di numeri.

Per testare l’affidabilità della registrazione, lo stesso gruppo di scienziati ha chiesto ai pazienti di ascoltare il verbale e riferire ciò che avevano sentito. “Il sintetizzatore e le reti neurali dell’intelligenza artificiale interpretavano con impressionante precisione i suoni che i pazienti avevano inizialmente sentito“, ha detto il professor Nima Mesgarani , autore principale dello studio e ricercatore presso l’Istituto Zuckerman della Columbia University.

In una fase successiva, il gruppo di lavoro intende testare il sistema con parole e frasi più complesse e permettergli di tradurre in discorso verbale segnali cerebrali sintetizzati emessi quando una persona sta pensando.

https://youtu.be/8P3QalFi73U