Creato un sistema in grado di tradurre i segnali cerebrali in parole

Date:

Share post:

Neuroingegneri e neuroscienziati hanno creato, sulla base dell’intelligenza artificiale, un sistema in grado di tradurre i segnali cerebrali in un linguaggio intelligibile e che potrebbe essere promettente per le persone con disabilità del linguaggio.

Monitorando l’attività cerebrale di una persona, la tecnologia “può ricostruire, con una chiarezza senza precedenti, le parole che sente“, ha detto in un comunicato l’Istituto Zuckerman alla Columbia University negli Stati Uniti, che ha partecipato al lavoro.

I risultati sono stati pubblicati su Scientific Reports e il team coinvolto nel lavoro ha spianato la strada a nuove forme di comunicazione diretta tra i computer e il cervello e aiutare le persone che non possono parlare – come quelli con sclerosi laterale amiotrofico o hanno subito un ictus – per riconquistare la capacità di comunicare.

 

Gli esperimenti

Per condurre il loro compito, gli scienziati hanno usato una voce umana sintetizzatore, simile a quello utilizzato dall’astrofisico Stephen Hawking in un algoritmo su un computer e in grado di sintetizzare il discorso dopo essere stato addestrato con persone che chiacchierano. 

Il sintetizzatore ha imparato ad interpretare l’attività cerebrale dei pazienti epilettici che hanno sentito frasi pronunciate da più persone. Ai pazienti è stato anche chiesto di sentire persone che numerano cifre da 0 a 9 mentre i segnali cerebrali emessi durante questo compito venivano registrati.

Il suono prodotto dal sintetizzatore in risposta a questi segnali è stato quindi analizzato e “ripulito” da reti di intelligenza artificiale che imitano la struttura dei neuroni nel cervello. Il risultato è stata una voce robotica che recitava una sequenza di numeri.

Per testare l’affidabilità della registrazione, lo stesso gruppo di scienziati ha chiesto ai pazienti di ascoltare il verbale e riferire ciò che avevano sentito. “Il sintetizzatore e le reti neurali dell’intelligenza artificiale interpretavano con impressionante precisione i suoni che i pazienti avevano inizialmente sentito“, ha detto il professor Nima Mesgarani , autore principale dello studio e ricercatore presso l’Istituto Zuckerman della Columbia University.

In una fase successiva, il gruppo di lavoro intende testare il sistema con parole e frasi più complesse e permettergli di tradurre in discorso verbale segnali cerebrali sintetizzati emessi quando una persona sta pensando.

Federica Vitale
Federica Vitalehttps://federicavitale.com
Ho studiato Shakespeare all'Università e mi ritrovo a scrivere di tecnologia, smartphone, robot e accessori hi-tech da anni! La SEO? Per me è maschile, ma la rispetto ugualmente. Quando si suol dire "Sappiamo ciò che siamo ma non quello che potremmo essere" (Amleto, l'atto indovinatelo voi!)

Related articles

Google Pixel 9a dovrebbe avere lo stesso processore dei Google Pixel 9

Lanciati i Google Pixel 9 e 9 Pro sul mercato, l'attenzione del pubblico si è spostata nell'ultimo periodo verso il possibile, e...

Alzheimer: una pillola per il sonno per mitigare la malattia

Il morbo di Alzheimer è una di quelle malattia in cui non è esattamente facile trovare un piano...

20% del rischio di autismo per i bambini con fratelli autistici: cosa significa per le famiglie?

L'autismo è un disturbo del neuro-sviluppo che influisce su come una persona percepisce e interagisce con il mondo....

La fine del mondo: cosa accadrebbe se la Terra smettesse di girare?

La Terra è un pianeta dinamico in costante movimento, con una rotazione sul suo asse che dura circa...