Cervello, così possiamo comunicare con il pensiero

Pubblicità
Pubblicità

Una macchina ci consentirà di comunicare con il pensiero? Il primo passo è stato fatto con l’invenzione di un dispositivo, una protesi vocale, in grado di tradurre i segnali cerebrali di una persona in ciò che sta cercando di dire. Il futuro è già qui. A disegnarlo hanno pensato neurochirurghi e ingegneri americani della Duke University.

Una nuova tecnologia descritta sulla rivista Nature Communications, in grado di aiutare chi, a causa di disturbi neurologici ha difficoltà nel linguaggio, a riacquistare la capacità di comunicare attraverso un’interfaccia cervello-computer.

Tornare a camminare con la forza del pensiero: le protesi che dialogano con il cervello

Il primo ostacolo da superare

L’idea di muoversi verso la realizzazione di un’interfaccia cervello-macchina ha da subito incontrato un ostacolo. Sono gli stessi ricercatori a spiegarlo: “Consideriamo che molti pazienti soffrono di disturbi motori debilitanti, come la Sclerosi laterale amiotrofica o la Sindrome Locked-in, che possono compromettere la loro capacità di parlare – ha spiegato Gregory Cogan, professore di Neurologia alla School of Medicine della Duke University, uno dei principali ricercatori coinvolti nel progetto -. Ma gli strumenti ora disponibili per consentire loro di comunicare sono generalmente molto lenti e macchinosi”.

Cosa significa? È sempre Cogan a spiegarlo: “Immaginate di ascoltare un audio libro a metà velocità: questa è la migliore velocità di decodifica del parlato attualmente disponibile, che si attesta a circa 78 parole al minuto. Le persone, tuttavia, parlano a circa 150 parole al minuto e lo scarto tra la velocità del parlato e quella della decodifica è in parte dovuto al numero relativamente basso di sensori di attività cerebrale, che possono essere fusi su un pezzo di materiale sottile come la carta, che si trova sulla superficie del cervello”.

Un ‘francobollo’ con 256 sensori cerebrali

Quindi, spiega lo scienziato, “un minor numero di sensori fornisce meno informazioni decifrabili da decodificare”. Cosa fare dunque per superare le limitazioni del passato? La risposta Cogan l’ha trovata nella collaborazione con il collega del Duke Institute for Brain Sciences Jonathan Viventi, il cui laboratorio di Ingegneria biomedica è specializzato nella realizzazione di sensori cerebrali ad alta densità, ultrasottili e flessibili. Per questo progetto, Viventi e la sua équipe hanno inserito 256 microscopici sensori cerebrali in un pezzo di plastica flessibile di grado medicale della dimensione di un francobollo.
Va detto che i neuroni, distanti appena un granello di sabbia l’uno dall’altro, possono avere schemi di attività molto diversi quando coordinano il discorso, per cui è necessario distinguere i segnali provenienti da cellule cerebrali vicine per poter fare previsioni accurate sul discorso che si intende fare. Dopo aver fabbricato il nuovo impianto, Cogan e Viventi hanno avviato nuove collaborazione con diversi neurochirurghi del Duke University, tra cui Derek Southwell, Nandan Lad e Allan Friedman, che hanno contribuito a reclutare quattro pazienti per testare gli impianti in questione.

Disturbi neurologici, la mappa dei rischi e come evitarli

Il via all’esperimento

Ed è iniziato l’esperimento. Prevedeva che i ricercatori inserissero temporaneamente il dispositivo in pazienti che stavano subendo un intervento chirurgico al cervello a seguito di altre patologie, come il trattamento della malattia di Parkinson o l’asportazione di un tumore. Il tempo a disposizione di Cogan e della sua squadra per testare il dispositivo in sala operatoria era limitato.

“Mi piace paragonarlo a un equipaggio dei box della Nascar – ha detto Cogan -. Non vogliamo aggiungere altro tempo alla procedura operativa, quindi dovevamo essere dentro e fuori entro 15 minuti. Così, non appena il chirurgo e l’équipe medica ci hanno autorizzato, ci siamo messi in azione”.

Il compito consisteva in un’attività di ascolto e ripetizione. I partecipanti hanno ascoltato una serie di parole senza senso, come “ava”, “kug” o “vip”, e poi hanno pronunciato ciascuna di esse ad alta voce. Il dispositivo ha registrato l’attività della corteccia motoria vocale di ciascun paziente mentre coordinava quasi cento muscoli che muovono le labbra, la lingua, la mascella e la laringe.

Dati inseriti in un algoritmo

Il passo successivo è stato inserire i dati raccolti in un algoritmo. Ci ha pensato Suseendrakumar Duraivel, primo autore del nuovo studio e studente di Ingegneria biomedica alla Duke, che ha preso i dati neurali e vocali dalla sala operatoria e li ha collocati in un algoritmo di apprendimento automatico per vedere quanto accuratamente potesse prevedere quale suono veniva emesso, basandosi solo sulle registrazioni dell’attività cerebrale.

Per alcuni suoni e partecipanti, come /g/ nella parola “gak”, il decodificatore ha indovinato l’84% delle volte quando si trattava del primo suono di una stringa di tre che componevano una determinata parola nonsense. Tuttavia qualche problema si è presentato: la precisione è andata calando quando il decodificatore ha eliminato i suoni nel mezzo o alla fine di una parola, e inoltre, faticava se due suoni erano simili, come /p/ e /b/.

Risultato positivo nel 40% dei casi

In sostanza il risultato si è ottenuto nel 40% dei casi: il decodificatore ha seguito questa percentuale di accuratezza. Potrebbe sembrare un punteggio modesto, ma è impressionante se si considera che normalmente queste prodezze tecniche di brain-to-speech richiedono ore o giorni di dati da cui attingere. Mentre l’algoritmo di decodifica vocale utilizzato da Duraivel lavorava con soli 90 secondi di dati vocali provenienti dal test di 15 minuti.

Duraivel e la sua équipe realizzeranno una versione senza fili del dispositivo grazie a una sovvenzione di 2,4 milioni di dollari del National Institutes of Health. “Stiamo sviluppando lo stesso tipo di dispositivi di registrazione, ma senza fili – ha confermato Cogan -. Ciò consente di muoversi e di non essere legati a una presa elettrica. Cosa davvero entusiasmante”.

In ogni caso, sebbene il lavoro sia incoraggiante, c’è ancora molta strada da fare perché la protesi vocale di Viventi e Cogan sia disponibile per la vendita. “Siamo al punto in cui il dispositivo è ancora molto più lento del parlato naturale – ha concluso Viventi – ma si può tracciare la traiettoria da seguire per arrivare all’obiettivo”.

Gli escienziati italiani che fanno scuola

Intanto, in Italia, c’è chi in questo campo è già impegnato con risultati tangibili. Luca Berdondini, 49 anni, ingegnere in micro nanotecnologie, lavora da 30 nelle neuroscienze e sviluppo di neurotecnologie, oltre ad essere direttore dell’Unità di ricerca in Neuroelettronica dell’Istituto italiano di tecnologia.

“Mi occupo di neuroelettronica, sviluppo dispositivi, ossia sensori, per interfaccia cervello-macchina – precisa – . Dunque conosco bene questo tema. Non si tratta di tecnologie nuove, si sviluppano da anni per consentirne l’applicazione in persone che hanno problemi motori e difficoltà di linguaggio. Sono interfaccia, specie di caschetti che misurano segnali dal cranio. Il fatto, però, è che non hanno accesso al dettaglio fine nella comunicazione del nostro cervello. È come ascoltare dalla camera accanto, per migliorare bisogna avvicinarsi alle fonti di segnale”.

La nuova scoperta

Qui entra in gioco il nuovo studio della Duke University. “I ricercatori si sono avvicinati alle fonti di segnale inserendo piccoli dispositivi che hanno una definizione più alta – prosegue Berdondini – . Stiamo parlando del fatto che la persona pensa di parlare, il sistema decodifica i segnali e li vocalizza. Il mio laboratorio Micro technology for new electronic, va più in là: sviluppiamo tecnologia di sensoristica che può essere applicata per altre condizioni, anche nel caso di pazienti con difficoltà di tipo motorio. Come definirei questo studio? Un passo in più che consente di migliorare la risoluzione spazio-temporale e quindi decodificare con maggiore precisione il pensiero”.

L’Intelligenza artificiale è una trappola per la mente dei ragazzi?

L’innesto con intervento chirurgico

Quello che molti non afferrano, e che va precisato per le implicazioni che può avere, è che per “parlare con il pensiero” occorre intervenire chirurgicamente sulla persona. “Il sensore deve essere inserito nel paziente, sulla superficie del cervello, tra l’osso e la dura, ossia la membrana più esterna, resistente e spessa, immediatamente sotto l’osso, che copre le meningi del cervello – sottolinea Berdondini – . Poi il sensore deve essere collegato all’esterno con un dispositivo che ne riceva i segnali (anche un cellulare) e generi l’intenzione motoria della vocalizzazione”.

“Quando sarà realizzabile tutto ciò? Ora si è a livello di primi test clinici – conclude l’esperto – . Ma entro il 2023 lo ritengo già possibile, potrebbe riguardare pazienti che hanno problemi di verbalizzazione. Queste tecnologie, applicate su persone sane, invece, non necessariamente rappresentano l’approccio giusto. Pensiamo, ad esempio, alle controindicazioni sulla privacy. Di certo, però, la strada è tracciata. Seguiamola”.

Pubblicità

Pubblicità

Go to Source

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *