Grazie all’Intelligenza Artificiale sarà possibile trasformare i pensieri i segnali del cervello in discorsi? Un nuovo studio lo conferma
Il cervello umano è un organo affascinante e complesso, è tra i pochi a non “dormire” mai, neanche mentre siamo in fase REM. Così come il cuore continua a battere, la mente non smette di pensare; macina immagini, che si traducono in sogni. Sarebbe bello dare vita ai pensieri, trasformarli in dialoghi, ragionamenti e magari concretizzarli in modo totalmente innovativo. Senza usare la nostra voce, ma affidandoci ad uno strumento esterno che legge la mente e trasforma i pensieri in parole.
Fortunatamente, l’Intelligenza Artificiale ha fatto passi da gigante, ed entro dieci anni ciò che per ora ci limitiamo a sognare e immaginare potrebbe diventare realtà. Un gruppo di ricercatori della Columbia University sta lavorando ad un algoritmo capace di trasformare i segnali del cervello in parole “parlate”, ricorrendo all’AI (Artificial Intelligence) e all’uso dell’encefalogramma. Il progetto è in pieno sviluppo, e i ricercatori si affidano ad ogni strumento disponibile per portarlo a termine. Per esempio, è stato usato un vocoder durante un’operazione neurochirurgica. Una serie di ricettori è stata collegata al cervello dei pazienti operati per riuscire a captare ogni minima vibrazione delle onde cerebrali.
Gli obiettivi e l’importanza dello studio che trasforma i pensieri in discorsi
Lo studio condotto dalla Columbia University e descritto su Scientific Reports, potrebbe aprire la strada ad un obiettivo ambizioso: trasformare i pensieri silenziosi della mente in discorsi.
Naturalmente si tratta di un progetto complesso, e le difficoltà non mancano. Per esempio, il sistema di traduzione ancora non abbraccia la mole enorme di immagini che il nostro cervello può partorire, tuttavia non sarà impossibile ottenere risultati importanti in futuro, soprattutto grazie ai progressi dell’Intelligenza Artificiale o ad esami come l’ECG.
Il progetto potrebbe essere rivoluzionario anche per i pazienti impossibilitati a parlare, perché affetti da patologie neurologiche e cerebrali. Inoltre, questa ricerca potrebbe spianare la strada alla nascita di dispositivi da controllare con la mente. Fino a poco tempo fa, scene del genere erano relegate ai film di fantascienza, ma la ricerca li sta pian piano trasformando in realtà.
L’anno scorso, un team di neuroscienziati dell’Università di Toronto ha sviluppato un sistema che permette di ricreare su schermo un’immagine creata a livello mentale. Questo può essere utile quando una persona vuole riconoscere un volto, che ha ben chiaro in testa, ma non riesce a concretizzarlo magari in un foglio. Ciò è possibile grazie ad una scansione dei pensieri. L’esperimento ha coinvolto un campione di persone a cui è stata mostrata la foto di un volto di una persona. Al momento dell’encefalogramma dovevano pensare ad ogni elemento del volto. Nel frattempo, la macchina disegnava su schermo il frutto di quei pensieri. Alla fine, sul display appariva il volto della persona ritratta sulla fotografia mostrata ai pazienti.
Interpretare le onde cerebrali causate dall’ascolto o dalla pronuncia di una parola è una sfida ancora più grande, ma i ricercatori si aiutano con algoritmi ad apprendimento automatico, capaci di immagazzinare gradualmente un numero altissimo di informazioni. Negli anni sono stati registrati incredibili progressi sotto questo punto di vista. Vediamo nel dettaglio in cosa consiste lo studio condotto dalla Columbia University e capitanato dal dott. Nima Mesgarani.
In cosa consiste lo studio che trasforma le onde cerebrali in parole?
Il team leader e primo autore della ricerca ha pensato di affidarsi ad uno strumento particolare, chiamato vocoder, capace di codificare qualsiasi segnale audio. All’interno dell’apparecchio sono stati inseriti degli algoritmi capaci di imparare frasi e brevi storie, e riprodurre determinate parole e discorsi. Si tratta della stessa tecnologia che consente ad Amazon Echo e Siri di fornire risposte corrette a determinate domande. Per allenare i vocoder, Mesgarani ha collaborato con il neurochirurgo Dr. Mehta.
Lo studio ha raccolto i dati di cinque pazienti epilettici mentre erano sottoposti ad un’operazione di neurochirurgia. I pazienti avevano una serie di elettrodi impiantati nel cervello che permettevano ai ricercatori di effettuare delle misurazioni elettrocorticografiche complete mentre i pazienti ascoltavano dei racconti narrati da quattro diverse persone. Ogni registrazione neurale durava al massimo 30 minuti.
Il vocoder ha letto le onde cerebrali prodotte dalla corteccia uditiva e le ha usate per trasformare in discorso ciò che il cervello aveva ascoltato.
Il suono prodotto è stato quindi ripulito di tutte le interferenze da un sistema di Intelligenza Artificiale. In seguito, i dati sono stati fatti ascoltare ad ascoltatori esterni. Nima Mesgarani si è detto particolarmente soddisfatto dei risultati: “Abbiamo rilevato che i pazienti potevano comprendere e ripetere suoni il 75% delle volte, una media senza paragoni rispetto ai tentativi precedenti”.
Dott. Mesgarani ha ammesso ad Inverse che la tecnologia diventerà disponibile a livello globale tra almeno dieci anni, anche perché la possibilità di eseguire misurazioni elettrocorticografiche (a contatto diretto col cervello) è ridotta. Tuttavia, l’esperimento mette le basi per trasformare in discorsi i pensieri umani. Il prossimo passo, secondo l’autore della ricerca, è quello di affinare ancora meglio gli algoritmi in modo che possano decodificare parole e frasi complesse. In futuro questa tecnologia potrebbe davvero essere una svolta, non solo durante la vita quotidiana, ma anche per il benessere dei pazienti che, a causa di patologie degenerative e trami cerebrali, non possono parlare.
FONTE