In un'assoluta novità mondiale, ricercatori del GrapheneX-UTS Human-centric Artificial Intelligence Centre presso l'University of Technology Sydney (UTS) hanno creato un sistema portatile e non invasivo in grado di decodificare i pensieri silenziosi e trasformarli in testo.
Questa tecnologia potrebbe rivoluzionare la comunicazione per persone impossibilitate a parlare a causa di malattie o lesioni, come ictus o paralisi, consentendo anche una comunicazione più fluida tra esseri umani e macchine, come l'operazione di un arto bionico o di un robot.
Lo studio è stato selezionato come paper di spicco alla conferenza NeurIPS, un incontro annuale che presenta ricerche all'avanguardia su intelligenza artificiale e apprendimento automatico, tenutosi a New Orleans il 12 dicembre 2023. La ricerca, guidata dal Professor CT Lin, Direttore del GrapheneX-UTS HAI Centre, insieme al primo autore Yiqun Duan e al dottorando Jinzhou Zhou della Facoltà di Ingegneria e IT di UTS, ha coinvolto i partecipanti che leggevano silenziosamente brani di testo mentre indossavano una cuffia registrante l'attività cerebrale attraverso l'elettroencefalogramma (EEG).
L'onda EEG è stata analizzata in unità distinte che catturano le caratteristiche specifiche del cervello umano. Questo è stato possibile grazie a un modello di intelligenza artificiale chiamato DeWave, sviluppato dai ricercatori, il quale traduce i segnali EEG in parole e frasi apprendendo da grandi quantità di dati EEG.
La ricerca è stata elogiata come un'impresa pionieristica nella traduzione diretta delle onde EEG in linguaggio, presentando una significativa innovazione nel campo. È la prima a incorporare tecniche discrete di codifica nel processo di traduzione cervello-testo, introducendo così un approccio innovativo alla decodifica neurale. L'integrazione con grandi modelli linguistici sta aprendo nuovi fronti nella neuroscienza e nell'IA.
A differenza delle tecnologie precedenti, che richiedevano interventi chirurgici o dispositivi ingombranti come la risonanza magnetica, questo nuovo sistema può essere utilizzato in modo pratico, sia con che senza il tracciamento degli occhi. La ricerca è stata condotta con 29 partecipanti, conferendo maggiore robustezza e adattabilità rispetto alle precedenti tecnologie testate su un numero limitato di individui. L'uso di segnali EEG ricevuti attraverso una cuffia, invece di elettrodi impiantati nel cervello, rende il segnale più rumoroso, ma la traduzione EEG ha comunque raggiunto prestazioni all'avanguardia, superando i benchmark precedenti.
Il modello mostra maggiore precisione nel corrispondere ai verbi rispetto ai sostantivi. Nonostante alcune sfide, come la propensione a coppie sinonime invece di traduzioni precise, i risultati del modello sono stati significativi, allineando parole chiave e formando strutture di frasi simili. Attualmente, il punteggio di accuratezza della traduzione si attesta intorno al 40% su BLEU-1, ma i ricercatori sperano che questo valore migliori fino a raggiungere un livello comparabile ai programmi tradizionali di traduzione linguistica o di riconoscimento vocale, che si avvicinano al 90%.