Gli scienziati del Centro GrapheneX-UTS per l’intelligenza artificiale dell’Università della Tecnologia di Sydney (UTS) hanno sviluppato un sistema portatile e non invasivo in grado di decodificare i pensieri e convertirli in testo. La tecnologia può aiutare le persone che hanno perso la capacità di parlare a causa di malattie o infortuni, inclusi ictus o paralisi. Può anche facilitare l’interazione uomo-macchina, come il controllo di un braccio bionico o di un robot.
Questa ricerca è stato evidenziato come fondamentale alla conferenza NeurIPS a New Orleans, presentando i principali progressi nel campo dell’intelligenza artificiale e dell’apprendimento automatico. Il lavoro è stato guidato dal professor CT Lin e dagli studenti di dottorato Yiqun Duan e Jinzhou Zhou della Facoltà di Ingegneria e Tecnologia dell’Informazione dell’UTS.
I partecipanti allo studio leggevano testi indossando speciali cappucci sulla testa che registravano l’attività elettrica del cervello attraverso il cuoio capelluto utilizzando un elettroencefalogramma (EEG). L’intelligenza artificiale DeWave sviluppata dai ricercatori ha analizzato i segnali EEG, traducendoli in parole e frasi.
Lo studio UTS è stato condotto con 29 partecipanti, rendendolo più robusto e adattabile rispetto alle tecnologie precedenti testate solo su una o due persone. Nonostante i segnali rumorosi ricevuti attraverso il cappuccio anziché dagli elettrodi impiantati, lo studio ha mostrato risultati all’avanguardia nella traduzione dell’EEG.
Il modello fa un lavoro migliore con i verbi che con i nomi, spesso suggerendo coppie di sinonimi invece di traduzioni esatte. Tuttavia, nonostante le difficoltà, il modello mostra risultati significativi allineando parole chiave e producendo strutture di frasi simili.
La precisione della traduzione è attualmente pari a circa il 40% sulla scala BLEU-1. Questa misura la somiglianza della traduzione automatica con traduzioni di riferimento di alta qualità. I ricercatori sperano di portare questo tasso al livello dei tradizionali programmi di traduzione o di riconoscimento vocale, che è vicino al 90%.
Gli esperti hanno sottolineato che lo studio è il primo a tradurre le onde EEG grezze direttamente nel linguaggio. Il che rappresenta un passo avanti significativo. Si noti che questo è il primo caso di utilizzo di metodi di codifica discreti nel processo di traduzione del cervello in testo. Viene inoltre sottolineato il ruolo dell’integrazione con modelli linguistici più ampi.
In precedenza, la traduzione dei segnali cerebrali in linguaggio richiedeva un intervento chirurgico per impiantare elettrodi nel cervello, come nel progetto Neuralink di Elon Musk, o una scansione MRI, che era costosa e scomoda per l’uso quotidiano. La nuova tecnologia può essere utilizzata con o senza un sistema di tracciamento oculare.