
Redazione RHC : 16 agosto 2025 06:33
Dieciocho años después de que un derrame cerebral en el tronco encefálico dejara a Anne Johnson casi completamente paralizada, ahora utiliza una interfaz cerebro-computadora (BCI) que convierte el habla directamente de las señales cerebrales. En 2005, a los 30 años, la maestra y entrenadora atlética de Saskatchewan sufrió una lesión cerebral que la dejó con síndrome de enclaustramiento, en el que permanece consciente pero incapaz de hablar o moverse.
Durante años, se comunicó mediante un sistema de seguimiento ocular, hablando a una velocidad de aproximadamente 14 palabras por minuto, significativamente más lento que las 160 palabras que una persona normal pronuncia. En 2022, se convirtió en la tercera participante en un ensayo clínico realizado por la Universidad de California, Berkeley, y la UCSF, cuyo objetivo es restaurar el habla en personas con parálisis grave.
El sistema neuroprotésico utilizado registra la actividad eléctrica en el área cortical responsable de la articulación, evitando las vías de transmisión de señales dañadas. Se coloca un implante con una serie de electrodos intracraneales en la superficie de esta área. Cuando el paciente intenta pronunciar palabras, los sensores registran patrones característicos de actividad y los transmiten a una computadora. Los algoritmos de aprendizaje automático convierten los flujos de señales neuronales en texto, voz o expresiones faciales de un avatar digital, incluyendo expresiones básicas como sonreír o fruncir el ceño.
Inicialmente, el sistema funcionaba con patrones secuenciales que producían resultados solo después de completar la oración completa, lo que resultaba en un retraso de unos ocho segundos. En marzo de 2025, Nature Neuroscience informó sobre la transición a una arquitectura de streaming: la conversión ahora se produce casi en tiempo real, con una pausa de aproximadamente un segundo. Para una máxima personalización, los desarrolladores restauraron el timbre y la entonación de la grabación del discurso de boda de Johnson en 2004 y también permitieron elegir la apariencia del avatar para que sea reconocible y transmita señales visuales familiares. Los líderes del proyecto —Gopala Anumanchipalli, profesor asociado de ingeniería eléctrica e informática de la Universidad de California en Berkeley, el neurocirujano Edward Chang y el estudiante de posgrado de Berkeley Kylo Littlejohn— consideran que el objetivo final es una tecnología lista para usar que convierta los prototipos en herramientas clínicas estándar.
Los objetivos a corto plazo incluyen el desarrollo de implantes totalmente inalámbricos que eliminen la necesidad de una conexión física a una computadora y la creación de avatares más realistas para una comunicación natural. En el futuro, planean migrar a «imitadores» digitales que puedan reproducir no solo una voz, sino también un estilo de comunicación familiar, junto con señales no verbales.
Esta tecnología es particularmente importante para un grupo pequeño pero vulnerable de personas que han perdido el habla debido a un derrame cerebral, ELA o un trauma. Los desarrolladores enfatizan un punto ético clave: la decodificación solo se activa cuando una persona intenta pronunciar palabras conscientemente. Esto permite al usuario mantener el control sobre la comunicación y minimiza el riesgo de invasión del espacio personal.
Para Anne, participar en el programa fue un hito: está considerando trabajar como consejera en un centro de rehabilitación y mantener conversaciones con clientes a través de una neuroprótesis. Con la latencia actual de aproximadamente un segundo y la rápida mejora de los modelos de inteligencia artificial, los equipos de investigación se muestran cautelosos ante la posibilidad de que los sistemas de restauración de voz estén listos para su uso masivo en un futuro próximo. En esencia, hablamos de una tecnología que restaura la voz de quienes la han perdido y hace que el diálogo suene natural de nuevo, no mediante un lento «mecanografía a ojo», sino de una forma familiar y en vivo.
Redazione
En unos años, Irlanda y Estados Unidos estarán conectados por un cable de comunicaciones submarino diseñado para ayudar a Amazon a mejorar sus servicios AWS . Los cables submarinos son una parte fu...

No se trata “ solo de mayor velocidad ”: ¡el 6G cambia la naturaleza misma de la red! Cuando hablamos de 6G, corremos el riesgo de reducirlo todo a una simple mejora de velocidad, como si la red ...

En septiembre se publicó una nueva vulnerabilidad que afecta a Notepad++. Esta vulnerabilidad, identificada como CVE-2025-56383, puede consultarse en el sitio web del NIST para obtener más informaci...

Google ha emitido un aviso urgente sobre una vulnerabilidad crítica en Android que permite a los atacantes ejecutar código arbitrario en el dispositivo sin interacción del usuario. La vulnerabilida...

El 29 de octubre, Microsoft publicó un fondo de pantalla para conmemorar el undécimo aniversario del programa Windows Insider , y se especula que fue creado utilizando macOS. Recordemos que Windows ...