Red Hot Cyber

La ciberseguridad se comparte. Reconozca el riesgo, combátalo, comparta sus experiencias y anime a otros a hacerlo mejor que usted.
Buscar

Tras 18 años de silencio, Anne vuelve a hablar. La nueva tecnología BCI de la Universidad de Berkeley.

Redazione RHC : 16 agosto 2025 06:33

Dieciocho años después de que un derrame cerebral en el tronco encefálico dejara a Anne Johnson casi completamente paralizada, ahora utiliza una interfaz cerebro-computadora (BCI) que convierte el habla directamente de las señales cerebrales. En 2005, a los 30 años, la maestra y entrenadora atlética de Saskatchewan sufrió una lesión cerebral que la dejó con síndrome de enclaustramiento, en el que permanece consciente pero incapaz de hablar o moverse.

Durante años, se comunicó mediante un sistema de seguimiento ocular, hablando a una velocidad de aproximadamente 14 palabras por minuto, significativamente más lento que las 160 palabras que una persona normal pronuncia. En 2022, se convirtió en la tercera participante en un ensayo clínico realizado por la Universidad de California, Berkeley, y la UCSF, cuyo objetivo es restaurar el habla en personas con parálisis grave.

El sistema neuroprotésico utilizado registra la actividad eléctrica en el área cortical responsable de la articulación, evitando las vías de transmisión de señales dañadas. Se coloca un implante con una serie de electrodos intracraneales en la superficie de esta área. Cuando el paciente intenta pronunciar palabras, los sensores registran patrones característicos de actividad y los transmiten a una computadora. Los algoritmos de aprendizaje automático convierten los flujos de señales neuronales en texto, voz o expresiones faciales de un avatar digital, incluyendo expresiones básicas como sonreír o fruncir el ceño.

Inicialmente, el sistema funcionaba con patrones secuenciales que producían resultados solo después de completar la oración completa, lo que resultaba en un retraso de unos ocho segundos. En marzo de 2025, Nature Neuroscience informó sobre la transición a una arquitectura de streaming: la conversión ahora se produce casi en tiempo real, con una pausa de aproximadamente un segundo. Para una máxima personalización, los desarrolladores restauraron el timbre y la entonación de la grabación del discurso de boda de Johnson en 2004 y también permitieron elegir la apariencia del avatar para que sea reconocible y transmita señales visuales familiares. Los líderes del proyecto —Gopala Anumanchipalli, profesor asociado de ingeniería eléctrica e informática de la Universidad de California en Berkeley, el neurocirujano Edward Chang y el estudiante de posgrado de Berkeley Kylo Littlejohn— consideran que el objetivo final es una tecnología lista para usar que convierta los prototipos en herramientas clínicas estándar.

Los objetivos a corto plazo incluyen el desarrollo de implantes totalmente inalámbricos que eliminen la necesidad de una conexión física a una computadora y la creación de avatares más realistas para una comunicación natural. En el futuro, planean migrar a «imitadores» digitales que puedan reproducir no solo una voz, sino también un estilo de comunicación familiar, junto con señales no verbales.

Esta tecnología es particularmente importante para un grupo pequeño pero vulnerable de personas que han perdido el habla debido a un derrame cerebral, ELA o un trauma. Los desarrolladores enfatizan un punto ético clave: la decodificación solo se activa cuando una persona intenta pronunciar palabras conscientemente. Esto permite al usuario mantener el control sobre la comunicación y minimiza el riesgo de invasión del espacio personal.

Para Anne, participar en el programa fue un hito: está considerando trabajar como consejera en un centro de rehabilitación y mantener conversaciones con clientes a través de una neuroprótesis. Con la latencia actual de aproximadamente un segundo y la rápida mejora de los modelos de inteligencia artificial, los equipos de investigación se muestran cautelosos ante la posibilidad de que los sistemas de restauración de voz estén listos para su uso masivo en un futuro próximo. En esencia, hablamos de una tecnología que restaura la voz de quienes la han perdido y hace que el diálogo suene natural de nuevo, no mediante un lento «mecanografía a ojo», sino de una forma familiar y en vivo.

Redazione
Red Hot Cyber's editorial team consists of a collection of individuals and anonymous sources who actively collaborate by providing advance information and news on cyber security and IT in general.

Lista degli articoli

Artículos destacados

¡Llega la Novia Robot! La nueva frontera de la tecnología china.
Di Redazione RHC - 15/08/2025

Mientras que el auge de los robots en China, el mayor mercado y productor mundial de robots, atrae la atención de la industria global de las tecnologías de la información (TI), la apari...

¡Agosto a lo grande! 36 RCE para el martes de parches de Microsoft en agosto.
Di Redazione RHC - 13/08/2025

Martes de parches de agosto: Microsoft publica actualizaciones de seguridad que corrigen 107 vulnerabilidades en los productos de su ecosistema. La actualización incluye correcciones para 90 vuln...

Vulnerabilidad crítica de RCE en Microsoft Teams: se necesita una actualización urgente
Di Redazione RHC - 13/08/2025

Como parte de las actualizaciones de seguridad del martes de parches de agosto de 2025, se ha corregido una vulnerabilidad crítica de ejecución remota de código (RCE) en el software de ...

29.000 servidores Exchange en riesgo. El exploit para CVE-2025-53786 está en explotación.
Di Redazione RHC - 13/08/2025

29 000 servidores Exchange son vulnerables a la vulnerabilidad CVE-2025-53786, que permite a los atacantes acceder a entornos de nube de Microsoft, lo que podría comprometer por completo el ...

James Cameron: La IA puede causar devastación como Skynet y Terminator
Di Redazione RHC - 10/08/2025

«El sistema de defensa militar Skynet entrará en funcionamiento el 4 de agosto de 1997. Comenzará a autoeducarse, aprendiendo a un ritmo exponencial, y adquirirá consciencia de s&#...