Hito médico con un paciente con ELA

Hito médico con un paciente con ELA

Una interfaz traduce las señales cerebrales de pacientes en habla con una precisión de hasta el 97%.

Casey Harrell con su asistente personal Emma Alaimo y el neurocientífico de UC DavisEuropa Press

Una nueva interfaz cerebro-ordenador (BCI, por sus siglas en inglés) desarrollada en UC Davis Health (EEUU) ha conseguido traducir las señales cerebrales en habla con una precisión de hasta el 97%, lo que ha permitido que un hombre con esclerosis lateral amiotrófica (ELA) haya sido capaz de comunicarse a los pocos minutos de activar el sistema.

El estudio sobre este trabajo se ha publicado en la revista New England Journal of Medicine, donde se detalla que los investigadores implantaron sensores en el cerebro de este hombre que tenía graves dificultades para hablar debido a la enfermedad.

La ELA afecta a las células nerviosas que controlan el movimiento en todo el cuerpo. La enfermedad conduce a una pérdida gradual de la capacidad para estar de pie, caminar y utilizar las manos. También puede hacer que una persona pierda el control de los músculos utilizados para hablar, lo que conduce a una pérdida del habla comprensible.

La nueva tecnología se está desarrollando para restablecer la comunicación de las personas que no pueden hablar por parálisis o afecciones neurológicas como la ELA. Puede interpretar las señales cerebrales cuando el usuario intenta hablar y convertirlas en texto que el ordenador reproduce en voz alta.

"Nuestra tecnología BCI ayudó a un hombre con parálisis a comunicarse con sus amigos, familiares y cuidadores. Nuestro trabajo demuestra la neuroprótesis (dispositivo) del habla más precisa de la que se tiene constancia", ha explicado David Brandman, neurocirujano de la UC Davis.

Rompe la barrera de la comunicación

Cuando alguien intenta hablar, el nuevo dispositivo BCI transforma su actividad cerebral en texto en la pantalla de un ordenador. A continuación, el ordenador puede leer el texto en voz alta.

Para desarrollar el sistema, el equipo inscribió a Casey Harrell, un hombre de 45 años con ELA, en el ensayo clínico 'BrainGate'. En el momento de su inscripción, Harrell tenía debilidad en brazos y piernas (tetraparesia). Su habla era muy difícil de entender (disartria) y necesitaba que otros le ayudaran a interpretarla.

En julio de 2023, Brandman implantó el dispositivo BCI en investigación. Colocó cuatro conjuntos de microelectrodos en la circunvolución precentral izquierda, una región del cerebro responsable de la coordinación del habla. Las matrices están diseñadas para registrar la actividad cerebral de 256 electrodos corticales.

"En realidad estamos detectando su intento de mover los músculos y hablar", ha señalado el neurocientífico Sergey Stavisky, quien es profesor adjunto del Departamento de Cirugía Neurológica.

"Estamos grabando la parte del cerebro que intenta enviar estas órdenes a los músculos. Básicamente, escuchamos y traducimos esos patrones de actividad cerebral en un fonema, como una sílaba o unidad del habla, y luego en las palabras que intentan decir", ha agregado.

Entrenamiento más rápido

A pesar de los recientes avances en la tecnología BCI, los esfuerzos por hacer posible la comunicación han sido lentos y propensos a errores. Esto se debe a que los programas de aprendizaje automático que interpretaban las señales cerebrales requerían una gran cantidad de tiempo y datos para su ejecución.

"Los anteriores sistemas de BCI del habla tenían frecuentes errores en las palabras. Esto dificultaba la comprensión del usuario y suponía una barrera para la comunicación", ha afirmado Brandman.

"Nuestro objetivo era desarrollar un sistema que permitiera a alguien hacerse entender siempre que quisiera hablar", ha añadido.

Harrell utilizó el sistema tanto en conversaciones espontáneas como con instrucciones. En ambos casos, la decodificación del habla se produjo en tiempo real, con actualizaciones continuas del sistema para que siguiera funcionando con precisión.

Las palabras descodificadas se mostraron en una pantalla. Se leían en voz alta con una voz que sonaba como la de Harrell antes de padecer ELA. La voz se compuso mediante un software entrenado con muestras de audio existentes de su voz antes de la ELA.

En la primera sesión de entrenamiento con datos de voz, el sistema tardó 30 minutos en alcanzar una precisión del 99,6% con un vocabulario de 50 palabras.

Titania
Titania
Santander

"La primera vez que probamos el sistema, lloró de alegría cuando las palabras que intentaba decir correctamente aparecieron en la pantalla. Todos lo hicimos", ha afirmado Stavisky.