Desarrollan interfaz para que paciente de esclerosis lateral amiotrófica pueda hablar

0
Foto: Archivo

Un equipo multidisciplinar de investigadores de la universidad de California Davis desarrolló una nueva interfaz cerebro-ordenador que, a través del implante de un sensor, con el cual se ha logrado que un enfermo de esclerosis lateral amiotrófica (ELA) con graves dificultades para comunicarse pueda recuperar el habla.

El hallazgo, recogido este miércoles en el New England Journal of Medicine, describe cómo Casey Harrell, un estadounidense de 45 años con graves dificultades para comunicarse debido a la ELA, fue capaz de trasmitir con precisión lo que quería decir a los pocos minutos de activar el nuevo sistema.

«Casey lloró de alegría cuando las palabras que intentaba decir aparecieron correctamente en la pantalla. En realidad, todos lloramos con él», subraya uno de los autores de este avance, Sergey Stavisky, neurocientífico de la universidad de California Davis.

Romper barreras

Harrell sufría debilidad en brazos y piernas (tetraparesia) y dependía de que otros consiguieran interpretar lo que quería decir para hacerse entender (disartria) cuando se inscribió en el ensayo clínico BrainGate, con el que un equipo de neurocientíficos, cirujanos, ingenieros, informáticos y matemáticos de diferentes centros de Estados Unidos busca soluciones para quienes pierden la movilidad o el habla.

En julio de 2023, el equipo del neurocirujano de la universidad de California Davis, David Brandman, le implantó una neuroprótesis en la región del cerebro responsable de la coordinación del habla (la circunvolución precentral izquierda).

El sensor esta diseñado para registrar la actividad cerebral de 256 electrodos corticales y enviarla a un ordenador, donde los algoritmos decodifican y reproducen en palabras escritas y en voz lo que el paciente quiere comunicar.

Sorprendentemente con la misma voz de Harrell, ya que los investigadores entrenaron el software con audios suyos de antes de sufrir ELA.

«La neuroprótesis detecta el intento de mover los músculos y hablar, lo graba y envía la señal al ordenador, que traduce los  patrones de actividad cerebral en un fonema, como una sílaba o unidad del habla, y luego en las palabras que intentan decir», agrega Stavisky en un comunicado de la citada universidad.

El sistema más preciso hasta la fecha

Uno de los mayores avances de este dispositivo es la precisión en la decodificación del habla, un 97 %, «la más precisa lograda hasta la fecha», subraya Brandman.

El logro es fruto de un minucioso entrenamiento en 84 sesiones de recogida de datos con el paciente a lo largo de 32 semanas, el sistema logró comunicar lo que el paciente quería decir desde la primera sesión.

«Llegados a este punto, podemos descodificar correctamente lo que Harrell intenta decir el 97 % de las veces, lo que es mejor que muchas aplicaciones comerciales para teléfonos inteligentes que intentan interpretar la voz de una persona», destaca Brandman.

En la actualidad, el joven, ha utilizado el sistema a su propio ritmo durante más de 248 horas de conversación para comunicarse en persona y por videochat.

«No poder comunicarse es muy frustrante y desmoralizador. Es como estar atrapado, espero que esta tecnología permita a muchas personas reincorporarse a la vida y a la sociedad», dice Harrell en el mismo comunicado.

«Esta sistema es transformador porque da esperanza a las personas que quieren hablar pero no pueden. Espero que pueda ayudar a futuros pacientes a hablar con sus familiares y amigos», señala Stavisky.

Rescatar a personas incomunicadas

Estas tecnologías suponen un avance importante respecto a otras interfaces cerebro-máquina previas, que requerían del parpadeo o de intentos de cierta vocalización del paciente para poder comunicarse, puesto que hay enfermos que no pueden hacer ninguna de estas dos cosas.

Estas interfaces llevan tiempo ensayándose pero los avances han sido relativamente lentos y nunca se había llegado a la precisión y eficiencia lograda con esta neuroprótesis.

Uno de los mayores retos a superar había sido la inmensa cantidad de datos y tiempo requerido por los programas de aprendizaje automático a través de las señales cerebrales.

El nuevo dispositivo está orientado tanto a enfermos de ELA como de otras enfermedades que paralicen la capacidad de hablar.

Con información de EFE