Una mujer con discapacidad por ictus vuelve a hablar mediante un avatar digital impulsado por IA

  • Es la primera vez que se sintetizan el habla y las expresiones faciales a partir de señales cerebrales
  • El prototipo es un avance para futuros sistemas certificados que devuelvan la capacidad de comunicarse mediante el habla a estas personas
Ann, participante en el estudio de la UCSF y Berkeley sobre neuroprótesis del habla con inteligencia artificial
Ann, participante en el estudio de la UCSF y Berkeley sobre neuroprótesis del habla con inteligencia artificial |Noah Berger

Investigadores de la Universidad de California en San Francisco y de la Universidad de Berkeley, en Estados Unidos, han desarrollado una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) que ha permitido hablar a través de un avatar digital a una mujer con parálisis grave provocada por un derrame cerebral.

Es la primera vez que se sintetizan el habla y las expresiones faciales a partir de señales cerebrales, aseguran los investigadores en la revista 'Nature'.

ChatGPT muestra una precisión "impresionante" en la toma de decisiones clínicas, según un estudio
ChatGPT muestra una precisión "impresionante" en la toma de decisiones clínicas, según un estudio
ChatGPT muestra una precisión "impresionante" en la toma de decisiones clínicas, según un estudio

ChatGPT muestra una precisión "impresionante" en la toma de decisiones clínicas, según un estudio

El sistema también puede decodificar estas señales en texto a casi 80 palabras por minuto, lo que supone una gran mejora respecto a la tecnología disponible en el mercado.

El doctor Edward Chang, catedrático de cirugía neurológica de la UCSF, que lleva más de una década trabajando en esta tecnología, conocida como interfaz cerebro-ordenador (BCI, por sus siglas en inglés) espera que este último avance de la investigación conduzca en un futuro próximo a un sistema aprobado por la FDA que permita hablar a partir de señales cerebrales.

El Hospital de Alcorcón incorpora la Inteligencia Artificial para potenciar la investigación
El Hospital de Alcorcón incorpora la Inteligencia Artificial para potenciar la investigación
El Hospital de Alcorcón incorpora la Inteligencia Artificial para potenciar la investigación

El Hospital de Alcorcón incorpora la Inteligencia Artificial para potenciar la investigación

"Nuestro objetivo es restablecer una forma de comunicación plena y corporal, que es realmente la forma más natural de hablar con los demás --afirma Chang, miembro del Instituto Weill de Neurociencia de la UCSF y Catedrático Distinguido de Psiquiatría Jeanne Robertson--.

"Estos avances nos acercan mucho más a convertirlo en una solución real para los pacientes", ha añadido.

CONVERTIR SEÑALES Y GESTOS EN PALABRAS

El equipo de Chang demostró anteriormente que era posible descodificar las señales cerebrales en texto en un hombre que también había sufrido un ictus en el tronco encefálico muchos años antes.

El estudio actual demuestra algo más ambicioso: descodificar las señales cerebrales en la riqueza del habla, junto con los movimientos que animan el rostro de una persona durante la conversación.

Una estudiante madrileña gana un premio internacional por su videojuego sobre discapacidad y exclusión
Una estudiante madrileña gana un premio internacional por su videojuego sobre discapacidad y exclusión
Una estudiante madrileña gana un premio internacional por su videojuego sobre discapacidad y exclusión

Una estudiante madrileña gana un premio internacional por su videojuego sobre discapacidad y exclusión

Chang implantó un rectángulo fino como el papel de 253 electrodos en la superficie del cerebro de la mujer, en zonas que su equipo ha descubierto que son fundamentales para el habla.

Los electrodos interceptaron las señales cerebrales que, de no haber sido por el ictus, habrían ido a parar a los músculos de la lengua, la mandíbula y la laringe, así como a la cara.

Un cable, conectado a un puerto fijado a su cabeza, conectaba los electrodos a un banco de ordenadores.

Durante semanas, la participante trabajó con el equipo para entrenar los algoritmos de inteligencia artificial del sistema a reconocer sus señales cerebrales únicas para el habla.

39 FONEMAS PARA DETECTAR CUALQUIER PALABRA

Para ello, repitió una y otra vez distintas frases de un vocabulario conversacional de 1.024 palabras, hasta que el ordenador reconoció los patrones de actividad cerebral asociados a los sonidos.

En lugar de entrenar a la IA para que reconociera palabras enteras, los investigadores crearon un sistema que descodifica palabras a partir de fonemas.

Desarrollan una tecnología que convierte el lenguaje de signos en texto escrito
Desarrollan una tecnología que convierte el lenguaje de signos en texto escrito
Desarrollan una tecnología que convierte el lenguaje de signos en texto escrito

Desarrollan una tecnología que convierte el lenguaje de signos en texto escrito

Estos son las subunidades del habla que forman palabras habladas del mismo modo que las letras forman palabras escritas. "Hola", por ejemplo, contiene cuatro fonemas: "HH", "AH", "L" y "OW".

Con este método, el ordenador sólo necesitaba aprender 39 fonemas para descifrar cualquier palabra en inglés.

Esto mejoró la precisión del sistema y lo hizo tres veces más rápido.

PRÓXIMO PASO, UNA VERSIÓN INALÁMBRICA

Los investigadores crearon procesos personalizados de aprendizaje automático que permitieron al software engranar las señales que enviaba el cerebro de la mujer mientras intentaba hablar y convertirlas en los movimientos de la cara del avatar, haciendo que la mandíbula se abriera y cerrara, los labios sobresalieran y se fruncieran y la lengua subiera y bajara, así como los movimientos faciales de felicidad, tristeza y sorpresa.

Un próximo paso importante para el equipo es crear una versión inalámbrica que no requiera que el usuario esté físicamente conectado a la BCI.