Ir al contenido
_
_
_
_

El dispositivo que ayuda a recuperar el habla, pedir unos calcetines en una tienda “y que te entiendan”

Un proyecto navarro trabaja en un dispositivo de traducción simultánea con inteligencia artificial para permitir que personas con disartria recuperen su habla

Manuel Polo junto a la logopeda Itziar Dolz y Paula Vidaurreta, doctorada en Inteligencia Artificial en una sesión de prueba del dispositivo
Amaia Otazu

“Dicen que quien ha amado a un perro, jamás vuelve a estar solo del todo”. Es un extracto leído por Manuel Polo, aunque la voz que escuchamos procede de un módulo de traducción simultánea. Manolo, nacido en Badajoz, pero navarro de adopción, sufrió un ictus hace ocho años y le queda, entre las secuelas, una disartria moderada. Es un trastorno del habla que dificulta la articulación de las palabras y que suele afectar a personas con daño cerebral adquirido (DCA). Pese a que el paciente es capaz de elaborar un discurso bien estructurado, es complicado entenderle y eso provoca frustración, aislamiento social y una pérdida importante de la autonomía personal.

La rehabilitación ayuda, pero no siempre es suficiente. Ahora, el proyecto IA-Speak, impulsado por Adacen (Asociación de Daño Cerebral Adquirido en Navarra) junto con un consorcio de entidades, está desarrollando un dispositivo automático de traducción portátil que recoge la voz del paciente, la transcribe y luego la clona. Eso, explica la docente de la Universidad Pública de Navarra y directora del NAIR Center (Centro de Investigación de Inteligencia Artificial de Navarra), Marisol Gómez (Alguerdo, 58 años), “permite escuchar el discurso de la otra persona a ritmo normal, manteniendo su tono, su cadencia, su musicalidad”.

El dispositivo, aclara la investigadora, no clona su voz, sino su habla. Lo hace a través de unos algoritmos entrenados con inteligencia artificial que permitirán que, en un futuro, Manolo pueda interactuar prácticamente en tiempo real con otras personas. Él sueña ya con recuperar autonomía: “Voy a poder ir a una tienda, pedir unos calcetines y que me entiendan a la primera”. El proyecto también trabaja en la creación de una plataforma de rehabilitación inteligente con reconocimiento facial que servirá como herramienta para las pedagogas del centro.

Dispositivo de IA-Speak para ayudar a hablar a personas con secuelas por lesiones cerebrales.

Es una iniciativa novedosa, cuenta Gómez, porque los módulos de inteligencia artificial de traducción simultánea actuales utilizan patrones normativos del habla. Es decir, identifican los fonemas de personas sin ninguna afección o distorsión en el habla. Esto impide que sean utilizadas, por ejemplo, por personas con disartria. Es cierto, reconoce, que empresas como Google o Apple están desarrollando alguna herramienta similar, pero matiza que en este proyecto “no se busca encontrar un patrón general de traducción porque el problema de cada persona es único”.

Para entrenar al algoritmo, en IA-Speak están grabando los ejercicios de rehabilitación de los pacientes: “Cuando leen una frase como, por ejemplo, ‘hoy hace un buen día’, cogemos la palabra ‘hoy’ y la etiquetamos. Aquí ha dicho hoy. Así, cuando esta persona dice una frase nueva, como ya tenemos registrado ese patrón del habla con la disfunción que tiene, los algoritmos son capaces de transcribir lo que está diciendo”. No termina ahí. “A la vez que etiquetamos las palabras, nos fijamos en cómo las pronuncia: si habla más o menos alto, si separa más o menos las palabras, cómo es la cadencia del discurso... Y después, con esas características y utilizando un módulo de clonación, simulamos el habla”.

El proyecto va usuario por usuario para entrenar el algoritmo con “los errores que comete esa persona en concreto”. A Manolo, por ejemplo, le cuesta pronunciar los fonemas “ye”, “ya” o “yo”. Sin embargo, el problema de Elena Zhekova (30 años, Varna, Bulgaria) es distinto. Esta paciente de Adacen sufre una disartria leve acompañada de una parálisis facial leve, así que su rehabilitación es distinta, explica Itziar Dotz (Cuenca, 42 años). “Con Manolo trabajamos mucho la voz, la entonación, la melodía porque su disartria es más monótona y con Elena la apertura de boca, que vaya afinando la musculatura para conseguir pronunciar los fonemas”.

Las voces de ambos se han incluido en la base de datos para perfeccionar el algoritmo y que entienda a personas con afecciones similares. Además de grabar los ejercicios de rehabilitación, añade la investigadora predoctoral en NAIR Center, Paula Vidaurreta (Pamplona, 22 años), registran “el habla espontánea” para que “el algoritmo reconozca ese patrón porque es como hablarán cuando utilicen el dispositivo”.

Toda esa información se volcará después en la plataforma de rehabilitación, una nueva herramienta para los profesionales de logopedia que incluye un sistema de recomendación inteligente y personalizado de ejercicios basado en la IA. “La plataforma hace una valoración inicial para detectar en qué estado está la persona y cuáles son los fallos en los que más tiene que trabajar”, aclara Vidaurreta. El dispositivo también recogerá caracteres biométricos de la persona, de su fisionomía, lo que puede ser especialmente útil para pacientes como Elena porque su recuperación pasa por recuperar la movilidad de sus músculos faciales.

Circuito con inteligencia artificial en el interior del dispositivo.

Detrás de la plataforma está la empresa Copysan, que también coordina a todos los integrantes del consorcio. Su director ejecutivo, José Santos, (Pamplona, 55 años) señala que esta plataforma “tiene un sistema inteligente que monitorea las mejoras de cada uno de los pacientes y sugiere al logopeda cómo seguir mejorando”. El dispositivo, añade Itziar Dotz, les ayudará a objetivar esa evolución: “Ahora nosotras vemos la evolución porque auditivamente la entendemos mejor o porque vemos que se maneja mejor en sociedad, pero todo es de oído, no tenemos modo de cuantificarlo. Con esta herramienta vamos a poder saber cuánto se va acercando el fonema que pronuncia al fonema normativo”. Como el dispositivo es portátil, también recogerá la voz del paciente en su vida diaria y no solo en las sesiones de logopedia. “La plataforma está pensada para que la persona la tenga en casa y pueda trabajar de manera autónoma. Esto es muy importante, sobre todo al principio de la lesión porque ni el sistema público ni los centros podemos hacer sesiones diarias”.

Este proyecto ha dado esperanzas a Manolo y a Elena. Para ella, lo más importante es conseguir que le entiendan y entender a sus compañeros de Adacen. “Yo quiero ir al taller donde estamos todos, contarles lo que me dé la gana y que me entiendan bien sin tener que repetirme constantemente porque eso es frustrante”. También provoca malentendidos. Manolo y Elena se quitan la palabra el uno al otro al contarnos que al principio se llevaban mal “porque siempre chocábamos con las sillas”. Un día lograron hablar, “llegamos a un acuerdo y, desde entonces, amigos”. Elena está feliz de que Manolo se haya podido volver a escuchar: “Yo quiero a mis compañeros y me alegro de todas sus mejorías, de que puedan ser más autónomos a la hora de hablar, de hacer sus cosas. Me alegro de que podamos ser capaces de ser nosotros otra vez”.

Dispositivo ayuda habla a personas con secuelas por lesiones cerebrales.

El proyecto se puso en marcha a finales de 2024 y la previsión es que termine a finales del año que viene con la salida al mercado del dispositivo portátil de traducción. “El objetivo es crear un producto comercializable de bajo coste que sea asequible para todas las personas”, señala el director gerente de Adacen, Andrés Ilundain (Pamplona, 50 años). De momento, el algoritmo se está entrenando con un centenar de usuarios de Adacen y de la Fundación Miguel Servet, pero se aspira a que sirva también para pacientes con patologías neurodegenerativas. Es un reto que supone un nuevo punto de partida porque, aunque no es el objetivo actual, no descartan que esas personas con párkinson u otras enfermedades neurodegenerativas puedan emplear esta herramienta para grabar su voz antes de que avance su deterioro físico. De este modo, el dispositivo podría llegar a clonar, no ya su habla, sino su voz.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Amaia Otazu
De Pamplona, cubre la información relativa a la Comunidad foral para EL PAÍS desde 2021. Una actividad que compagina con su labor como redactora en Cadena SER Navarra. Graduada en Periodismo + International Media Programa en la Universidad de Navarra, tiene un Máster en Estudios Avanzados en Terrorismo (UNIR).
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_