Software que traduce movimientos oculares facilita comunicación en pacientes con ELA
El software de comunicación ocular tiene una precisión del 99 % transmitiendo el mensaje. Foto: archivo Unimedios.
Las personas con ELA desarrollan problemas en el habla. Foto: Jeimi Villamizar, Unimedios.
El sistema reconoce los rostros de las personas y va prediciendo los movimientos. Foto: Jeimi Villamizar, Unimedios.
Este desarrollo ayudaría a mejorar la calidad de vida de las personas con esta compleja enfermedad. Foto: archivo Unimedios.
La información recopilada se procesa a través de un modelo de red neuronal convolucional de IA. Foto: Nicol Torres, Unimedios.
Imagine por un momento lo difícil que puede ser perder progresivamente el control voluntario de brazos, piernas y rostro, e incluso la capacidad de hablar o escribir, en otra palabras, vivir enclaustrados en nuestro propio cuerpo; esto es lo que le ocurre a las personas con ELA, enfermedad que en Colombia afecta a más de 3.000 pacientes y es la tercera afección neurodegenerativa más frecuente en el mundo después del Alzheimer y el Parkinson.
Pensando en desarrollar una herramienta asequible para los pacientes de ELA, pues los sistemas de comunicación ocular tradicionales son costosos, Dorian Abad Tovar Díaz, magíster en Ingeniería de Sistemas y Computación de la Universidad Nacional de Colombia (UNAL), creó VocalEyes.
Su propuesta se apoya en la tecnología de “videooculografía”, para la cual utiliza una cámara estándar, el software los captura y los traduce en una serie de movimientos específicos que corresponden a letras y palabras.
“El método de clasificación se divide en cuadrantes y movimientos direccionales que les permiten a los pacientes formar mensajes mediante la combinación de estos. La información recopilada se procesa a través de un modelo de red neuronal convolucionalInception-v3, especialmente diseñado para clasificar con precisión los movimientos oculares”, puntualiza el experto.
Por ejemplo, si el paciente quiere decir una algo común como “hola”, deberá mover sus ojos como si estuviera “dibujando” la palabra letra por letra, y el programa las va reconociendo y recopilando hasta arrojar el mensaje completo.
El magíster precisa que “el algoritmo de aprendizaje profundo empleado en este desarrollo alimenta a otro software que ayuda en la tarea de clasificar, es decir, toma ese resultado del modelo de clasificación y determina cómo se comunicará la persona”.
El entrenamiento de este modelo contó con un conjunto de imágenes sintéticas generadas por la herramienta UnityEyes, las cuales, según el experto, “garantizaron un alto nivel de precisión”.
“El prototipo logra una precisión del 99 % en la transmisión de cada mensaje, con una tasa de acierto del 99,3 % en los movimientos realizados”, agrega.
Aunque el mismo investigador realizó la fase inicial de pruebas, ahora está buscando expandirlas a pacientes reales con estas características particulares para ajustarlo y mejorar aún más el software según las necesidades específicas de los usuarios.
El magíster Tovar espera facilitar la comunicación no solo de las personas que enfrentan el síndrome de enclaustramiento propio de la ELA –que pierden gran parte de sus capacidades–, sino también abrir nuevas posibilidades para mejorar la calidad de vida de estos pacientes en general.
“El acceso a una herramienta de comunicación efectiva tendría un impacto significativo en la autonomía y la conexión emocional de estas personas”, manifiesta el magíster.