Escudo de la República de Colombia Escudo de la República de Colombia
/Software que traduce movimientos oculares facilita comunicación en pacientes con ELA
Ciencia y Tecnología

Software que traduce movimientos oculares facilita comunicación en pacientes con ELA

    VocalEyes es el prototipo de software que traduce los movimientos oculares y es capaz de transmitir mensajes con una precisión del 99 %. Esta herramienta de bajo costo se podría convertir en una aliada para las personas que padecen esclerosis lateral amiotrófica (ELA) avanzada, enfermedad del sistema nervioso que debilita el control de los músculos hasta hacerle perder al paciente la capacidad de movimiento de diferentes partes del cuerpo, incluida el habla.

    Imagine por un momento lo difícil que puede ser perder progresivamente el control voluntario de brazos, piernas y rostro, e incluso la capacidad de hablar o escribir, en otra palabras, vivir enclaustrados en nuestro propio cuerpo; esto es lo que le ocurre a las personas con ELA, enfermedad que en Colombia afecta a más de 3.000 pacientes y es la tercera afección neurodegenerativa más frecuente en el mundo después del Alzheimer y el Parkinson.

    Pensando en desarrollar una herramienta asequible para los pacientes de ELA, pues los sistemas de comunicación ocular tradicionales son costosos, Dorian Abad Tovar Díaz, magíster en Ingeniería de Sistemas y Computación de la Universidad Nacional de Colombia (UNAL), creó VocalEyes.

    Su propuesta se apoya en la tecnología de “videooculografía”, para la cual utiliza una cámara estándar, el software los captura y los traduce en una serie de movimientos específicos que corresponden a letras y palabras.

    “El método de clasificación se divide en cuadrantes y movimientos direccionales que les permiten a los pacientes formar mensajes mediante la combinación de estos. La información recopilada se procesa a través de un modelo de red neuronal convolucionalInception-v3, especialmente diseñado para clasificar con precisión los movimientos oculares”, puntualiza el experto.

    Por ejemplo, si el paciente quiere decir una algo común como “hola”, deberá mover sus ojos como si estuviera “dibujando” la palabra letra por letra, y el programa las va reconociendo y recopilando hasta arrojar el mensaje completo.

    El magíster precisa que “el algoritmo de aprendizaje profundo empleado en este desarrollo alimenta a otro software que ayuda en la tarea de clasificar, es decir, toma ese resultado del modelo de clasificación y determina cómo se comunicará la persona”.

    Así se probó

    El entrenamiento de este modelo contó con un conjunto de imágenes sintéticas generadas por la herramienta UnityEyes, las cuales, según el experto, “garantizaron un alto nivel de precisión”.

    “El prototipo logra una precisión del 99 % en la transmisión de cada mensaje, con una tasa de acierto del 99,3 % en los movimientos realizados”, agrega.

    Aunque el mismo investigador realizó la fase inicial de pruebas, ahora está buscando expandirlas a pacientes reales con estas características particulares para ajustarlo y mejorar aún más el software según las necesidades específicas de los usuarios.

    El magíster Tovar espera facilitar la comunicación no solo de las personas que enfrentan el síndrome de enclaustramiento propio de la ELA –que pierden gran parte de sus capacidades–, sino también abrir nuevas posibilidades para mejorar la calidad de vida de estos pacientes en general.

    “El acceso a una herramienta de comunicación efectiva tendría un impacto significativo en la autonomía y la conexión emocional de estas personas”, manifiesta el magíster.