Técnica mejora privacidad de mensajes para asistentes de voz
Con la nueva técnica, propuesta por el ingeniero electrónico Kevin Darío Patiño Sosa, magíster en Ingeniería Electrónica de la Universidad Nacional de Colombia (UNAL) Sede Bogotá, se buscaba inicialmente reducir los tiempos de procesamiento y respuesta de la información de estos asistentes.
El propósito era no llegar hasta el procesamiento de datos por internet para que los dispositivos respondan a lo que los usuarios les solicitan con su voz –tareas como apagar las luces del hogar o encender un electrodoméstico–, por lo que dicha red se haría con dispositivos locales interconectados que no llevarían los datos a la nube.
“Como queríamos traer ese proceso de cómputo más cercano al dispositivo, implementamos una red de sensores de micrófonos parecidos a los de Alexa y Ok Google”, dice el ingeniero Patiño.
Existen tres tipos de computación: la que se hace en la nube o cloud (internet), como el caso de Alexa; otra en la niebla o fog, que está entre el dispositivo y la nube y se desarrolla conectando a varios dispositivos; y la que se hace directamente en el dispositivo (en la frontera o edge).
En este estudio, dirigido por el profesor Carlos Iván Camargo Bareño, de la UNAL Sede Bogotá, se realizó una aplicación entre la frontera y la niebla.
La conclusión más importante para la aplicación estudiada fue que el sistema que combina computación de niebla y de frontera gana por mucho en privacidad, comparándolo con el utilizado por asistentes como Alexa.
“Si no conecto estas redes de sensores a una nube no comparto la información que colecto en mi ambiente, rompí el cable que hace pública la información y esta nunca sale de mi casa”, explica.
Aunque la capacidad de cómputo de la nube es más poderosa, la propuesta del ingeniero Patiño –con un procesamiento similar al de un smartphone– se podría replicar el número de dispositivos conectados en la red para alcanzar un nivel competitivo.
En cuanto a tiempo, el procesamiento de la información se redujo en cerca de 50 a 10 milisegundos, al no ir hasta la nube. Sin embargo, esta reducción no resulta significativa para la aplicación de voz: no es muy notorio si Alexa, por ejemplo, responde 40 milisegundos después a una tarea.
No obstante, sí es importante en aplicaciones de neurociencia, por ejemplo para estimulación del cerebro, algo que se empezó a explorar en la Universidad de Minnesota con el Centro de Investigación de Neuromodulación (NMRC), a partir de este estudio.
Al implementar este sistema de cómputo local, más cercano al dispositivo físico y sin utilizar la red de la nube, se comprobaron diferentes cualidades de capacidad, tiempo y privacidad.
En términos de capacidad de cómputo, la nube tiene más, pero ese procesamiento de información dada a través de los aparatos tiene un valor monetario adicional que no tendría la red de dispositivos interconectados de manera local.
Este estudio utilizó la metodología de co-diseño de hardware y software, dividida en tres etapas: elegir el hardware (los aparatos a usar): unas tarjetas llamadas Matrix Voice y Matrix Creator (cada una con ocho micrófonos), fabricadas por Matrix Labs.
Después se montó una arquitectura (forma de conexión) en estrella: en el centro se ubicó una tarjeta Matrix Creator con la red Raspberry Pi, que se conectó con cinco tarjetas Matrix Voice. Así se creó la red local mencionada.
Por último, se planteó el desarrollo de la propuesta: qué hacer en cada parte, cómo conectarla y qué elementos correr en cada aparato, entre otros aspectos. Para el transporte de datos entre los dispositivos se implementó el protocolo MQTT, con el que se hicieron pruebas con motores de reconocimiento de voz locales que después se compararon con Alexa.
Este trabajo es un primer paso para explorar nuevos sistemas en el control inteligente de hogares, pues –de momento– solo se logró una aplicación efectiva para que se realicen tareas sencillas, tales como ordenar apagar luces o poner cronómetros. Aún no se llegó a tareas más complejas como consultar tráfico o clima.