Desde hace años el gigante tecnológico Google ha estado trabajando en un nuevo lenguaje de interacción para las maquinas. Y finalmente ha mostrado los avances que han hecho en este interesante proyecto. Los de Mountain View estarán publicando una serie de videos en la que explicarán parte de la investigación bajo el nombre de “En Laboratorio con Google ATAP”.
La división experimental de Google denominada Tecnologías y Proyectos Avanzados (ATAP, por sus siglas en inglés) es la responsable de los estudios en materia de invención de hardware. El primer episodio de esta serie de videos ya está disponible y muestra los movimientos que detecta las maquinas con este nuevo lenguaje de interacción.
Los objetivos de Google con este nuevo lenguaje de interacción
La idea que persigue Google es que las máquinas sean capaces de percibir e intuir nuestros deseos de querer o no interactuar con ellas, a partir de las interpretaciones de nuestras señales no verbales. La diseñadora senior de integración de ATAP Lauren Bedal explica que los dispositivos que nos rodean deberían transmitirnos la sensación de que son buenos amigos y nos comprenden.
A fin de desarrollar en las máquinas este nivel de interacción social, ATAP ha estado estudiando los movimientos de las personas. Esto con el objetivo de programar a los dispositivos de tal manera que a partir de nuestros gestos sepan en qué momento deseamos interactuar con ellos.
Para esta tecnología ATAP se ha valido del sensor de radar Soly capaz de detectar la dirección, proximidad y los caminos de las personas. Posteriormente Google reunió todos estos datos a fin de determinar si alguien está acercándose, mirando, pasando o girando hacia el sensor. Luego los consolidó en cuatro movimientos básicos que pueden utilizarse como comando o reacciones para la pantalla o las computadoras ambientales.
¿Cuál es el desafío para lograr que este lenguaje funcione?
Uno de los mayores desafíos es lograr que los sensores y algoritmos sean capaces de detectar cuando alguien está realizando o no una acción específica. Si esta tecnología no es capaz de distinguir esas diferencias, en vez de ser una herramienta útil, podría volverse muy frustrante.
Google aclaró que ese es el mayor desafío que se le presentan con estas señales. Y agregan que con los dispositivos conectados es más fácil generar algoritmos complejos, mientras que con los dispositivos móviles es una tarea más difícil. Cabe mencionar que trabajan en recolectar la mayor cantidad de acciones correcta o incorrecta para programar los sistemas de aprendizaje automático.