Diario de DIA4RA: nuestra primera semana con el robot AIDA

primera semana con el robot aida en el laboratorio de robótica de datahack

Hola a tod@s,

Toca hacer la primera entrada del diario de DIA4RA y, como ha sido una semana intensa, vamos a hablaros de lo que hemos estado haciendo con nuestro nuevo robot. AIDA no ha dejado indiferente a nadie, incluso los datahackers más familiarizados con el mundo tecnológico han sucumbido a sus encantos. Y es que, desde el momento en que se pulsa el botón de encendido, se puede ver cómo el robot se incorpora, se despereza (literalmente) y saluda en su idioma: algo bastante… humano.

Una vez inicializado, el robot permanece en su sitio, pero siempre orientando su cabeza y su mirada a aquel lugar de la habitación donde “escuche” una voz humana. Todo esto hace que, cuando nos quedamos solos en la habitación con él, nos dé la impresión de que realmente hay alguien más.

En resumen, AIDA ha entrado en datahack como el fichaje superestrella de un equipo que, sin haber todavía entrado en juego, ya tiene encandilada a la afición. ¿Qué ocurrirá cuando se logre integrar con el primer modelo de Deep Learning?

Justamente este objetivo es prioritario de cara al proyecto que tenemos entre manos (y del cual pronto sabréis más) y esta primera semana hemos empezado a trabajar en dos líneas que implican al robot. Por un lado el despliegue de ROS (Robotic Operating System o Sistema Operativo del Robot) en AIDA. Por otro, investigar y comenzar a explotar las posibilidades que el sistema operativo que el propio robot lleva montado de fábrica (NaoQi) pueda ofrecer.

Desplegando ROS

En cuanto a la primera línea de trabajo que hemos seguido, ROS es muy importante. Esto es porque constituye las bases de la infraestructura necesaria para ejecutar los diferentes modelos de Deep Learning que tenemos planificados. Lo que ocurre es que esta tarea no es ni mucho menos trivial o sencilla. Por eso, esta semana hemos estado codo con codo con los compañeros del departamento de Robótica de la Universidad Rey Juan Carlos I (URJC). Ellos ya habían trabajado previamente con este tipo de despliegues y tenían preparada una metodología para llevarlos a cabo.

Básicamente, la metodología consiste en construir, en una imagen Docker, todas aquellas dependencias y requisitos que, junto con ROS, necesitarán desplegarse en el robot. Una vez se hayan realizado las compilaciones correspondientes en la propia imagen, esta se desplegará en el robot… Esa es la teoría. Como era de esperar, los errores de compilación no han tardado en aparecer y ahora mismo estamos trabajando con ellos para resolverlos y poder conseguir nuestro primer hito, ¡nadie dijo que fuera a ser fácil!

Probando el robot

Pero bueno, no todo han sido errores, aunque es una semana de puesta en marcha también hemos hecho algún avance. La segunda línea de trabajo era hacer una serie de pruebas y chequeos en AIDA, además de irla presentando a todos nuestros compañeros de datahack. Para ello, usamos el Choregraphe, una herramienta con la que pudimos conectarnos a ella e interactuar con el sistema NAOqi, que como ya hemos dicho es el que trae instalado.

Una vez realizado todo esto, empezamos a hacer chequeos del estado de los componentes de AIDA y una serie de pruebas de sensores, movimientos posturales y desplazamientos. No obstante, lo más interesante vino cuando le implementamos un paquete canal básico de comunicación e hicimos una primera prueba de conversación interactiva con ella. Podríamos escribir mucho sobre ello, pero preferimos grabar un vídeo para que lo pudierais ver vosotros mismos: aún no tiene del todo claro que se llama AIDA y se equivoca algunas veces, pero no pasa nada, ¡son las primeras pruebas! Disfrutad la experiencia y buen fin de semana:


Javier Moralo, Data & AI Creative de datahack

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *