Enseñar al robot reconocimiento facial: Deep Learning a Brain Spikes 1

Diario Dia4ra reconocimiento facial con los sensores del robot (cámara)

Ya estamos de vuelta para contaros nuestra experiencia en el Big Data Spain 2018. El equipo de datahack estuvo presente siendo uno los patrocinadores del evento y dando información desde nuestro stand de los distintos servicios que ofrecemos tanto de formación en el master de Big Data e Inteligencia Artificial, del BootCamp Full Stack developer con patrones reactivos y los servicios de DH Seed como del proyecto de investigación DIA4RA, que mezcla robótica con Deep Learning, que desarrollamos en el área de Labs.

Al final, lo interesante de estos eventos es la posibilidad de hablar con gente del sector y compartir las experiencias y problemas que nos encontramos en nuestro día a día de trabajo.

El panorama del sector de la Inteligencia Artificial y el Big Data

El entorno de la Inteligencia Artificial y del Big Data es un sector muy influido por las tendencias marcadas por las grandes compañías tecnológicas. Por eso es muy necesario no olvidar cuál es el propósito que se quiere alcanzar con este tipo de tecnologías, tratar de conocer las bases que dan lugar a comportamientos “inteligentes” con el fin de modelar el entorno que nos rodea y poder predecir eventos futuros o emplear dicha inteligencia para mejorar la calidad de vida de las personas.

Se trata de un objetivo muy ambicioso y es muy fácil perderlo de vista cuando se mezclan otros tipos de intereses como es la obtención de beneficios a corto plazo.

DIA4RA, proyecto pionero en robótica asistencial e inteligencia artificial

En datahack estamos desarrollando el proyecto de investigación DIA4RA, cuyo propósito es dotar a un robot Pepper de las habilidades necesarias para poder asistir a pacientes con Alzheimer y ayudar al personal sanitario empleando la plataforma del robot y sus procesos cognitivos para recopilar información valiosa sobre la evolución de esta enfermedad en los pacientes.

Teniendo todo esto en mente, quisimos ofrecer una charla (Teaching a Robot Guess Who? From Deep Learning To Brain Spikes) para mostrar, por un lado, cómo habíamos implementado la funcionalidad de reconocimiento facial del robot y, por otro, para enseñar caminos alternativos para acercarnos al objetivo de conseguir desarrollar modelos que imiten de forma más fiel la inteligencia humana.

Implementar un modelo de reconocimiento facial en la charla Teaching a Robot Guess Who? From Deep Learning To Brain Spikes

Sobre la implementación del modelo de reconocimiento facial, la idea era comenzar dando un repaso teórico a los ladrillos con los que hemos construido esta funcionalidad. Me estoy refiriendo a las Redes Neuronales Convolucionales. La intención era mostrar cómo su implementación matemática, empleando un aprendizaje supervisado mediante Backpropagation, hace que no se obtenga un modelo robusto frente a grandes variaciones de los datos datos de entrada.

Durante el proceso de entrenamiento, la Red Neuronal aprende los valores de los kernels de las capas convolucionales, de forma que esos kernels sean capaces de distinguir de forma jerárquica las features visuales de las clases presentes en el conjunto de datos de entrenamiento.

En este tipo de redes, después de una capa convolucional se suele emplear también la capa de Pooling. A muy grandes rasgos, esa capa se encargará de reducir la dimensionalidad de los Feature Maps de salida de dicha capa convolucional preservando su información más importante. Es decir, permite reducir la cantidad de parámetros de la red (lo cual es una ayuda en redes con muchas capas) realizando un resumen de la información de salida.

El problema es que, al realizar estos resúmenes, se está perdiendo información espacial (dónde se encuentran unas features con respecto a otras). Y esa información espacial es muy valiosa cuando se está trabajando el objetivo de obtener un modelo que se comporte de forma robusta cuando tenga que reconocer su entorno en tiempo real.

Si quieres leer la siguiente parte del artículo, visita la entrada Enseñar al robot reconocimiento facial: Deep Learning a Brain Spikes 2


Rubén Martínez, Data engineer en datahack

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *