La pregunta que muchos os haréis después del artículo anterior es ¿cómo plantea la doctora Feldman Barrett la construcción de emociones? Como comentamos en Innodata...

The Deconstructed Emotion

Nuestro cerebro tiene una vida difícil; se pasa el tiempo recluido en nuestro cráneo. Tiene además que desempeñar la misión de cuidar a nuestro cuerpo, el cual a su vez es un mecanismo complejo, lleno de recursos y difícil de mantener. Justamente este balance o mantenimiento de los recursos del cuerpo, es lo que se conoce como Body Budget. De esta manera, cuando se producen alteraciones en este Body Budget, nuestro cerebro será el encargado de restablecer el equilibrio.

Cuando nuestro Body Budget cambia, surgen en nosotros unos sentimientos básicos denominados Affects y que son diferentes de las emociones. Como podemos ver a continuación tienen dos dimensiones una en el eje X (valence) y otra en el eje Y (arousal):

teoría-de-las-emociones-deconstruidas-hacia-las-máquinas-que-detectan-emociones-3

Cómo funciona el Body Budget

Aquello que impacte nuestro Body Budget de forma positiva, motivará un Affect positivo. Ocurrirá al contrario con aquello que impacte nuestro Body Budget de forma negativa.

Hay que tener en cuenta que no nacemos ya sabiendo cómo controlar nuestro Body Budget, sino que vamos aprendiéndolo desde que somos bebés. Así es como nuestro enclaustrado cerebro puede llevar a cabo con éxito la misión de mantener nuestro Body Budget: en base a

Con todo esto, el cerebro es capaz de mapear los estímulos asociados a una cierta situación, con una experiencia pasada y actuar según un modelo aprendido. Y lo más importante, de manera predictiva, no reactiva.

Estrategia predictiva del cerebro

Esto es muy interesante: nuestro cerebro se guía por una estrategia predictivo-correctiva, no de estímulo-respuesta. La doctora Barrett y otros científicos, coinciden en que el primer tipo de estrategia es mucho más eficiente y adaptativo que el segundo. En este sentido, por ejemplo, nuestro cerebro debe hacernos sentir sedientos antes de que nos deshidratemos por completo o también hacernos sentir temor al borde de un acantilado, no cuando ya estemos cayendo.

En resumen, los modelos elaborados por nuestro cerebro se basan en experiencias pasadas, tienen como objetivo regular el Body Budget y tratan de predecir lo que va a ocurrir en nuestro entorno a cada momento. En base a esa predicción, nuestro Body Budget se modificará y sentiremos un Affect.

Las emociones

Ahora vienen las emociones: la doctora Barret las define como conceptos orientados a objetivos o metas, que construimos basándonos en experiencias pasadas.

Pongamos como ejemplo el caso de que vamos conduciendo y alguien se cruza inesperadamente con su coche delante nuestro provocándonos frenar inesperadamente. La emoción que construiremos dependerá de lo que nuestro cerebro prediga que está ocurriendo en nuestro entorno, dentro de nosotros y también de nuestro objetivo. En este caso, si lo que predecimos es que alguien intentó herirnos o que no valoró nuestra vida, nuestro Body Budget cambiará, experimentaremos un Affect de agitación y tocaremos el claxon con el objetivo de poner de manifiesto que nosotros importamos y que no nos hace ninguna gracias que atenten contra nuestra integridad.

Pero si lo que predecimos es que la persona que se ha cruzado ante nosotros tiene que ir con urgencia al hospital, nuestro Body Budget cambiará, permaneceremos tranquilos y facilitaremos la maniobra al conductor de delante. Habremos construido la emoción de simpatía o empatía.

En definitiva, la doctora Feldman describe las emociones como prescripciones de las acciones. Nos indican cómo debemos actuar de cara a conseguir un determinado objetivo.

Conclusiones

Esto es solamente un resumen de una teoría, compleja y no demasiado intuitiva, pero con bastante apoyo en la comunidad científica. ¿Servirá esta teoría para sentar las bases de un verdadero reconocimiento de emociones en los modelos de machine learning? Pensemos que, si realmente queremos que una máquina sepa cómo se construyen las emociones, tendría que tener la tarea de regular un Body Budget y para ello necesitaría algo parecido a un cuerpo… ¡interesante!

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.


Alejandro Arranz. Data Engineer en datahack

Vivimos en una época en la cual, gracias a la nueva venida de la inteligencia artificial, se ha conseguido que las máquinas consigan resultados muy buenos en problemas que, hasta hace no mucho, creíamos que solo los humanos podíamos resolver. Un claro ejemplo son los relacionados con visión que actualmente se abordan en el ámbito de la Visión Artificial.

El hecho de que una máquina “sea capaz” de analizar imágenes del mundo real, nos ha llevado a intentar extrapolar esta capacidad a la relación máquina-humano. Intentamos que no solo sea capaz de identificar, por ejemplo, cuando se encuentra ante un ser humano, sino que además pueda determinar la emoción que en ese momento está experimentando la persona.

Para los que no lo sepáis, en datahack labs también nos hemos enfrentado a este problema en el proyecto DIA4RA (enlace aquí al diario de AIDA). Lo hemos hecho apoyándonos en uno de los datasets de cabecera utilizado para pruebas de concepto relativas al reconocimiento de emociones en rostros humanos: el FER 2013, que contiene imágenes de rostros humanos en escala de grises, etiquetadas con la emoción a la que representan (alegría, tristeza, neutro, enfado, miedo, asco). Máquinas que detectan emociones

Los resultados que obtuvimos valieron para, como mucho, hacer una pequeña aplicación que, conectada a una cámara, intentara determinar la emoción de la persona que se pusiera delante en base a lo que esta exagerara el gesto… algo fallaba terriblemente.Máquinas que detectan emociones

Una charla… en las oficinas de Google

Nuestro compañero Rubén Martínez (@eldarsilver), dio con una charla en la que la doctora Lisa Feldman Barrett expuso ante ingenieros de Google, evidencias tan demoledoras como esta imagen a continuación en la que muestra en el eje X, las expresiones faciales que se presuponen a emociones como enfado, asco, sorpresa, alegría, tristeza y miedo:

teoría-de-las-emociones-deconstruidas-hacia-las-máquinas-que-detectan-emociones

En el eje Y, figuran las evidencias basadas en diversos experimentos que reflejan la frecuencia con la que las personas muestran esas expresiones mientras experimentan la emoción correspondiente. Como vemos, no es tan frecuentemente como creíamos. Por ejemplo, a través de dieciséis estudios diferentes, esa cara de ojos saltones y boca entreabierta situada en el extremo derecho del eje X solamente representa miedo en un 9% de las ocasiones… Y en ciertas partes del mundo (como en las Islas Trobriand de Papua Nueva Guinea) se considera una cara de enfado, de amenaza. Máquinas que detectan emociones

¿Qué ocurre cuando, en los muchos estudios al respecto, distintos sujetos de prueba ven estas expresiones faciales? ¿Qué emoción asocian a las mismas? Veámoslo en la barra azul:

teoría-de-las-emociones-deconstruidas-hacia-las-máquinas-que-detectan-emociones-1

El problema viene de que, cuando abordamos la detección de emociones desde el prisma “tradicional”, estamos considerando las barras azules. Por decirlo de otra manera: estamos asumiendo que cuando, por ejemplo, una persona arruga el morro, está experimentando una emoción de asco, de profundo desagrado, como si realmente existiera una correspondencia 1 a 1 entre un gesto concreto y una emoción concreta.

Hacia una nueva forma de detectar emociones

Después de esto, la pregunta que cae por su propio peso es… Si la realidad está representada por las barras blancas, ¿por qué las barras azules son tan grandes en comparativa? Es decir, ¿por qué las personas asociamos con tanta frecuencia esas expresiones con esas emociones?

Para responder a est,o hay que echar un vistazo al tipo de material que se utiliza para preguntar a las personas que participan en los estudios que dan lugar a las barras azules:

teoría-de-las-emociones-deconstruidas-hacia-las-máquinas-que-detectan-emociones-2

Como vemos, reciben una cara con una lista de palabras de entre las cuales se les pide que escojan una. En este caso, este rostro es calificado como “Angry” el 67% de las veces, pero si se retiran las opciones y se da libertad a la persona para categorizar la expresión, solo el 36% de las veces se afirma que esa es una cara de enfado.

Por supuesto todo esto no quiere decir que la cara no tenga ningún tipo de peso a la hora de determinar la emoción de una persona, sino que nuestro cerebro mete muchos otros ingredientes en la coctelera antes de inferir dicha emoción: hay todo un contexto que entra en juego y que desaparece por completo en los experimentos anteriormente mencionados, de los cuales, por otra parte, salen algunos de los datasets que utilizamos posteriormente para tratar de abordar el gran melón de la detección de emociones. Es curioso que en nuevas versiones del FER 2013, las imágenes de expresiones faciales tengan más de una etiqueta o, lo que es lo mismo, se les haya asociado más de una emoción posible.

En el próximo artículo, veremos cómo abordar esto.


Alejandro Arranz. Data Engineer en datahack

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Retomamos con fuerza el diario de DIA4A para poneros al día de los avances realizados hasta la fecha. Como recordaréis, hemos conseguido que el modelo de detección de objetos y personas desempeñe su cometido sobre las imágenes capturadas a través de la cámara frontal del robot. Ahora que llegan los primeros resultados es momento de traducirlos a entregables. Entre estos, contamos la documentación técnica y ejecutiva de cada modelo y, por supuesto, el cuaderno de pruebas.

Para elaborar el cuaderno de pruebas, hemos desglosado cada modelo en sus funcionalidades básicas. Para acreditar que estas se han alcanzado, hemos acordado grabar un vídeo del robot desempeñando cada funcionalidad. Con la idea de que el vídeo fuese más vistoso y, sobre todo, no abusar del uso de comandos escritos, de cara a hacerlo más atractivo para alguien con un perfil no tan técnico, optamos por aprovechar la Google Cloud Speech To Text API. Como imaginareis, es un servicio de Google que permite la transcripción multi-idioma de voz a texto. Hacemos un paréntesis aquí, para indicar que paralelamente estamos desarrollando nuestro propio modelo de Speech To Text en castellano.

El objetivo para registrar nuestra prueba unitaria para este primer modelo (y para el resto de pruebas unitarias) era grabar un vídeo en el que:

  1. Se explica la prueba a realizar.
  2. Una persona se acerca al robot y le da una orden concisa en forma de comando de voz (por ejemplo: empieza)
  3. El robot en ese momento activa el modelo y empieza a publicar la salida de lo que va reconociendo.
  4. La persona le pide al robot que detenga la prueba mediante otro comando de voz (por ejemplo: termina)
  5. Una segunda persona explica las salidas generadas.

Entrando en detalles:

Para los que os gusta algo más de detalle, os explicamos un poco más a fondo el proceso. Lo primero es comentar algo sobre el nodo de ROS que encapsula la llamada a la API Speech To Text de Google. Este nodo se encuentra desplegado en el robot (a diferencia del nodo que encapsula el modelo desarrollado, que se encuentra en nuestras máquinas ya que requiere del uso de GPU para sus predicciones). La razón de esto es que se trata un nodo ligero que no realiza una computación per se, sino que delega en la API de Google, entonces lo primero será conectarse al robot y levantar este nodo.

Con ello, esperamos que la transcripción de cualquier voz humana que se detecte a través de los micrófonos del robot, sea publicada a través de un topic de ROS. A partir de aquí, se trata de escuchar en dicho topic y detectar el comando de activación de la prueba (algo así como “empieza” o “reconoce”) tras el cual se ejecuta una suscripción al topic de la cámara del robot y el modelo desarrollado comienza a identificar, hasta que se pronuncia el comando de finalización de la prueba (por ejemplo “termina”) “ y se desconecta del topic de la cámara, deteniéndose las predicciones.


Gracias a los compañeros de la URJC por el nodo que encapsula la Google Cloud Speech To Text API.

dia4ra cdtiEl proyecto empresarial de DATAHACK CONSULTING SL., denominado “DESARROLLO DE INTELIGENCIA ARTIFICIAL EN ROBOTS APLICADOS AL TRATAMIENTO DEL ALZHEIMER Y LA DEMENCIA” y número de expediente 00104725 / SNEO-20171211 ha sido subvencionado por el CENTRO PARA EL DESARROLLO TECNOLÓGICO INDUSTRIAL (CDTI)

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Cuando tienes que abordar un proyecto tan grande como DIA4RA, cuyo objetivo es el de dotar de inteligencia a un robot humanoide para que sea capaz de asistir y ayudar a pacientes con Alzheimer,  un punto clave consiste en elegir qué herramientas se van a emplear para conseguirlo.

Creemos que, para que comprendáis por completo las dimensiones del proyecto, debéis conocerlas (o, por lo menos, que os suenen). Así pues, vamos a aprovechar el diario para compartir con vosotros una serie de artículos en los que se pretende tanto discutir las elecciones realizadas como mostrar una introducción al funcionamiento de dichas herramientas.

ROS

Por un lado se necesita un framework que permita distribuir la información procedente de los múltiples sensores del robot y enviar órdenes a sus actuadores. Para conseguir esto, se decidió utilizar ROS (como dijimos en artículos anteriores, significa Robot Operating System). Puede considerarse como la solución más robusta y potente, en cuanto a las posibilidades que ofrece, cuando hay que trabajar a nivel profesional con componentes robóticos.

Además en datahack contamos con la colaboración del grupo de Robótica de la URJC de Fuenlabrada. Ellos disponen de amplia experiencia en este ámbito avalada por sus publicaciones, su contribución a proyectos Open-Source por sus continuas participaciones en congresos y torneos internacionales como Robocup, iROS, etc.

Tensorflow

Por otro lado es necesario disponer de otro framework con el que desarrollar los algoritmos que implementarán la inteligencia de AIDA (como dijimos en el primer post del diario, es nuestro robot y sus siglas significan Artificial Intelligence Datahack Ambassador). Para este propósito nos decantamos por Tensorflow debido al fuerte impulso que está recibiendo por parte de Google y de la comunidad de investigadores en Inteligencia Artificial.

Google Cloud

Además, tuvimos que decidir entre:

  1. si adquirir la infraestructura de máquinas equipadas con GPU’s potentes para entrenar todos los modelos que necesita el robot y ponerlos en producción
  2. si era preferible emplear el Cloud de alguno de los grandes proveedores, que nos permitiese desplegar el entorno necesario para entrenar algoritmos y realizar las predicciones con los modelos generados.

Hay que tener en cuenta que, cuando el robot sea plenamente funcional, deberá contar con al menos 8 modelos predictivos ejecutándose en paralelo. A eso habrá que sumar el planificador global de tareas que controlará el comportamiento de AIDA, así como los recursos necesarios para la gestión de su Sistema Operativo y de los demonios de ROS.

Nuestro compañero Alejandro se encargó de implementar una arquitectura hardware que soportase todos los requisitos tanto para el entrenamiento como para la inferencia.

En paralelo, iniciamos contactos con Nvidia y Google con el objetivo de presentarles nuestro proyecto y buscar distintas formas de colaboración. Como resultado, pasamos a formar parte tanto del programa “Inception” de Nvidia, con el que proporcionan recursos, soporte y promoción, como del programa “Google Cloud for Startups” en el que entre otros beneficios se dispone de créditos para entrenar y servir modelos empleando la infraestructura de Google Cloud Platform.

Teniendo todo esto en cuenta, la aproximación que hemos tomado ha sido la de “prototipar” el código de los algoritmos en nuestras máquinas de trabajo, que disponen de tarjetas GPU de Nvidia. Luego hemos adaptado dicho código a los requisitos de Tensorflow para que pueda ser entrenado empleando el Cloud. Esto nos da la flexibilidad de poder utilizar el mismo código tanto en una arquitectura on-premise como en la nube.

¡Seguro que ahora quieres saber más sobre cómo aplicamos estas herramientas en el proyecto!

Pues no temas, porque vamos a desarrollar todo esto un poquito más (en la sección DIA4RA para programadores, porque la cosa se pone un poco más técnica). Y es que, como puedes comprobar, el proyecto DIA4RA ya lleva un tiempo corriendo. No ha empezado, ni mucho menos, con la llegada de AIDA.

Por eso decidimos hacer esta serie de artículos “flashback” dedicados a las herramientas de programación que se emplearán en DIA4RA. Comenzaremos mostrando la estructura que deberá tener el código de Tensorflow para que pueda ser entrenado de forma distribuida y servido en el Cloud. El siguiente paso consistirá en presentar los principales componentes de ROS, para finalizar enseñando cómo integrarlos con los modelos de Tensorflow. De esta forma, os mostraremos el recorrido cuya meta es la de combinar modelos predictivos de Deep Learning con Robótica.

Y es que, una vez realizada esta introducción, empieza lo realmente divertido para nosotros, ponernos manos a la obra con la parte técnica.


Rubén Martínez, Data engineer en datahack

dia4ra cdtiEl proyecto empresarial de DATAHACK CONSULTING SL., denominado “DESARROLLO DE INTELIGENCIA ARTIFICIAL EN ROBOTS APLICADOS AL TRATAMIENTO DEL ALZHEIMER Y LA DEMENCIA” y número de expediente 00104725 / SNEO-20171211 ha sido subvencionado por el CENTRO PARA EL DESARROLLO TECNOLÓGICO INDUSTRIAL (CDTI)

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Ya llevamos unas cuantas entradas del diario y, aunque hemos mencionado un poco de qué va el proyecto, nos gustaría contarlo más a fondo para que entendáis por qué es tan especial para nosotros.

DIA4RA (acrónimo de Desarrollo de Inteligencia Artificial para Robótica Asistencial) es un proyecto pionero que ha surgido de datahack, con la colaboración del laboratorio de robótica de la URJC (Universidad Rey Juan Carlos). Nuestro objetivo es desarrollar un Robot Inteligente para dar asistencia a Enfermos de Alzheimer y otras formas de demencia, asociadas al envejecimiento.

Deep Learning y Robótica para el tratamiento del Alzhéimer

Según las últimas previsiones, el progresivo envejecimiento de la población a nivel mundial va hacer que el número de enfermos de Alzhéimer, y otras formas demencia, aumente vertiginosamente en las próximas décadas. Esto, junto con el hecho de que los costes del tratamiento de este tipo de enfermedades ha aumentando rápidamente en los últimos años. Se ha pasado de los 604.000 millones de dólares en 2010 a más de un 1 billón de dólares esperados para el 2018 y 2 billones dólares en 2030 (datos a nivel mundial). Lo cual va hacer que la incorporación de elementos robóticos, capaces de interactuar y relacionarse con las personas, sea una gran oportunidad no solo para reducir estos costes, sino también para ayudar en la asistencia que este tipo de personas necesitan y reducir el grado de avance de la enfermedad.

El objetivo de DIA4RA es dotar a la plataforma robótica humanoide “Pepper” de las capacidades necesarias para que lleve a cabo las tareas de tratamiento, asistencia y cuidado de personas con Alzhéimer y demencia. Esto lo estamos consiguiendo con la implementación de técnicas y algoritmos de IA (Inteligencia Artificial). Estamos trabajando dentro del área de Deep Learning, usando Redes Neuronales Profundas (DNN) y métodos de entrenamiento innovadores. Estos permiten el desarrollo de modelos de IA ágiles, capaces de aprender con pocos datos y que pueden ser entrenados y desplegados tanto en infraestructuras cloud como on-premise. También estamos abordando aproximaciones híbridas de los distintos tipos de aprendizajes: supervisado, semi-supervisado, auto-supervisado, no supervisado y por refuerzo, similares a los que emplea el propio cerebro humano. En total, está previsto desarrollar un total de ocho modelos de deep learning.

Cómo lo vamos a hacer y qué habilidades tendrá:

La integración de estos modelos en el robot la estamos haciendo a través del sistema ROS (Robotic Operating System). Este no solo nos permite tener un mayor control sobre los componentes del robot, sino que también da mayor margen a la hora de implementar y desplegar los modelos de deep learning. Así, pretendemos conseguir un robot inteligente capaz de:

Todos estas capacidades servirán para que el robot sea capaz de desenvolverse e interactuar con las personas que se encuentren en el centro donde va ser desplegado, un CRE (Centro de Referencia Estatal) para el tratamiento de personas Alzhéimer. También podrá usarse para hacer terapias con los paciente, evaluando su situación y tomando datos que podrán ser analizados para ver las medidas a tomar.

Así, DIA4RA no es solo un proyecto donde vamos a integrar las últimas tendencias tecnológicas, en robótica y deep learning. También es un espacio de trabajo dónde vamos a ver cómo influye y qué tipo de relación se establece entre este tipo de ente robótico y los ancianos y otras personas con los que va a interactuar.

dia4ra cdtiEl proyecto empresarial de DATAHACK CONSULTING SL., denominado “DESARROLLO DE INTELIGENCIA ARTIFICIAL EN ROBOTS APLICADOS AL TRATAMIENTO DEL ALZHEIMER Y LA DEMENCIA” y número de expediente 00104725 / SNEO-20171211 ha sido subvencionado por el CENTRO PARA EL DESARROLLO TECNOLÓGICO INDUSTRIAL (CDTI)

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Una vez cumplido nuestro deber con el Call for papers del Big Data Spain, volvemos a la carga con AIDA. En la entrada de la pasada semana veíamos unos conceptos básicos de ROS (como por ejemplo la noción de qué es un topic). Esta semana toca empezar a explotar la información que recibimos a partir de los distintos sensores del robot.

Tomando los modelos que ya hemos hecho

Nuestro primer objetivo era tomar un modelo que se desarrolló hace unos meses. Este se hizo para poder incorporarlo algún día al robot Pepper de nuestros compañeros de la URJC. En realidad, se trataba de dos modelos en uno:

SSD entrenado con el dataset COCO

El primero de los modelos consistía en una arquitectura single shot detector (SSD) mobilenet entrenado con el dataset COCO (Common Objects In COntext). Este estaba entrenado a su vez con 80 clases diferentes. Su objetivo era detectar personas de forma fiable en una imagen, para después trazar un bounding box a su alrededor.

diario dia4ra SSD entrenado con el dataset COCO bounding box

(ssd_mobilenet en acción detectando una persona y una silla. Los recuadros con el nombre de la clase y la confianza que el modelo atribuye a la predicción se conocen como bounding boxes)

En caso de detectar una persona, se hacía un crop de la misma en base a su bounding box. Esto es como si con unas tijeras se recortara la parte de la imagen delimitada por el bounding box con la etiqueta person. El resultado se pasaba a otra red cuyo objetivo era detectar el tipo de prenda que la persona llevaba y el color de la misma. Inicialmente estaba limitado a vaqueros, zapatos, vestidos y camisetas de color blanco, rojo o azul.

Es posible que a alguien le surja la pregunta. ¿De dónde sacamos las imágenes sobre las cuales realizamos la identificación? Para hacer pruebas tenemos una cámara ASUS Xtion PROTM. La conectamos a alguna de nuestras torres mediante un USB y la conectamos con ROS a través del paquete openni2_launch. Así nos suscribimos al topic de la cámara y los frames que se reciben se van suministrando al modelo (o más bien doble modelo) anteriormente descrito.

Así que la primera prueba de concepto consistía básicamente en quedarnos solo con la parte de la SSD mobilenet (ya que en principio nos interesará reconocer personas y otros objetos sin necesidad de fijarnos en más detalles). Una vez ajustado el código, solo quedaba cambiar el topic al que se suscribía para que fuera el de una de las cámaras del robot. Y, claro…¡ver que funcionaba!

Efectivamente, el resultado fue bueno, lo que robot “veía” le llegaba al modelo. Este era capaz de identificar en la imagen cualquiera de los 80 objetos del dataset COCO que estuviera presente en ella. Luego, trazaba alrededor de cada uno su correspondiente bounding box.

Experimentando con el sonido

Paralelamente a esto, estamos trabajando en un modelo de Speecht2Text (es decir, capaz de traducir voz a texto) en castellano. Aparte, evaluamos otras posibilidades como por ejemplo la API de Google Speech.

Esto nos permitirá tener una noción de la capacidad del micrófono del robot para captar voz. También de cuál es el estado del arte ahora mismo en este tipo de modelos. ¡Vamos a ver cómo nos desenvolvemos con el sonido!


Alejandro Arranz, Data Engineer en datahack

dia4ra cdtiEl proyecto empresarial de DATAHACK CONSULTING SL., denominado “DESARROLLO DE INTELIGENCIA ARTIFICIAL EN ROBOTS APLICADOS AL TRATAMIENTO DEL ALZHEIMER Y LA DEMENCIA” y número de expediente 00104725 / SNEO-20171211 ha sido subvencionado por el CENTRO PARA EL DESARROLLO TECNOLÓGICO INDUSTRIAL (CDTI)

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Esta semana ha pasado algo muy importante en datahack: se ha incorporado a la familia un nuevo miembro... robótico.
El robot se llama AIDA (Artificial Intelligence Datahack Ambassador) y ya es la niña mimada de la oficina. Pero lo más importante es que nos dará una gran agilidad y libertad para llevar a cabo la aventura de dia4ra.
*Para el que no lo sepa, dia4ra es nuestro proyecto pionero a nivel mundial que integra robótica asistencial e inteligencia artificial para la prevención, detección y tratamiento de enfermedades degenerativas).

La llegada de AIDA: un hito más entre muchos logros.

El equipo de labs lleva ya mucho tiempo trabajando (con robots más básicos o gracias a la inestimable ayuda del equipo de la URJC) en este proyecto. Todo empezó con el Turtlebot y, desde entonces, hemos logrado grandes avances en ROS y self driving, modelos de segmentación, Bounding Boxes, planificación y desarrollo de modelos, cloud deep learning...
Sí, ya lo sabemos, todos esos "palabros" suenan un poco a chino, pero no os preocupéis. Aunque empecemos el diario de labs ahora (porque en algún momento hay que empezar, y cuál mejor que ahora, que ha llegado AIDA, estrenamos la nueva web hace poco y tenemos a una persona de marketing disponible para convertir nuestros apasionados discursos técnicos en un texto digerible), os lo vamos a contar todo. Cómo hemos llegado aquí y todo lo avanzado hasta la fecha. Los retos que afrontamos. Los avances que consigamos. Las dificultades que encontremos. El día a día con AIDA.
Os aseguramos que será un viaje apasionante, ¿nos acompañas?

dia4ra cdtiEl proyecto empresarial de DATAHACK CONSULTING SL., denominado “DESARROLLO DE INTELIGENCIA ARTIFICIAL EN ROBOTS APLICADOS AL TRATAMIENTO DEL ALZHEIMER Y LA DEMENCIA” y número de expediente 00104725 / SNEO-20171211 ha sido subvencionado por el CENTRO PARA EL DESARROLLO TECNOLÓGICO INDUSTRIAL (CDTI)

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Big Data Spain 2017, sorteamos 500€

datahack participamos en Big Data Spain 2017 como patrocinadores oficiales. Contamos con un stand en el que ofrecíamos, entre otras cosas, 500€ a todos los que se acercasen. "Aliméntanos con tus datos, nosotros te alimentaremos con 500€", esa fue nuestro lema. A todos aquellos que se pasaban les ofrecíamos obleas de 500€ para que se las comieran. Además de poder participar en un sorteo de 500€ en formación si rellenaban un sencillo formulario.

Big Data Spain es el mayor evento de Big Data que se celebra en España. Esta edición, con 70 ponentes y más de 13.000 asistentes que acudieron de diferentes partes del mundo, por lo que fue íntegramente en inglés. Dos días repletos de charlas y actividades relacionadas con Big Data, en Kinépolis, Madrid.

stand datahack en Big Data Spain 2017

Rubén Martínez, uno de los speakers en Big  Data Spain 2017

Entre los ponentes, se encontraba Rubén Martínez, de datahack labs. En su charla: "Attacking Machine Learning used in AntiVirus with Reinforcement" explicaba cómo hacer malware indetectable utilizando Reinforcement Learning. Una breve, pero muy completa explicación que podéis disfrutar del resumen AQUÍ.

Rubén Martínez, speaker en Big Data Spain 2017

Demos de Deep Learning en el stand de datahack

En el stand de datahack, además de ofrecer los 500€ y merchandising oficial. Realizamos demos de Deep Learning con nuestro robot Yaco. Que consistían en tracking de objetos y de detección de género y emociones, como ya se hizo en innodata 2017. Muchos fueron los curiosos que se acercaron al stand para ver las demos en funcionamiento. Como Holden Larau que probó la demo acompañada por su mascota Boo.

Tracking de objetos en el stand de datahack labs

En definitiva, Big Data Spain 2017 fue una grata experiencia de la que salimos muy satisfechos. Ya estamos en marcha para empezar a preparar nuestra participación en Big Data Spain 2018. Como escuela de formación en Big Data y Analytics, y desarrollando proyectos de consultoría y robótica. ¡El año que viene, mucho más y mejor!

innodata 2017: Big Data presente y futuro

La tarde del lunes 12 de junio tuvo lugar innodata 2017, una jornada en la que hicimos un repaso de algunas de las tendencias actuales y de futuro del Big Data. Para ello, salimos de nuestras oficinas de Calle López de Hoyos y nos trasladamos a Campus Madrid, un espacio más idóneo para un evento de tal envergadura .

La jornada constó de dos partes, la primera protagonizada por algunos de los profesores de datahack. En la que realizaron breves charlas sobre diferentes temas como arquitectura de datos, Deep Learning o Robótica.  La segunda parte consistió en una mesa redonda titulada "¿Hacia dónde va la innovación?". En la que participaron altos cargos de innovación y Big Data a nivel nacional.

Las ponencias del innodata 2017

Mario Renau fue el encargado de empezar la sesión con "Evolución a Arquitecturas Datacentric". Haciendo una analogía con el alpinismo, su gran afición, para impartir la charla. Habló de diferentes temas como los sistemas informacionales y el Business Intelligence, con el que según Mario, se pueden "realizar consultas eficientes de grandes cantidades de datos". Ya que facilita la recogida de información para generar informes. O de los inconvenientes que supone un Data Lake y otros aspectos de la Arquitectura Data Centric.

Inteligencia artificial aplicada en robots

Le siguió Juan Cañada con su conferencia "Simulación por ordenador para entrenar sistemas de Inteligencia Artificial". En la que destacó lo importantes que son los robots en nuestra vida cotidiana que están presentes en más objetos de lo que pensamos. Se ha tenido que recurrir a la simulación por ordenador para hacerlos "inteligentes" y capaces de realizar tareas más complejas. Con la visualización se consigue "ensayar" antes de llevar a la práctica el funcionamiento de los robots y evitar así los errores que pueden ocasionar.

La tercera y última conferencia fue a cargo de Rubén Martínez, titulada: "Deep Learning aplicado a robótica: construye tu propio Bender". Que constó de dos partes, la primera una explicación técnica y la segunda fueron dos demos del robot Yaco. En la parte técnica se vieron las Redes Neuronales Convulocionales, empleadas por ejemplo en los filtros de imágenes o en programas de retoque fotográfico como Photoshop. Y el framework que se emplea para la programación del robot, ROS (Robot Operating System) que sirve para controlar los componentes del robot. En las demos, se realizó una en directo en la que se demostró cómo Yaco detecta caras, siendo capaz de saber si el individuo es hombre o mujer y cuáles son sus emociones. Además de un video en el que Yaco detecta objetos que se encuentran próximos a él.

¿Hacia dónde va la innovación?

La mesa redonda estuvo moderada por Lourdes Hernández Vozmediano, CEO de datahack. En ella intervinieron Pablo Montoliu, Chief Information & Innovation Officer de AON. Juan Antonio Torrero Big Data Innovation Leader de Orange España. Y Federico Sanz Sobrino, Deputy Director-Digitalization and Projects Evaluation de Repsol.

En la que se vieron algunas de las aplicaciones que se realizan de la gran cantidad de datos en empresas como AON, Orange España y Repsol. En la que se vio el cambio de paradigma a la toma de decisiones basadas en datos y no en las decisiones de un directivo. También se trataron otros temas como el cyberataque que se produjo hace unas semanas y las consecuencias que ha tenido en el mantenimiento de la seguridad. Y de posibles tendencias de futuro como mercados de datos, o el cambio de la normativa de privacidad en 2018, que cambiará la forma de aprovechar los datos.

https://www.youtube.com/watch?v=cy3do17JAiMw=426&h=240

Networking y pizzas para todos

La jornada finalizó con una breve sesión de networking con pizzas y refrescos para todos los asistentes, todo ello por cortesía de Stratio. El evento fue recogido por Blanca Tulleida en dibujos de Dibu2pia. Que durante cada actividad del innodata 2017 estuvo dibujando todo lo que se acontecía en el stage de Campus Madrid.

chevron-down