La pregunta que muchos os haréis después del artículo anterior es ¿cómo plantea la doctora Feldman Barrett la construcción de emociones? Como comentamos en Innodata...
Nuestro cerebro tiene una vida difícil; se pasa el tiempo recluido en nuestro cráneo. Tiene además que desempeñar la misión de cuidar a nuestro cuerpo, el cual a su vez es un mecanismo complejo, lleno de recursos y difícil de mantener. Justamente este balance o mantenimiento de los recursos del cuerpo, es lo que se conoce como Body Budget. De esta manera, cuando se producen alteraciones en este Body Budget, nuestro cerebro será el encargado de restablecer el equilibrio.
Cuando nuestro Body Budget cambia, surgen en nosotros unos sentimientos básicos denominados Affects y que son diferentes de las emociones. Como podemos ver a continuación tienen dos dimensiones una en el eje X (valence) y otra en el eje Y (arousal):
Aquello que impacte nuestro Body Budget de forma positiva, motivará un Affect positivo. Ocurrirá al contrario con aquello que impacte nuestro Body Budget de forma negativa.
Hay que tener en cuenta que no nacemos ya sabiendo cómo controlar nuestro Body Budget, sino que vamos aprendiéndolo desde que somos bebés. Así es como nuestro enclaustrado cerebro puede llevar a cabo con éxito la misión de mantener nuestro Body Budget: en base a
Con todo esto, el cerebro es capaz de mapear los estímulos asociados a una cierta situación, con una experiencia pasada y actuar según un modelo aprendido. Y lo más importante, de manera predictiva, no reactiva.
Esto es muy interesante: nuestro cerebro se guía por una estrategia predictivo-correctiva, no de estímulo-respuesta. La doctora Barrett y otros científicos, coinciden en que el primer tipo de estrategia es mucho más eficiente y adaptativo que el segundo. En este sentido, por ejemplo, nuestro cerebro debe hacernos sentir sedientos antes de que nos deshidratemos por completo o también hacernos sentir temor al borde de un acantilado, no cuando ya estemos cayendo.
En resumen, los modelos elaborados por nuestro cerebro se basan en experiencias pasadas, tienen como objetivo regular el Body Budget y tratan de predecir lo que va a ocurrir en nuestro entorno a cada momento. En base a esa predicción, nuestro Body Budget se modificará y sentiremos un Affect.
Ahora vienen las emociones: la doctora Barret las define como conceptos orientados a objetivos o metas, que construimos basándonos en experiencias pasadas.
Pongamos como ejemplo el caso de que vamos conduciendo y alguien se cruza inesperadamente con su coche delante nuestro provocándonos frenar inesperadamente. La emoción que construiremos dependerá de lo que nuestro cerebro prediga que está ocurriendo en nuestro entorno, dentro de nosotros y también de nuestro objetivo. En este caso, si lo que predecimos es que alguien intentó herirnos o que no valoró nuestra vida, nuestro Body Budget cambiará, experimentaremos un Affect de agitación y tocaremos el claxon con el objetivo de poner de manifiesto que nosotros importamos y que no nos hace ninguna gracias que atenten contra nuestra integridad.
Pero si lo que predecimos es que la persona que se ha cruzado ante nosotros tiene que ir con urgencia al hospital, nuestro Body Budget cambiará, permaneceremos tranquilos y facilitaremos la maniobra al conductor de delante. Habremos construido la emoción de simpatía o empatía.
En definitiva, la doctora Feldman describe las emociones como prescripciones de las acciones. Nos indican cómo debemos actuar de cara a conseguir un determinado objetivo.
Esto es solamente un resumen de una teoría, compleja y no demasiado intuitiva, pero con bastante apoyo en la comunidad científica. ¿Servirá esta teoría para sentar las bases de un verdadero reconocimiento de emociones en los modelos de machine learning? Pensemos que, si realmente queremos que una máquina sepa cómo se construyen las emociones, tendría que tener la tarea de regular un Body Budget y para ello necesitaría algo parecido a un cuerpo… ¡interesante!
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
Alejandro Arranz. Data Engineer en datahack
Vivimos en una época en la cual, gracias a la nueva venida de la inteligencia artificial, se ha conseguido que las máquinas consigan resultados muy buenos en problemas que, hasta hace no mucho, creíamos que solo los humanos podíamos resolver. Un claro ejemplo son los relacionados con visión que actualmente se abordan en el ámbito de la Visión Artificial.
El hecho de que una máquina “sea capaz” de analizar imágenes del mundo real, nos ha llevado a intentar extrapolar esta capacidad a la relación máquina-humano. Intentamos que no solo sea capaz de identificar, por ejemplo, cuando se encuentra ante un ser humano, sino que además pueda determinar la emoción que en ese momento está experimentando la persona.
Para los que no lo sepáis, en datahack labs también nos hemos enfrentado a este problema en el proyecto DIA4RA (enlace aquí al diario de AIDA). Lo hemos hecho apoyándonos en uno de los datasets de cabecera utilizado para pruebas de concepto relativas al reconocimiento de emociones en rostros humanos: el FER 2013, que contiene imágenes de rostros humanos en escala de grises, etiquetadas con la emoción a la que representan (alegría, tristeza, neutro, enfado, miedo, asco). Máquinas que detectan emociones
Los resultados que obtuvimos valieron para, como mucho, hacer una pequeña aplicación que, conectada a una cámara, intentara determinar la emoción de la persona que se pusiera delante en base a lo que esta exagerara el gesto… algo fallaba terriblemente.Máquinas que detectan emociones
Nuestro compañero Rubén Martínez (@eldarsilver), dio con una charla en la que la doctora Lisa Feldman Barrett expuso ante ingenieros de Google, evidencias tan demoledoras como esta imagen a continuación en la que muestra en el eje X, las expresiones faciales que se presuponen a emociones como enfado, asco, sorpresa, alegría, tristeza y miedo:
En el eje Y, figuran las evidencias basadas en diversos experimentos que reflejan la frecuencia con la que las personas muestran esas expresiones mientras experimentan la emoción correspondiente. Como vemos, no es tan frecuentemente como creíamos. Por ejemplo, a través de dieciséis estudios diferentes, esa cara de ojos saltones y boca entreabierta situada en el extremo derecho del eje X solamente representa miedo en un 9% de las ocasiones… Y en ciertas partes del mundo (como en las Islas Trobriand de Papua Nueva Guinea) se considera una cara de enfado, de amenaza. Máquinas que detectan emociones
¿Qué ocurre cuando, en los muchos estudios al respecto, distintos sujetos de prueba ven estas expresiones faciales? ¿Qué emoción asocian a las mismas? Veámoslo en la barra azul:
El problema viene de que, cuando abordamos la detección de emociones desde el prisma “tradicional”, estamos considerando las barras azules. Por decirlo de otra manera: estamos asumiendo que cuando, por ejemplo, una persona arruga el morro, está experimentando una emoción de asco, de profundo desagrado, como si realmente existiera una correspondencia 1 a 1 entre un gesto concreto y una emoción concreta.
Después de esto, la pregunta que cae por su propio peso es… Si la realidad está representada por las barras blancas, ¿por qué las barras azules son tan grandes en comparativa? Es decir, ¿por qué las personas asociamos con tanta frecuencia esas expresiones con esas emociones?
Para responder a est,o hay que echar un vistazo al tipo de material que se utiliza para preguntar a las personas que participan en los estudios que dan lugar a las barras azules:
Como vemos, reciben una cara con una lista de palabras de entre las cuales se les pide que escojan una. En este caso, este rostro es calificado como “Angry” el 67% de las veces, pero si se retiran las opciones y se da libertad a la persona para categorizar la expresión, solo el 36% de las veces se afirma que esa es una cara de enfado.
Por supuesto todo esto no quiere decir que la cara no tenga ningún tipo de peso a la hora de determinar la emoción de una persona, sino que nuestro cerebro mete muchos otros ingredientes en la coctelera antes de inferir dicha emoción: hay todo un contexto que entra en juego y que desaparece por completo en los experimentos anteriormente mencionados, de los cuales, por otra parte, salen algunos de los datasets que utilizamos posteriormente para tratar de abordar el gran melón de la detección de emociones. Es curioso que en nuevas versiones del FER 2013, las imágenes de expresiones faciales tengan más de una etiqueta o, lo que es lo mismo, se les haya asociado más de una emoción posible.
En el próximo artículo, veremos cómo abordar esto.
Alejandro Arranz. Data Engineer en datahack
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.