El viernes 11 de marzo pasado pudimos ver de la mano de la Profesora Fei Fei Li de la Universidad de Stanford como estaban «enseñando» a los ordenadores a identificar y relacionar imágenes o partes de ellas con objetos.
Tenemos un paso más sdelante, una aplicación que puede interpretar nuestras emociones analizando rasgos faciales. Es capaz de identificar muecas de algría, tristeza, asombro y a partir de su identificación podremos interactuar con una capa emocional entre el hombre y la máquina.
La máquina no será capaz de sentir, pero posiblemente será capaz de analizar nuestros sentimientos y reaccionar de diferente forma dependiendo de nuestro estado de ánimo.
Rana el Kaliouby es la directora científica y co-fundadora de Affectiva una empresa que ha nacido en el entorno del MIT Media Lab. Su objetivo es dar a conocer la inteligencia emocional digital liderando un equipo de análisis responsable del desarrollo de algoritmos de detección de la emoción y la minería de datos en la base de datos de emociones más grande del mundo.
Hasta el momento han recogido 12 millones de datos relacionados con la emoción a través de 2,9 millones de vídeos de expresiones faciales de voluntarios de 75 países siendo capaces de identificar emociones en caras de diferentes culturas, razas y sexos.
Estas aplicaciones digitales de reconocimiento de emociones faciales ya tienen aplicaciones en funcionalidades adaptadas al mundo de la empresa, el entretenimiento, la comunicación y la educación en línea.
¿Seria posible en un futuro un cuidador robótico digital que fuera capaz de interpretar nuestro estado de ánimo y decidir acciones adecuadas a la misma?.