Inteligencia Artificial en TED II


TEDAyer os decíamos que en el ciclo de TED sobre Inteligencia Artificial (IA) existían 6 conferencias. Solo os mostramos tres, para dejar otras tres para hoy sábado… Esperemos que las disfrutéis.

This app knows how you feel — from the look on your face (Esta app sabe cómo te sientes…por el aspecto de tu cara).

Rana El KalioubyPor Rana el Kaliouby. Han desarrollado una aplicación inteligente que escaneando tu cara o a través de una fotografía es capaz de analizar una serie de puntos guía y a partir de los mismos interpretar tu estado de ánimo. Puede identificar alegría, tristeza, preocupación, extrañeza o susto.

A partir de una simple imagen el sistema puede interpretar tu estado de ánimo y adaptarse a él interactuando con su interlocutor de manera diferente dependiendo de su situación concreta.

What happens when our computers get smarter than we are? (¿qué pasará cuándo nuestros ordenadores sean más inteligentes que nosotros?)

Nick BostromPor Nick Bostrom. Se trata de una pregunta con grandes implicaciones éticas. Aún tardaremos unas décadas (si es que se llega a lograr) que una máquina sea al menos tan inteligente como el humano que la creó o el humano que la maneja.

Pero se trata de un ejercicio teórico que pone en evidencia los vacíos éticos y legales existentes, la redifinición de procesos que hasta ahora considerábamos exclusivamente humanos.

Watson, Jeopardy and me, the obsolete know-it-all (Watson, Jeopardy y yo, el obsoleto sabelotodo)

Ken JenningsPor Ken Jennings. Ken Jennings es el participante en el concurso de respuestas Jeopardy!, uno de los de más éxito en la televisión estadounidense, que tiene la racha ganadora más larga. En un desafío con el superordenador Watson perdió y nos cuenta en esta charla TEd el sentimiento de un humano al ser derrottado por una máquina. ¿Estará obsoleto el saber humano?.

TED. Rana el Kaliouby: This app knows how you feel from the look on your face


TEDEl viernes 11 de marzo pasado pudimos ver de la mano de la Profesora Fei Fei Li de la Universidad de Stanford como estaban «enseñando» a los ordenadores a identificar y relacionar imágenes o partes de ellas con objetos.

Tenemos un paso más sdelante, una aplicación que puede interpretar nuestras emociones analizando rasgos faciales. Es capaz de identificar muecas de algría, tristeza, asombro y a partir de su identificación podremos interactuar con una capa emocional entre el hombre y la máquina.

La máquina no será capaz de sentir, pero posiblemente será capaz de analizar nuestros sentimientos y reaccionar de diferente forma dependiendo de nuestro estado de ánimo.

Rana el KalioubyRana el Kaliouby es la directora científica y co-fundadora de Affectiva una empresa que ha nacido en el entorno del MIT Media Lab. Su objetivo es dar a conocer la inteligencia emocional digital liderando un equipo de análisis responsable del desarrollo de algoritmos de detección de la emoción y la minería de datos en la base de datos de emociones más grande del mundo.

Hasta el momento han recogido 12 millones de datos relacionados con la emoción a través de 2,9 millones de vídeos de expresiones faciales de voluntarios de 75 países siendo capaces de identificar emociones en caras de diferentes culturas, razas y sexos.

Estas aplicaciones digitales de reconocimiento de emociones faciales ya tienen aplicaciones en funcionalidades adaptadas al mundo de la empresa, el entretenimiento, la comunicación y la educación en línea.

¿Seria posible en un futuro un cuidador robótico digital que fuera capaz de interpretar nuestro estado de ánimo y decidir acciones adecuadas a la misma?.