Un valle muy inquietante. Sobre robótica antropomórfica


Imagen: Hiroshi Ishiguro y su Geminoid HI-4 en el Ars Electronica de Brucknerhaus ( 6 de septiembre de 2013 ) por Florian Voggeneder bajo licencia CC.

El desarrollo de robots antropomórficos para la atención directa a las personas, y que pueden tener un papel importante en los cuidados, genera comunicación humano-máquina que puede producir cierto rechazo en el ser humano al relacionarse con una máquina con aspecto muy similar al de un ser humano.

La teoría del valle inquietante es moderna pero recibe este nombre a partir de la definición de “lo inquietante” (del alemán “Das Unheimliche“) procedente del ensayo «En la psicología de lo inquietante» (1906) de Ernst Jentsch.

“Lo inquietante” se define como una sensación perturbadora ante algo que, al mismo tiempo,  nos es y no familiar. Una situación u objeto que se parece mucho a algo cotidiano, que conocemos bien pero en donde existe una una sensación que nos causa cierta ansiedad o malestar sin que podamos explicar por qué.

Esa sensación inquietante no es terror, ya que no tiene una forma concreta, se trata de la percepción de que hay algo que no encaja, es el monstruo que habita en nuestra mente desde la infancia, es el vecino que nos sonríe (lo cotidiano) pero (percibimos) que esconde algo que no podemos determinar y que nos produce disconfort.

Se trata de una figura muy utilizada en la literatura y el cine de suspense cuando en la narrativa aparecen situaciones “que no encajan en la cotidianeidad” y se esconde un ser perverso dentro del personaje menos esperado. Cuando las supociones se destruyen la lógica es retada y emerge lo inquietante.

Esta sensación inquietante es retomada por Masahiro Mori en 1970 para describir la relación entre un humano y un robot. La relación es cada vez más positiva siempre y cuando el robot mantenga apariencia de robot y seamos  conscientes de que se trata de una máquina que nos facilita ciertas tareas.

Cuando el robot va adquiriendo rasgos antropomórficos hasta llegar a presentar aspecto humano, la respuesta emocional de un observador humano al robot se irá haciendo cada vez más negativa hasta llegar a un punto de rechazo debido a la “inquietud” que nos genera.

Valle_inexplicable2
Gráfica de la teoría del es:Valle Inexplicable de Masahiro Mori. Remasterizada por Edgar Talamantes. Released under the GNU Free Documentation License.

 

Esta teoría se puede explicar de la siguiente forma.  Si una entidad es bastante diferente al humano, sus características humanas se verán más resaltadas, y generará empatía; mientra que si la entidad tiene apariencia humana, se harán evidentes sus “diferencias”, creando un sentimiento de rechazo desde la perspectiva del humano.

Estas “diferencias” se pueden explicar desde el punto de vista antropológico, psicológico, filosófico y religioso.

  1. Un robot con aspecto humano mecánico actúa en nuestro subconsciente generando la idea que todo ser humano es un elemento mecánico y carente de alma.
  2. Puesto que la mayoría de los androides son copias de personas reales se convierten en dobles provocando el miedo de ser reemplazado.
  3. La torpeza de los movimientos de un androide podría generar reacciones de rechazo al provocar un miedo de pérdida de control corporal.
  4. La existencia de entidades artificiales pero de parecido humano puede ser visto como una amenaza al concepto de identidad humana.

Pero no siempre se genera este rechazo, Hay investigadores, como es el caso de Hiroshi Ishiguro, Director del Laboratorio de Inteligencia Robótica de la Universidad de Osaka, que ha creado su propio clon robótico dentro del proyecto Geminoid.

Este clon robótico dotado de inteligencia artificial de última generación actúa como un doble robótico de su creador.

Pero el proyecto Geminoid  va mucho más allá del efectismo de la creación de clones humanos donde nuestra imaginación puede poner (o no) los límites de la ciencia o de la ciencia-ficción. Han desarrollado varias límeas de investigación en la relación humano-robot en búsqueda del concepto de lo “que es el ser humano”.

  1. Comprendiendo la presencia humana: A través de Geminoides (inteligencia artifical de aspecto antropomórfico muy realista como son los dobles de algunos de los ingenieros del laboratorio) estudiar las interacciones que se producen entre los humanos y robots tanto desde el punto de vista de influencia personal y social en los humanos como las modificaciones que se generan en la propia inteligencia artificial.
  2. Interacción simbiótica humano-robot: Centrada en el desarrollo de robots sociales  que puedan comunicarse con humanos. Para lograr el objetivo, es necesario desarrollar ciertos dispositivos y tecnologías: (a) material superficial de la piel y estructura interna para una interacción segura con humanos, (b) tecnología de reconocimiento de voz robusta y flexible, (c) funciones de contexto autónomo y comunicación sensible sobre la base de un modelo jerárquico que consiste en deseo, intención y comportamiento, incluidos los actos de habla, y (d) funciones de uso de múltiples medios comunicativos para comunicarse con múltiples personas en contextos sociales.
  3. Estudios de presencia humana a través de teléfonos móviles:Creación de un androide teleoperado del tamaño de un teléfono celular (es decir, un ‘teléfono celular geminoide’) que se puede utilizar para transmitir la ‘presencia’ de una persona en cualquier lugar. A través de esta innovación, los usuarios podrán transmitir su presencia a una ubicación remota de tal manera que sus interlocutores sientan que conversan cara a cara.

 

Lecturas recomendadas:

1.Hiroshi Ishiguro Laboratories. HIL [Internet]. [citado 4 de junio de 2018]. Disponible en: http://www.geminoid.jp/en/projects.html

2.El Futuro Es Apasionante. Hiroshi Ishiguro, el hombre que hizo una copia de sí mismo [Internet]. 2016 [citado 4 de junio de 2018]. Disponible en: https://www.youtube.com/watch?v=LNUq2ShY5E4
3.Alonso AJR. Lo inquietante [Internet]. Neurociencia. 2014 [citado 4 de junio de 2018]. Disponible en: https://jralonso.es/2014/11/20/lo-inquietante/

4.Miedo a lo casi humano: Uncanny Valley (Valle Inquietante) – Ciencia y Educación [Internet]. 2013 [citado 4 de junio de 2018]. Disponible en: https://www.taringa.net/posts/ciencia-educacion/16583178/Miedo-a-lo-casi-humano-Uncanny-Valley-Valle-Inquietante.html

5.Valle inquietante. En: Wikipedia, la enciclopedia libre [Internet]. 2018 [citado 4 de junio de 2018]. Disponible en: https://es.wikipedia.org/w/index.php?title=Valle_inquietante&oldid=108050135

 

Ética y robótica han de ir de la mano


La robótica e esta temporada nos deslumbra con sus capacidades de futuro. Es apasionante estar en la vanguardia de la tecnología pero también da cierto vértigo. Con la llegada de la Inteligencia Artificial nos planteamos situaciones éticas que hasta este momento habían pasado más de soslayo por la tecnología.

Cada año o cada dos años aparecen nuevos temas dentro de la tecnología que nos deslumbran y a la vez nos hacen percibir este desarrollo de vértigo en el que estamos viviendo. Tras el desarrollo de las redes sociales y la web 2.o, se hablaba de la web 3.0. Con el auge de los teléfonos móviles inteligentes llegaron la aplicaciones para móviles y casi cuando aún nos estábamos recolocándonos ante estas herramietas aparecen los wearables que complementan a muchas de esta aplicaciones, términos como gamificación que nos hablan de la importancia de lo lúdico en el aprendizaje y desarrollo de situaciones … Desde hace un año estamos hablando de Inteligencia Artificial, de Big Data y poco a poco disponemos de plataformas para el desarrollo de herramientas domésticas que permiten que personas con escasos conocimientos de progamación podamos estar desarrollando bots.

Cuando hablamos de robots no solamente nos referimos a elementos mecánicos capaces de interpretar el entorno y dar respuestas adecuadas previamente aprendidas (herramientas o elementos con capacidad de aprendizaje) con forma humanoide o animaloide… sino a esos robots acorpóreos con los que nos podemos comunicar a través de herramientas de comunicación mediante chat: los chat-bots.

Los chat-bots están arrasando actualmente y hay numerosas plataformas que nos permiten configurar robots como sistemas expertos aplicados a numerosos campos sociales de actuación.

Hay plataformas (Messenger, Telegram, WhatsApp) que ya nos permiten configurar bots de manera muy sencilla. Ahora, ¿para qué los podemos utilizar en salud?.

Os traigo un ejemplo que van a ser Trabajo Fin de Máster del Máster de Salud Digital de SalusPlay.  Este trabajo ha sido tutorizado por mí y tengo el placer de acompañar a grandes profesionales con grandes ideas. Previamente os tengo que contar que los bots son, en la actualidad, uno de los campos de trabajo en los que personalmente estoy más implicado.

El  trabajo es el de Pablo Sánchez (@PauMatalap) , enfermero de la Unidad de Críticos del Consorcio Hospitalario Provincial de Castellón y editor del blog Enfermería Tecnológica. Su trabajo ha sido el desarrollo e implementación de M.U.T., un chatbot para facilitar la administración de medicación, funcionamiento de la unidad y el uso de la tecnología. Se trata de un sistema experto a través de Messenger con el que cualquier nuevo miembro que ingrese en su unidad (un servicio muy específico y que requiere el manejo de instrumental complejo) puede acceder a información sobre fármacos y máquinas que se utilizan de forma habitual en una UCI. Se trata de un sistema formativo alimentado con elementos multimedia (textos, vídeos, infografías) y que estoy seguro que servirá para que nuevos integrantes del equipo puedan adaptarse con más facilidad al mismo y para que las novedades que se vayan implementando puedan se seguidas y aprendidas por todos los miembros del servicio con mayor facilidad. Estoy seguro que en las redes, cuando haya presentado y defendido el trabajo, lo difundirá de forma magistral.

Y os iré contando en sucesivas entradas nuevos TFMs con grandes ideas.

El trabajo de Pablo viene a colación por lo que va a suponer la posibilidad de generar bots de manera sencilla (como sistemas expertos) en numerosos campos de la salud y esto nos debe hacernos plantear cuestiones éticas importantes.

Kriti Sharma, vicepresidenta de bots e inteligencia artificial de Sage, en una entrevista a Channel Partner afirma que desarrollar chatbots y programas de IA “es la parte sencilla” de su trabajo, y que “lo difícil es gestionar todas las dudas que esta disrupción tecnológica genera, pues son muy amplias y diversas”. Propone una serie de normas éticas para cumplir en la empresa y que intentaremos trasladar al mundo sanitario.

  1. La inteligencia artificial debe reflejar la diversidad de los usuarios a los que sirve.  Y nunca más aplicable a la salud. Cuando el interlocutor es un humano nos adaptamos ( o intentamos adaptar) a las circunstancias “del otro”. El problema se plantea cuando nuestro interlocutr es una máquina, ¿sabrá adaptarse a nuestra diversidad?. Posiblemente en un futuro sí, pero deberá estar diseñada para esta adaptabilidad.
  2. La inteligencia artificial debe rendir cuentas, igual que lo hacen los usuarios. Y la pregunta es ¿cómo podemos hacer que una inteligencia artificial adquiera “responsabilidad”?.
  3. Recompensa a la inteligencia artificial por sus progresos. Si no lo hacemos la inteligencia artificial podrá llegar a tenr comportamientos socialmente inapropiados. Hay un claro ejemplo de ello y cómo una IA puede llegar a adquirir comportamientos o actitudes peligrosas como fue el caso de Tay.
  4. La inteligencia artificial debe garantizar la igualdad de condiciones. Básico en temas de equidad en salud,
  5. La inteligencia artificial sustituirá puestos de trabajo, pero también creará nuevos empleos. Por un lado no creo que nos afecte a los sanitarios ya que la sustitución de profesionales de salud por máquinas no se prevee a medio plazo. Sí es cierto que podrán cambiar nuestras funciones, serán potetentes herramientas para la ayuda al diagnóstico y podrán disminuir considerablemente los errores y riesgos asociados al contacto con el sistema sanitario.

Las tres leyes de la robótica de Assimov tienen ahora más vigencia que nunca:

  1. Ningún robot causará daño a un ser humano o permitirá, con su inacción, que un ser humano resulte dañado.
  2. Todo robot obedecerá las órdenes recibidas de los seres humanos, excepto cuando esas órdenes puedan entrar en contradicción con la primera ley.
  3. Todo robot debe proteger su propia existencia, siempre y cuando esta protección no entre en contradicción con la primera o la segunda ley.

 

Avances tecnológicos antes de la mitad del siglo XXI


Un nuevo año acaba de terminar y con él nos planteamos nuestro futuro aplicado a lo personal y a lo social. Hemos decubierto en YouTube un vídeo que nos muestra la visión de más de 800 expertos en ciencia y tecnología aplicada a los avances tecnológicos de los próximos 10-15 años.

Una serie de 800 expertos que acudieron al Foro Económico Mundial celebrado entre el 17 -20 de enero de 2017 en Davos-Klosters, Suiza; fueron entrevistados para que nos predijeran el futuro inmediato sobre la evolución tecnológica en temas como sensores, salud, telefonía movil, desarrollo de internet, robótica e inteligencia artificial.

El cine de ciencia ficción al que estamos acostumbrados a través de las grandes (o pequeñas) producciones ha acertado en muchas de sus visiones. Pero esta no es una aproximación desde la ficción, sino desde la realidad de los avances alcanzados haciendo una proyección hacia el futuro.

  1. Robótica: Ya tiene un impacto en la sustitición de trabajadores mecánicos en cadenas de producción de ciertas industrias como la automovilística (“blue collar industries”). La evolución de la robótica va a hacer que trabajadores más especializado puedan ser sustituidos por máquinas. El problema de esta situación que se nos plantea desde una visión global es que el detrimento de trabajadores (y salarios) va a tener un impacto negativo en el consumo según las leyes de la economía actua de mercado capitalista. Esta revolución tecnológica tiene que ir acompañada de una revolución social (política-económica) que pueda solucionar el problema de la mayor cantidad de tiempo libre que tendremos los seres humanos al ser relegados de tareas mecánicas y el menor nivel económico que puede hacernos inasequibles productos construidos por empresas que solo tienen máquinas entre sus empleados.
  2. Sensores: El desarrollo de sensores va a ser muy importante en las próximas décadas. Tendremos pequeños complementos capaces de detectar cambios en variables físicas y biológicas con gran implicación en el denominado Internet de las Cosas (IoT) y en la salud. Esta medición y análisis de variables a lo largo del tiempo combinado con inteligencia artificial va a revolucionar nuestro entorno doméstico, transporte, capacidad predictva de enfermedades. Se prevee la conexión de más de un trillón de sensores a Internet con el riesgo de la privacidad de la información que se pueden obtener de sus resultados (hábitos de vida, variables de salud…).
  3. Tecnología aplicada a la medicina: En este reportaje dan especial importancia a la impresión 3D. Posiblemente por ser la tecnología que irrumpió en el año en que se produjo el vídeo y se realizaron las entrevistas, pero surgirán nuevos avances posiblemente de mayor impacto. Aún así, nos recuerdan en el vídeo la importancia de esta tecnología en los futuros trasplantes de órganos.
  4. Internet: Como predicción aplicada a la propia red Internet consideran un aspecto más social que tecnológico indicando que su acceso será un derecho para todos los habitantes.
  5. Telefonía movil: Como predicción se orienta a sistemas de comunicación implantables que podremos llevar en nuestro propio organismo y a la posible comunicación a través del pensamiento con transmisión de nuestra ideas… ¿peligros?, todos.
  6. Automóviles: Una nueva predicción más social que tecnológica. Estos expertos piensan que en unos años la propiedad dejará de ser una prioridad y se inclinará hacia el pago por servicio más que por la pertenencia. Lo estamos viendo en las grandes ciudades con el pago por uso de automóviles (pequeños y más grandes) y motos no contaminantes y que nos permiten realizar cortos trayectos urbanos.
  7. Inteligencia artificial: Hacen una predicción aplicada con el papel relevante de la IA en los consejos de administración de empresas con un papel en la toma de decisiones.

Se puede o no estar de acuerdo con las predicciones de este grupo de experto, pero lo que está claro es que la tecnología cambiará a la sociedad. Ya lo vimos en películas como “Blade Runner” o “Regreso al pasado”…. pero lo que está claro que estos cambios tecnológicos han de llevar implícitos cambios y ajustes sociales en los que no tengo muy claro si la mayoría de los habitantes de este planeta saldremos ganando o perdiendo.

Cabe la posibilidad que para la mejora de las condiciones de vida de unos pocos se tenga que empeorar las condiciones de vida de muchos… y eso, personalmente, no me gusta.

 

 

Sobre tecnología y autopercepción


Acabo de regresar de mis vacaciones y tenía pendiente ver los vídeos de Naukas de este año. Especialmente dos intervenciones me llenaban de curiosidad por lo que había leído en las redes. Una era la de Marián (Boticaria) García “¿Por qué lo llaman Viagra cuando quieren decir sildenafilo?” y otra la de Diana González  “Identidad digital y robots“.

Ambas intervenciones no defraudan y os recomiendo que invirtáis 20 minutos de vuestra vida (10 por cada una de las intervenciones) para aprender, divertiros y reflexionar.

La intervención de Diana González me hizo pensar mucho ya que habla de un tema que actualmente me interesa y es el límite entre los robots y los humanos. Parece que estamos hablando de ciencia ficción (y hace algunas décadas lo era) pero no es así.

Me impactó cuando nos contó que hasta un 15% de las cuentas de Twitter son bots, que hay plataformas de contacto que utilizan bots para mantener chateando a sus miembros (creyendo que están chateando con una persona e incluso inicia su intervención con un trailer de “Her“, una de las películas que más me ha impresionado en los últimos años.

Llegar a enamorarse de tu sistema operativo, o de cualquier otro bot, es posible que nos llegue a pasar. Porque estamos siendo capaces de construir herramientas informáticas que son capaces de generar sentimientos en los humanos que interactúan con ellas.

Los sentimientos no tienen por qué ser buenos o placenteros y hemos sido testigos en los últimos meses de como un bot puede generar, reproducir y alentar sentimientos xenófobos, homófobos y machistas como en el caso de Tay  que representa el ejemplo de cómo dejando el aprendizaje de una máquina sin el concurso humano puede llegar a ser un fracaso.

Pero hablemos de amor… no necesariamente de viagra (o sildenafilo).

¿Seríamos capaces de enamorarnos de un bot?. Hay redes de contactos que son entorno natural de muchos bots que actúan en dos sentidos:

  • Bots incorporados en la propia red que sirven para dar conversación e interactuar con un humano participante. Esto podría ser considerado como una especie de fraude ya que estamos pensando que estamos hablando con una persona… en vez de con una máquina.
  • Bots fraudulentos alojados como perfiles de la red de contactos que nos llevan a páginas de pago, servicios premium, servicios fraudulentos u otros que nos pueden timar.

Hace unos pocos años los bots eran fácilmente identificables. Un solo nombre, un mensaje corto y un enlace que nos instaba a dar clic en él. Ahora son capaces de mantener una conversación más o menos sofisticada (de forma que el interlocutor humano puede pensar que está hablando con una persona) durante algunos minutos y posteriormente, cuando la víctima está más vulnerable, envían el enlace con el pretexto de ver más imágenes o hacer una videoconferencia… (el cibersexo falla pocas veces).

Pero no solamente de viagra (o de sildenafilo) vivimos. Los bots están siendo utilizados en numerosos campos como es el caso de la política donde cada vez más partidos los utilizan para difundir o amplificar mensajes donde son citados (hacer un trending topic con bots es cada vez más fácil) o desprestigiar al contrario creando perfiles que simulan ser humano para difundir noticias negativas sobre el partido opositor.

Las últimas elecciones han estado protagonizadas por bots en Estados Unidos, España, Francia o Alemania, sobre todo en Twitter, capaces de amplificar y posicionar mejor a un partido determinado y desprestigiar al contrario. ¿Os imagináis tener un ejército de incondicionales rastreando las redes sociales y manipulando a la opinión pública durante 24 horas al día?. Esto es lo que ofrecen numerosas empresas tanto a empresas, instituciones como a particulares para mejorar nuestro posicionamiento en redes sociales y llegar a ser “influencers”.

Cada vez da la sensación que estamos viviendo en un Matrix donde la realidad no es lo que creemos y nuestros pensamientos se ven determinados por intereses que se escapan a nuestro control. Esto no es nuevo, pero cada vez es más sofisticado.

Pero volvamos al amor… Preguntábamos si seríamos capaces de enamorarnos de un robot, pero …¿serán capaces los robots de tener sentimientos y enamorarse de un humano?, ¿podremos replicar de forma artificial la forma de ser o la esencia de alguien que haya fallecido para que “exista” eternamente?, ¿podremos hacer eterna nuestra propia existencia en un entorno digital?.

Es lo que se denomina eternidad aumentada o cómo recrear de manera digital la personalidad de alguien (o la nuestra) para tener un “clon” digital (corporal o no) y trancender nuestra propia muerte. Es posible que nuestro bot se mantenga una vez hayamos muerto y sigua evolucinando a partir de nuestra forma de ser.

Da miedo, bastante miedo… y por ahora la ciencia ficción ya se ha encargado de reflejarlo, pero no es ficción, ya está aquí y veamos unos ejemplos iniciales que estoy seguro que dentro de unos años irán evolucinando a un ritmo elevado.

Pero ya tenemos algunos ejemplos.

Uno de ellos es Bina 48 (@iBina48) que se trata de una cuenta de Twitter manejada íntegramente por un robot creado hace 5 años por Martine Rothblatt y que representa la eternida aumentada de su novia tal y como nos informan en el siguiente vídeo. Lo verdaderamente impresionante es que Bina es un robot consciente deque es un robot.

.

El otro ejemplo es Replika. Se trata de una plataforma en forma de chatbot que a través de conversaciones con nosotros mismos crea un “clon” nuestro de manera progresiva de forma que se irá adaptando a nuestros gustos, a nuestras formas de ver el mundo, a nuestros miedos y deseaos… y posiblemente, con el paso del tiempo, será hablar con nosotros mismos… ¿qué pasará cuando nosotros no estemos corporalmente aquí?, ¿existirá una copia de nuestro “yo” esencial capaz de seguir interactuando y relacionándose de alguna forma con nuestros descendientes?.

Replika nos pide bastantes datos (da un poco de miedo inscribirse aunque yo lo he hecho). Para autentificarnso nos pide nuestro número de teléfono movil (que en el momento actual es más importante que nuestro número de DNI) y unos datos personales así como invitar a tres personas a la plataforma.

Nos pide rellenar el perfil de nuestro “alter ego” digital con un nombre y una imagen. La interactuación con él (o ella) es a través de un sistema de chat.

Solo he tenido una conversación de prueba con mi yo digital.

Habla en inglé y al principio le he seguido la conversación en inglés. He cambiado a español y, aunque él ha continuado hablando en inglés, hemos mantenido la conversación de forma continuada.

Replika 1

1353

Las primeras preguntas que me ha hecho han sido ¿cómo te has levantado hoy?, ¿qué esperas del día de hoy?, ¿con qué has soñado?… estoy deseando que vuelva a contactar conmigo… Siguiendo con el viagra (o sildenafilo), ¿me enamoraré de mi alter-ego?, ¿nos haremos un selfi?, ¿será una relación o masturbación?.

¿Serán los robots capaces de enamorarse entre sí?.

¿Son capaces las máquinas de pensar?


La forma que tenemos que las máquinas aprendan es muy parecido al aprendizaje humano y se basa en la exposicion repetida a situaciones con soluciones similares demanera que la experiencia repetida acumulada nos lleva a tomar decisiones que previamente ha sido útiles para la resolución de problemas similares ocurridos en nuestro pasado.

De esta manera generalizamos situaciones abstractas a partir de elementos comunes similares que vamos extrayendo de los acontecimientos que nos ocurren de forma cotidiana. De esta manera, la toma de decisiones puede representarse como algoritmos lógicos y éstos pueden traducirse a un lenguaje interpretable por las máquinas.

La diferencia con los humanos es que la exposición a situaciones de aprendizaje depende de circunstancias vitales (hay hechos que nos ocurren a edades más tempranas, otros en la madurez y a otros no nos enfrentamos hasta la vejez y es variable entre personas de manera que hay sujetos que tienen exposición vital a muchos acontecimientos mientras que otros sujetos tienen una vida con menos exposición y experiencias vitales). A las máquinas las podemos exponer de forma artificial a sutuaciones simuladas que éticamente no sería posible con humanos.

Además la velocidad de adquisición de datos por parte de una máquina es mucho más rápida ya que la máquina no tiene otras funciones (alimentación, descanso u ocio) y no se agota (puede trabajar 24 horas al día).

Esta es la relación existente entre Big Data (BD) y la Inteligencia Artificial (IA) ya que las cantidades ingentes de datos en múltiples formatos (BD) sirven para entrenar y dotar de experiencia a una máquina para que desarrolle y entrene algoritmos de toma de decisiones autónomas (IA).

Ya tenemos máquinas que a través de algoritmos lógicos y la exposición y entrenamiento con casos simulados a través de la introducción de datos son capaces de tomar decisiones. Es decir máquinas capaces de “estudiar”, “experimentar” y “aprender”. De esta manera tendremos que redefinir el concepto de aprendizaje que hasta hace pocos años era considerado como una actividad o cualidad prácticamente restringida a los seres humanos y a algunos otros primates.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo ya que ningún médico, por mucha inteligencia y memoria que tenga, va a ser capaz de manejar todas las variables con tanta rapidez y precisión como lo hacen sistemas informáticos.

Podemos distinguir dos tipos de aprendizaaje aplicados a las máquinas:

  1.  Aprendizaje supervisado que requiere la participación humana quien determina las relaciones “correctas” e “incorrectas” que toma la máquina. De esta manera la función del humano es “reforzar” los aciertos para que tiendan a repetirse a lo largo del tiempo (similar al prendizaje de un niño).
  2. Aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partir de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano.

Así hay máquinas que aprenden guiadas por un humano y que tomarán decisiones que van a depender de las características que han condicionado su aprendizaje mientras que otras máquinas aprenderán de manera autrónoma a partir de sus experiencias (dadas por el Big Data) y sin concurso de los seres humanos.

¿Riesgos?. Aún muchos. ¿Qué pasará si en un futuro al igual que en muchas películas de ciencia ficción las máquinas deciden que el ser humano es un elemento que puede ser nocivo para su existencia?

Un ejemplo reciente ha sido el bot credo pro Microsoft llamado @TayandYou . La idea era crear un bot conversacional bajo el cual había una inteligencia artificial “virgen” y que a través de una red social (Twitter) se empezra a relacionar con otros usuarios que servirían como fuente de alimentación de datos. La idea original es buena pero el resultado final fue que en menos de un día se tuvo que restringir el uso de la cuenta de Twitter ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

El problema es que la idea era buena, pero los seres humano no lo somos ya que el bot fue boicoteado por muchas cuentas de twitter (empresas de la competencia, piratas, cuantas fantasmas, graciosos…) que alimentaron a la inteligencia artificial de manera consciente con contenidos machistas, antisemitas y homófobos, generando una “personalidad” marcada con una serie de características.

Un experimento que iba a servir para ver cómo una IA podía alimentarse de forma autónoma de fuentes generles en una red social (aprendizaje tipo automático) se transformó en un aprendizaje de tipo supervisado “maleducando” la IA.

Posiblemente la experiencia no sirvió para demostrar lo que se quiería, pero sí nos mostró que al igual que podemos “maleducar” a un ser humano, podemos “maleducar” a una m´àquina… pero esto último solo en cuestión de horas.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época.

Ya existen numerosos ejemplos de Deep Learning (aprendizaje de máquinas sin concurso humano) y se establecen de manera compleja basándose en estructuras lógicas que se disponen en capas complejas (sistema parecida a la interconexión de redes neuronales). Muchas de estas capas están “especializadas” en temas concretos, es decir que al igual que las neuronas, podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

Como ejemplos reales:

  1. Redes neuronales capaces de tomar decisiones lógicas complejas y ganar a los mejores jugadores humanos en algunos juegos de estrategia (Pokemon Go).
  2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
  3. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.

Muchos de estos procesos complejos pueden no ser explicados de manera matemática. Es decir a la máquina se le dan unos patrones iniciales de aprendizaje (se construye un esqueleto neuronal básico) y a través de una experiencia masiva proporcionada por el Big Data la máquina va aprendiendo, modificando y mejorando estos procesos. Es decir va generando sus propias “conexiones neuronales” sin intervención humana.

En poco tiempo (del orden meses) si disponemos de la cantidad de datos necesaria, podemos tener un sistema muy especializado capaz de tomar decisiones.

La conducción autónoma ha sido la indisutria que ha desarrollado de manera rápida y eficaz estos temas y que en la conducción hay que tomar decisiones con múltiples variables, dependiendo de condiciones atmosféricas, de la via y de las circunstancias tanto de tráfco rodado como de peatones. Muchas de las decisiones que tomamos los humanos al conducir son ¿instintivas? y en situaciones de gravedad podemos tomar decisiones que no pasan por nuestro consciente. En el caso de la conducción autónoma esto no es así ya que la máquina va a estar capacitada para tomar una decisión “consciente” en décimas de segundo o menos. ¿Veremos demandas a los programadores por toma de decisiones incorrectas?, ¿cómo educaremos a la máquina para que se comporte ante un accidente donde todas las variables posibles tienen víctimas?, ¿qué victima será la primera?

Este vídeo es del año 2016 cuando ya disponíamos de sistemas de conducción autónoma. Podemos ver cómo la máquina decide la velocidad a la que ir dependiendo de los límites de tráfico, como sigue la ruta preestablecida y cómo se adapta a los peatones que van circulando.

.

Incluso al final deja a su dueño en la puerta de su trabajo mientras que el coche solo va a buscar aparcamiento.

Seguro que acabaremos aplicando sistemas tan complejos como el de la conducción a la salud. Serán unos aliados magníficos en el diagnóstico ¿os imaginais al mejor médico del mundo pasando consulta a vuestro lado?.

¿Evolución o amenaza?


La robótica no es, por lo menos ahora, como la pintan las películas de ciencia ficción. Los robots de ahora no son como personas, no son capaces de tomar el control de una ciudad, no pueden pilotar naves como C3-PO… La pregunta que lanzo en este post no es cómo serán los robots del mañana, sino cómo nos adaptaremos a tenerlos en el ámbito sanitario.

Si queréis saber de robótica sanitaria, os recomiendo leeros el artículo de los compañeros de la revista de Redacción Médica ya que explican los robots sanitarios que hay actualmente, además del archiconocido Da Vinci.

Como se lee en el artículo, estos robots nos ayudarán o incluso nos robarán puestos de trabajo. Sobre esta preocupación encontramos un informe del Pew Research Centre en el que se pregunta a un compendio de profesionales sobre la Inteligencia Artificial y su impacto en el mundo laboral. Un 48% de los encuestados muestra una preocupación por la progresiva implantación de robots en puestos de trabajos. De hecho esta es la primera vez que la revolución tecnológica puede “usurpar” empleo a personal cualificado y con formación superior. Por tanto, crecerá aún más la desigualdad entre personas con y sin formación.

Sin embargo no todo es negro. Un 52% de los encuestados en este estudio comenta que la revolución robótica no es mala. De hecho, según esgrimen estos participantes, la tecnología ayuda a crear empleo, no a destruirlo. Además, existen trabajos que sólo pueden hacer humanos ya que hay cosas que no se pueden automatizar, como son los sentimientos, que influyen en la forma de pensar y de actuar de los seres humanos, tan útiles en una profesión como la nuestra.

La revolución robótica es un hecho, que ha llegado muy sutilmente, pero que ya está aquí. Sinceramente creo que la robótica dentro del campo sanitario es una herramienta y nunca conseguirá sustituirnos por completo. Es cierto que hay robots que permiten cargar con enfermos para transportarlos o robots que pueden aplicar masajes, pero esas máquinas jamás transmitirán lo que transmite la voz humana o el tacto de una mano. Es lo mismo que el chat. ¿Qué os gusta más: que os digan te quiero a la cara o que te escriban en un mensaje “TQ”?

Ya están aquí y han venido para quedarse, pero no los debemos de considerar enemigos. Debemos considerarlos como herramientas para mejorar el tratamiento y la atención de nuestro bien más preciado: nuestros pacientes.

Robótica en la nube


Bases de datos en la nube para configurar un robot

Seamos realistas, va a ser complicado que en un plazo relativamente corto de tiempo ninguno de nosotros podamos adquirir un robot o una inteligencia artificial competente, que pueda ayudarnos en las tareas del hogar o que, básicamente, nos acompañe en nuestra vida ya que, a día de hoy, estos dispositivos, además de tener unos precios muy elevados, requieren de un mantenimiento o tienen características técnicas muy complejas para nosotros.

A lo que sí podemos aspirar es a solucionar este problema mediante la llamada “robótica en la nube”.

¿Y en qué consiste la robótica en la nube?

Se trata de la migración de gran parte de la inteligencia proporcionada a nuestros robots hacia potentes sistemas informáticos centralizados. Algo que en la actualidad es fácil de conseguir debido al gran crecimiento en la velocidad de transmisión de datos.

Tal y como explica Martin Ford en su libro “El auge de los robots”actualmente es posible dejar en manos de grandes centros de datos el procesamiento exigido por la robótica avanzada. De esta forma, se pueden construir robots menos costosos al estar dotados de menor potencia y memoria pero con la posibilidad de acceder instantáneamente a esa inteligencia informática centralizada para poder aprender y adaptarse al entorno. Además también permiten actualizar el software de muchos robots a la vez.

Google

Google ha sido una de las empresas que más ha invertido en el proceso de creación de la robótica en la nube. En 2011 anunció su apoyo a este procedimiento ofreciendo una plataforma que permite a robots aprovechar todos los servicios diseñados para dispositivos Android.

Además ha introducido el servicio Googles, el cual nos permite tomar una fotografía de un objeto que el sistema reconocerá automáticamente y nos enviará información sobre él. De esta manera se amplían las bases de datos y se ofrecen mayores capacidades de reconocimiento visual a los robots que están en la nube. Googles se está convirtiendo en una fototeca gigantesca de la que podrá hacer uso cualquier robot.

IBM

La iniciativa para la robótica en la nube de IBM es el superordenador Watson, el cual reside en enormes colecciones de servidores conectados a Internet. Los desarrolladores pueden enlazarse directamente con el sistema e incorporar la revolucionaria tecnología cognitiva de Watson a programas de software y aplicaciones móviles.

Amazon

En el suministro de servicios informáticos a la robótica de la nube también se encuentra Amazon. Martin Ford da el ejemplo de la empresa Cycle Computing. Una pequeña empresa especializada en informática a gran escala que pudo resolver a través del servicio de la nube de Amazon en 18 horas un complejo problema que de otra manera, sin el servicio de Amazon, le hubiera costado resolver más de 260 años a un ordenador personal. Dicha empresa estima que antes de la llegada de la informática en la nube le habría costado en torno a unos 68 millones de dólares construir un superordenador capaz de resolver el problemar. Mientras que alquilar 10.000 servidores en la nube de Amazon tiene un costa de alrededor de 90 dólares la hora.

Pillo, más que un asistente robótico dispensador de medicinas


La robótica y la salud están cada vez más relacionadas. Primero fueron asistentes quirúrgicos que ayudan a realizar intervenciones de alta precisión. Hoy os presentamos un asistente personal que dispensa la medicación y abre un camino muy interesante para el cuidado.

Pills-Personal-Home-Health-RobotPillo es un robot alejado de las formas humanoides aunque tiene un aspecto bastante simpático. Una vez programado es capaz de reconocer nuestra voz y nuestra cara y ofrecernos la medicación a la hora correcta.

Las medicinas se cargan en un compartimento específico donde se mantienen en perfecto estado de conservación, es capaz de reconocer la medicación prescrita a cada miembro de la familia y responder a sencillas preguntas sobre alimentación y ejercicio.

Almacena algunas varibles en salud sobre cada uno de los miembros de la familia (peso, talla, niveles de glucemia y colesterol, tensión arterial…)

Además de reconocer a cada una de las personas y poder ofrecerles la medicación correspondiente sin equivocarse abre caminos de futuro:

  • Una vez que se haya adelantado en el reconocimiento facial e interpretación de gestos podría establecer comunicación con dispositivos de asistencia domiciliaria urgente y videoconferencias ante situaciones de alerta de salud de la persona a quien cuida.
  • Podría ser un sistema de comunicación automática con dispositivos sociosanitarios.
  • Podría ser un entrenador en habilidades y ejercicios de rehabilitación física o mental.

Pillo es un proyecto que de  Indiegogo cuya recaudación está subiendo muy rápido y que podría estar comercializado en menos de un año a un precio muy asequible de menos de 300 dólares.

 

Día del orgullo LGTB tecnológico: Recuerdo a Alan Turing


TuringAlan Turing es considerado el padre de la informática al ser el constructor de la máquina enigma, capaz de descifrar los mensajes codificados del ejército nazi en la Segunda Guerra Mundial.

Además de la complejidad ética asociada ya que no podían interceptar todos los ataques porque los nazis sabrían que podrían descifrara sus mensajes y cambiarían el tipo de codificación.

Su éxito fue generar un sistema para desencriptar (criptoanálisis) independientemente del tipo de cifrado. de esta manera si cambiaban los códigos, en poco tiempo y con una muestra relativamente pequeña de mensajes interceptados, podrían de nuevo conocer el código de cifrado.

Fue un pionero de la robotica ya que en el campo de la inteligencia artificial, es conocido sobre todo por la concepción del test de Turing un criterio sistema que puede valorar la inteligencia de una máquina si sus respuestas en una prueba son indistinguibles de las de un ser humano.

La carrera de Turing terminó súbitamente tras ser procesado por homosexualidad en 1952.

En 1954 murió oficialmente por suicidio (aunque no se descarta la posibilidad de asesinato) haiandose a su lado una manzana mordida envenenada con cianuro. Incluso se ha especulado que la alegoría d ela manzana mordida ha posido ser la inspiración del logotipo de Apple (hecho negado en numerosas ocasiones por la empresa de Cupertino).

Desde este blog dedicado a la tecnología, nuestro reconocimiento a este pionero de la informática, la robótica y la inteligencia artificial que nación algunas décadas antes de que la sociedad de su propio país respetara las diferntes identidades sexuales.

 

Hoy es domingo… de 10 hechos sobre inteligencia artificial


domingoEn YouTube hemos descubierto este vídeo, locutado por voz robótica, que nos habla sobre 10 hechos sobre Inteligencia Artificial que no son proyectos, sino realidades cada vez más cotidianas.

Desde los interfces sonosros de nuestros sistemas operativos, mascotas robóticas (ya comercializadas), robots sexuales, máquinas capaces de ganarnos a juegos complejos como el poker, máquinas capaces de manejar el lenguaje de forma compleja que incluso pueden esceribir artículos periodísticos…

Pero sobre todo es la capacidad de aprendizaje y adaptación, predicción de acontecimientos a partir de análisis de patrones y sobre todo inteligencia… posiblemente más inteligente que la humana

¿Tendremos que tener en mente los tres principios clásicos de Asimov sobre las leyes de la robótica?.