Máquinas pensantes I: Machine Learning aprendizaje automático

Inteligencia-artifical.jpg

Actualmente existen algoritmos para que las máquinas empiezen a pensar y a tomar decisiones. No se trata de ciencia ficción, sino de una realidad que está presente actualmente y poco a poco va a ir ocupando espacios cotidianos en nuestra casa, en nuestros vehículos y también… en salud.

El sistema de aprendizaje de máquinas es similar a cómo los humanos aprendemos. Nos exponemos a situaciones repetidas que tienen soluciones similares y poco a poco, a través de nuestra experiencia empezamos a tomar decisiones.

Este paso de un caso a un pensamiento abstracto y más global que nos permite extraer elementos comunes de casos concretos (y poder generalizarlos) y crear respuestas similares ante situaciones similares lo vamos aprendiendo a lo largo de nuestra vida. La toma de decisiones supone un pensamiento lógico que puede ser transcrito a algoritmos y éstos pueden transcribirse a un lenguaje que las máquinas pueden interpretar.

El aprendizaje humano es progresivo y se desarrolla a partir de la exposición a situaciones de forma consecutiva. Es decir vamos adquiriendo datos poco a poco.

La adquisición de estos datos por parte de una máquina es mucho más rápida ya que la máquina no se agota (puede trabajar 24 horas al día), no tiene funciones vitales (alimentación, descanso u ocio). De esta forma podemos relacionar el Big Data (cantidades ingentes de datos en múltiples formatos) con la “alimentación” y dotar de experiencia a una máquina.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo.

En el aprendizaje de las máquinas exiten dos tipos de métodos. El primero de ellos se llama aprendizaje supervisado y requiere la participación de un humano que determina las relaciones correctas e incorrectas que toma la máquina. La función del humano es “reforzar” los aciertos de forma que una acción reforzada tiene a repetirse a lo largo del tiempo (de forma muy parecida a cómo ejercen los adultos su función de refuerzo ante el aprendizaje de un niño).

El segundo método es el aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partri de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano. para ello son necesarios algoritmos iniciales y un pequeño entrenamiento supervisado. Una vez que la decisiones correctas alcanzan un número válido dentro del total de decisiones tomadas es cuando conectamos este sistema inteligente a un sistema de BigData para que esas experiencias afiancen los sistema de toma de decisiones (aprendizaje).

¿Riesgos?. Aún muchos.

Por ejemplo podemos poner el caso del bot @TayandYou creado por Microsoft. La idea era crear un bot conversacional que se relacionara con otros usuarios a través de Twitter y fuera aprendiendo de forma que dispusieran de un sistema inteligente capaz de relacionarse con usuarios humanos o con otros bots en esta red social. La idea era buena y se decidió que no existiera intervención humana para ver qué mensajes se podían considerar “buenos” y cuales “malos”. El resultado final es que en menos de 24 horas tuvieron que restringir el uso de la cuenta de Twitter que alimentaba al bot ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

¿Qué ocurrió?, El bot fue conectado a través de una red social para que aprendiera de las interacciones con otros usuarios sin intervención humana inicial. Al ser conocedores de ésto hubo cuentas de Twitter que establecieron conversaciones con este bot y lo boicotearon alimentando su inteligencia con contenidos homófobo, machista y antisemita. De esta forma el aprendizaje de este bot se realizó en este entorno  y se creó su “personalidad”.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época

 

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s