¿Son capaces las máquinas de pensar?


La forma que tenemos que las máquinas aprendan es muy parecido al aprendizaje humano y se basa en la exposicion repetida a situaciones con soluciones similares demanera que la experiencia repetida acumulada nos lleva a tomar decisiones que previamente ha sido útiles para la resolución de problemas similares ocurridos en nuestro pasado.

De esta manera generalizamos situaciones abstractas a partir de elementos comunes similares que vamos extrayendo de los acontecimientos que nos ocurren de forma cotidiana. De esta manera, la toma de decisiones puede representarse como algoritmos lógicos y éstos pueden traducirse a un lenguaje interpretable por las máquinas.

La diferencia con los humanos es que la exposición a situaciones de aprendizaje depende de circunstancias vitales (hay hechos que nos ocurren a edades más tempranas, otros en la madurez y a otros no nos enfrentamos hasta la vejez y es variable entre personas de manera que hay sujetos que tienen exposición vital a muchos acontecimientos mientras que otros sujetos tienen una vida con menos exposición y experiencias vitales). A las máquinas las podemos exponer de forma artificial a sutuaciones simuladas que éticamente no sería posible con humanos.

Además la velocidad de adquisición de datos por parte de una máquina es mucho más rápida ya que la máquina no tiene otras funciones (alimentación, descanso u ocio) y no se agota (puede trabajar 24 horas al día).

Esta es la relación existente entre Big Data (BD) y la Inteligencia Artificial (IA) ya que las cantidades ingentes de datos en múltiples formatos (BD) sirven para entrenar y dotar de experiencia a una máquina para que desarrolle y entrene algoritmos de toma de decisiones autónomas (IA).

Ya tenemos máquinas que a través de algoritmos lógicos y la exposición y entrenamiento con casos simulados a través de la introducción de datos son capaces de tomar decisiones. Es decir máquinas capaces de «estudiar», «experimentar» y «aprender». De esta manera tendremos que redefinir el concepto de aprendizaje que hasta hace pocos años era considerado como una actividad o cualidad prácticamente restringida a los seres humanos y a algunos otros primates.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo ya que ningún médico, por mucha inteligencia y memoria que tenga, va a ser capaz de manejar todas las variables con tanta rapidez y precisión como lo hacen sistemas informáticos.

Podemos distinguir dos tipos de aprendizaaje aplicados a las máquinas:

  1.  Aprendizaje supervisado que requiere la participación humana quien determina las relaciones «correctas» e «incorrectas» que toma la máquina. De esta manera la función del humano es “reforzar” los aciertos para que tiendan a repetirse a lo largo del tiempo (similar al prendizaje de un niño).
  2. Aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partir de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano.

Así hay máquinas que aprenden guiadas por un humano y que tomarán decisiones que van a depender de las características que han condicionado su aprendizaje mientras que otras máquinas aprenderán de manera autrónoma a partir de sus experiencias (dadas por el Big Data) y sin concurso de los seres humanos.

¿Riesgos?. Aún muchos. ¿Qué pasará si en un futuro al igual que en muchas películas de ciencia ficción las máquinas deciden que el ser humano es un elemento que puede ser nocivo para su existencia?

Un ejemplo reciente ha sido el bot credo pro Microsoft llamado @TayandYou . La idea era crear un bot conversacional bajo el cual había una inteligencia artificial «virgen» y que a través de una red social (Twitter) se empezra a relacionar con otros usuarios que servirían como fuente de alimentación de datos. La idea original es buena pero el resultado final fue que en menos de un día se tuvo que restringir el uso de la cuenta de Twitter ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

El problema es que la idea era buena, pero los seres humano no lo somos ya que el bot fue boicoteado por muchas cuentas de twitter (empresas de la competencia, piratas, cuantas fantasmas, graciosos…) que alimentaron a la inteligencia artificial de manera consciente con contenidos machistas, antisemitas y homófobos, generando una «personalidad» marcada con una serie de características.

Un experimento que iba a servir para ver cómo una IA podía alimentarse de forma autónoma de fuentes generles en una red social (aprendizaje tipo automático) se transformó en un aprendizaje de tipo supervisado «maleducando» la IA.

Posiblemente la experiencia no sirvió para demostrar lo que se quiería, pero sí nos mostró que al igual que podemos «maleducar» a un ser humano, podemos «maleducar» a una m´àquina… pero esto último solo en cuestión de horas.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época.

Ya existen numerosos ejemplos de Deep Learning (aprendizaje de máquinas sin concurso humano) y se establecen de manera compleja basándose en estructuras lógicas que se disponen en capas complejas (sistema parecida a la interconexión de redes neuronales). Muchas de estas capas están «especializadas» en temas concretos, es decir que al igual que las neuronas, podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

Como ejemplos reales:

  1. Redes neuronales capaces de tomar decisiones lógicas complejas y ganar a los mejores jugadores humanos en algunos juegos de estrategia (Pokemon Go).
  2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
  3. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.

Muchos de estos procesos complejos pueden no ser explicados de manera matemática. Es decir a la máquina se le dan unos patrones iniciales de aprendizaje (se construye un esqueleto neuronal básico) y a través de una experiencia masiva proporcionada por el Big Data la máquina va aprendiendo, modificando y mejorando estos procesos. Es decir va generando sus propias «conexiones neuronales» sin intervención humana.

En poco tiempo (del orden meses) si disponemos de la cantidad de datos necesaria, podemos tener un sistema muy especializado capaz de tomar decisiones.

La conducción autónoma ha sido la indisutria que ha desarrollado de manera rápida y eficaz estos temas y que en la conducción hay que tomar decisiones con múltiples variables, dependiendo de condiciones atmosféricas, de la via y de las circunstancias tanto de tráfco rodado como de peatones. Muchas de las decisiones que tomamos los humanos al conducir son ¿instintivas? y en situaciones de gravedad podemos tomar decisiones que no pasan por nuestro consciente. En el caso de la conducción autónoma esto no es así ya que la máquina va a estar capacitada para tomar una decisión «consciente» en décimas de segundo o menos. ¿Veremos demandas a los programadores por toma de decisiones incorrectas?, ¿cómo educaremos a la máquina para que se comporte ante un accidente donde todas las variables posibles tienen víctimas?, ¿qué victima será la primera?

Este vídeo es del año 2016 cuando ya disponíamos de sistemas de conducción autónoma. Podemos ver cómo la máquina decide la velocidad a la que ir dependiendo de los límites de tráfico, como sigue la ruta preestablecida y cómo se adapta a los peatones que van circulando.

.

Incluso al final deja a su dueño en la puerta de su trabajo mientras que el coche solo va a buscar aparcamiento.

Seguro que acabaremos aplicando sistemas tan complejos como el de la conducción a la salud. Serán unos aliados magníficos en el diagnóstico ¿os imaginais al mejor médico del mundo pasando consulta a vuestro lado?.

Seguridad, privacidad e inteorperabilidad


consejos_seguridad_ordenador--644x450.jpg

Cuando hablamos de datos sanitarios y salud (y hablamos mucho de ellos cuando se trata de BigData, inteligencia artificial o uso de wearables) la seguridad y la privacidad son temas fundamentales sobre todo cuando hemos sido testigos el pasado mes de mayo del primer ciberataque masivo por un ramsonware.

El pasado mes de mayo nos despertamos un día con la noticia de un atque masivo a nivel mundial por medio de un ramsonware (malware informático que encripta los archivos de un disco duro y pide un rescate a cambio). Estábamos en fin de semana y las noticias nos iban desvelando grandes empresas afectadas.

Es cierto que la entrada de este malware se debía a un fallo de seguridad de un sistema operativo. También es cierto que el fallo era conocido y que tuvieron tiempo desde su detección hasta el ataque de crear los parches de seguridad necesarios.

Las noticias nos alertaban que numerosos equipos sanitarios de sistema público de salud británico estaban afectados.

El lunes llegué a mi puesto de trabajo y por «necesidades técnicas» tuvimos restringido el acceso a la web y al correo electrónico durante una semana.

Si nos ponemso a pensar en un futuro próximo con numerosos servicios basados en datos y la cantidad de datos personales que están circulando en la red da miedo pensar lo que pueda pasar.

Ciudades inteligentes que pueden ser «secuestradas» o alterar toda su función a través de pequeños programas informáticos que pueden ir camuflados en cualquier adjunto de correo electrónico o en cualquiera de los archivos de intercambio continuo que hace nuestro navegador.

¿Podremos estar secuestrados en nuestra propia casa domótica?, ¿podrán secuestrar una ciudad entera o privarla de servicios fundamentamentales?. Cualquier elemento digital conectado a una red puede ser hackeable, hasta los coches inteligentes.

En el entorno de la BigData no existe problema ya que para analizar estas tendencias, en el campo que sea, no es necesario tener identificados los datos. Datos anonimizados engullidos por una inteligencia artificial virgen van a servir para entrenarla. Pero ¿podemos alterar las decisiones de esta inteligencia artificial a través de virus informáticos?.

Pero no solamente con la inteligencia artificial aparecen estos riesgos. Cada vez se habla más de interoperabilidad aplicada a la historia clínica digital. La interoperabilidad es la habilidad de dos o más sistemas o componentes para intercambiar información y utilizar la información intercambiada. (Institute of Electrical and Electronics Engineers. IEEE Standard Computer Dictionary: A Compilation of IEEE Standard Computer Glossaries. New York, NY: 1990.).

Esta característica, aplicada a la historia clínica, permite que cualquier dato introducido en la historia clínica del pacientes, en cualquier localización, sea integrado en todos los sistemas. Es decir, tendríamos casi una historia clínica única y accesible desde cualquier parte.

Llevado al extremo ideal, se podrían introducir variables de salud desde cualquier parte (domicilio del paciente, oficina de farmacia, centro de salud, hospital…) e incluso sin intervención humana (por ejemplo un glucómetro o un tensiómetro o cualquier otro aparato de medida, podría meter directamente la información si está conectado a la historia clínica). Incluso un wearable que midiera variables en salud (un podómetro, un calculador de calorías consumidas….) podría introducirlas.

Como gran ventaja es que no se perderían datos en salud que actualmente estamos perdiendo y esta medición de variables de manera más continuada y registrada prodría servir para predecir eventos futuros de alteración de la salud. Además se podrían transmitir estos datos a otros sistemas (si el paciente viaja o cambia de domicilio) o poddrían ser accesibles por  el propio paciente con un terminal.

Por otro lado tenemos flujos de datos, miles de flujos de datos que irían entre elementos conectados a los que daríamos autorización de forma que las vulnerabilidades del sistema serían mucho mayores.

¿Podemos permitirnos el riesgo de entradas de agentes nocivos en un sistema tan sensible como el que alberga los datos de salud de un población?

Esta última pregunta puede ser clave en el caso en que la salud vaya por estos caminos.

Sobre patatas fritas, redes sociales e inteligencia. Lo que tus datos dicen de tí


TED¿Te gustan las patatas fritas rizadas? ¿Les has dado un «me gusta» en Facebook?

A través de esta charla podemos descubrir cosas sorprendentes que pueden pasar con nuestra interacción en Facebook (y otras redes sociales) de forma que terceros pueden conocer numerosos datos sobre nuestra personalidad, gustos y vida.

Cosas inimaginables que la informática Jennifer Golbeck nos explica en esta conferencia TED en la que se pone de manifiesto cómo algunas aplicaciones de la tecnología no son tan inocentes como pensamos y esboza las estrategias de cómo devolver el control de la información a sus dueños legítimos.

Jenifer GolbeckJennifer Golbeck es profesora asociada del departamento de informática en la Facultad de Estudios de Información de la Universidad de Maryland. Su trabajo se centra en cómo mejorar la forma en que las personas interactúan con otrosd y con su propia información que vierten en las redes sociales.

Autora del libro «Analizando la Web Social», en la que se sumerge en el funcionamiento interno de las herramientas sociales de Internet que tantos millones de personas usan diariamente para comprender las implicaciones de nuestras elecciones y acciones.

Seguimos hablando de Big Data, redes sociales y el valor de la información (aparentemente inocente e intrascendente) que podemos verter en ellas.

Añadiendo valor: el smart data


La evolución de la tecnología es vertiginosa. Si bien hace poco que se conoce el concepto, aún desconocido para muchos, del big data, ya explicado aquí y en FamilyBlogger y otros millones de sitios, hoy os voy a hablar de un concepto más allá del big data: el smart data.

Para los poco entendidos en el big data, éste tiene cuatro conceptos que son su padre nuestro, las cuatro uves, que son: el volumen de datos, la velocidad con la que se toman y transfieren, la variedad de fuentes y la veracidad. Pues bien, el smart data añade una uve más: el valor de los datos. Es transformar todos los datos que nos aporta el big data en información de valor que podamos utilizar.

Realmente esto era el siguiente paso lógico en la evolución. El big data es una herramienta utilísima: recopila gran cantidad de datos y patrones y los almacena. Es básicamente lo que hace un médico en la anamnesis de un paciente cuando le pregunta por sus antecedentes personales, si es alérgico a algún fármaco, que tratamiento tiene, etc… Tenemos los datos, bien, has hecho un gran trabajo. ¿Y ahora qué? ¿Es importante para ti que un paciente que viene por un dolor abdominal le hayan intervenido hace doce años de la rodilla derecha? Tienes los datos, pero tú debes decidir qué es importante y cuál es irrelevante.

Esto es lo que pretende hacer con el smart data, decidir cuál de los datos obtenidos es o no es relevante para hacer una buena práctica, tanto médica como de cualquier ámbito.  Es hacer una lectura crítica de lo que tenemos.

Pero…

¿Puede ser esta herramienta la que extinga definitivamente a los médicos? Yo digo que no. Me niego rotundamente a creer esto. No lo va a ser porque, por mucho que piense y recopile una máquina, no tiene otras capacidades, como son la empatía, la cercanía, la relación personal entre un médico y su paciente… Pero nos va ayudar mucho. Nos va ayudar a obtener todos los datos de nuestro paciente, obtener datos de otros pacientes similares a nuestro paciente de estudios que se hayan realizado, va a cruzar esa información, vamos a tener algoritmos de cómo actuar… y, por si fuera poco, nos va a aportar información con valor. Esa es realmente la diferencia: el valor de la información que obtengamos. Porque este valor ocasiona que ofrezcamos a nuestro paciente una mejor atención.   

Visual Dx


 

visualVisualDx es un sistema de ayuda para la decisión clínica basado en un software para médicos. Se trata de una herramienta para la toma de decisiones rápidas y precisas. Permite elaborar un diagnóstico diferencial rápidamente para evaluar diferentes posibilidades, comparar variaciones y mejorar la precisión diagnóstica cuando se atiende a un paciente.

En uno de sus modos de funcionamiento, después que el médico introduce información del paciente (datos clínicos) VisualDx muestra una serie de opciones para ayudar en el diagnóstico.  El sistema contiene más de 100.000 imágenes.

VisualDx se usa en unos 1.500 hospitales y clínicas en EEUU y además también se está  utilizando para la enseñanza Facultades de Medicina norteamericana. Se distribuye como un servicio de suscripción mensual con una prueba gratuita de 30 días.

 

Bots, salud, Big Data… y cine


Una combinación de futuro. Los bots pueden ser una vía de exploración de futuro para la salud. La big data también. ¿Qué pasará si los combinamos?.

big dataCrear un sistema de inteligencia artificial capaz de ir aprendiendo de forma progresiva y que sea capaz de toma de decisiones al que le vamos alimentando de conocimientos teóricos reales (conectado a una base de datos de publicaciones científicas) y de datos reales de pacientes (procedentes de fuentes clínicas) … ¿llegaría a tener capacidades de diagnóstico?.

Posiblemente sí.

¿Sustituiría el papel de una persona?. Posiblemente no ya que el contacto humano es insustituible por mucha interfaz humanoide que tenga nuestro bot.

¿No os gustaría tener un «amigo» así en la consulta?. Posiblemente fuera un poco «listín repelente» pero indudablemente de gran ayuda.

Se plantean numerosos problemas éticos:

  1. Cuando aún no tenemos claros temas de confidencialidad y privacidad… ahora toman unos matices diferentes ¿estaríamos dispuestos a ceder nuestros datos para que estos robots fueran capaces de aprender? (la cantidad de datos dentro de una big data para que puedan ir desarrollando conexiones lógicas es muy, muy, muy grnade), ¿en caso de desarrollarse un proyecto de este tipo y viendo el beneficio global sería ético negarse a cederlos?, ¿podría la institución sanitaria cederlos o utilizarlos sin necesidad del permiso explícito de cada uno de nosotros?.
  2. Puede pasar que nuestro sistema inteligente sea capaz de apreciar patrones que aún los seres humanos no hemos relacionado e incluso adelantarse a diagnósticos. Esta situación estaría muy bien ya que nos permitiría poder estar más vigilantes o actuar de antemano antes de que se produzca una situación concreta… pero ¿si el problema es que nos encontramos ante una persona con más de un 90% de tener un brote esquizofrénico que tiene un 90% de probabilidades de presentarse de forma agresiva?, ¿podremos hablar de presonalidades predelincuentes?, ¿de detenciones preventivas antes de que se cometan delitos?…. ¿no os suena una escena de una película?

Otras películas nos hablan sobre los dilemas que nos puede generar la Inteligencia Artificial.

TED. Talithia Williams: Se el dueño de los datos de tu cuerpo


TED3La Dra. Talithia Williams es profesora asociado de matemáticas en el Harvey Mudd College. Ha participado en investigaciones ty trabajado en instituciones estadounidenses tan importantes como el Laboratorio de Propulsión a Chorro (JPL), la Agencia Nacional de Seguridad (NSA), o la NASA.

Esta matemática se encarga del desarrollo de modelos estadísticos que hacen hincapié en la estructura espacial y temporal de los datos con aplicaciones ambientales. Ha sido premiada por el desarrollo de un modelo utilizado para predecir la tasa de cirugía de catarata para los países en desarrollo de África.



Big Bang Data. Big Data Art


 

artdata

Vídeo de la exposición Big Bang Data

Efectos visuales y animación para el documental  «Big Data» (2014) dirigido por Sandy Smolan, directores artísticos Hasmik Mkhchyan, Artashes Stamboltsyan, producido por Triada Studio.

El arte de la visualización de los datos.

TED. Joel Selanikio: Las sorprendentes semillas de la revolución del Big Data


TED3La recopilación de datos de salud a nivel mundial era una ciencia imperfecta hasta hace una década. Los trabajadores sanitarios recogían numerosos datos en papel que no podían ser relacionados entre sí ni transmitidos a otros niveles asistenciales.

La información pertenece a los sanitarios y no de forma universal, y no va acompañando al ciudadano.

Desde hace unos años y gracias a la tecnología el dato es compartible y universal y podemos hacerlo accesible a quienes tengan el permiso de acceso. Se trata de una realidad que si no se encuentra en nuestra vida cotidiana como profesionales sanitarios o como ciudadanos usuarios del sistema de salud no es por falt de conocimiento técnico, sino de voluntades ajenas a la evolución de la tecnología.

Actualmente, al menos en la Comunidad de Madrid, el acceso a la información a través de visores lo confunden nuestros gestores con el acceso al dato. Poder leer un documento no significa compartir una variable o un dato, el acceso a la información no es lo mismo que el acceso a la variable… que no se confundan y que no nos confundan.

Joel SelanikioOs dejamos una reflexión de TED x Austin de Joel Selanikio un pediatra en ejercicio, ex consultor informático de Wall Street, y el ex epidemiólogo de los Centros para el Control de Enfermedades (CDC). Actualmente es el CEO de DataDyne, una empresa que trabaja en campos como el desarrollo internacional y la salud mundial.

BigBang Data: Somos Arte


En BigBang Data hemos encontrado arte. Arte para reflexionar, arte a partir de datos, a partir de nuestros datos, de las representaciones de nuestras vidas, de nuestras actividades o de nosotros mismos a partir de datos que ofrecemos y mostramos en Internet.

24 HRs in photos | Erik Kessels

La instalación está formada por un mar de fotografías impresas que corresponden a las imágenes subidas a Flickr en un periodo de 24 horas. Más de un millón de imágenes impresas y almacenadas para que podamos hacernos una idea de los que supone este volumen de información diaria que compartirmos.

24hrsinphotos

Hello World! | Christopher Baker

Christopher Baker es un artista cuya obra explora la diversas redes sociales, tecnológicas e ideológicas presentes en el paisaje urbano contemporáneo, generando situaciones que revelan las relaciones dentro de esas redes. Cristopher P. Baker presenta un collage formado por miles de videodiarios hallados online, en cada uno de los cuales aparece una persona hablando desde su entorno doméstico. Baker invita a meditar sobre la supuesta visibilidad que Internet como espacio de participación, y sobre cómo esta voluntad de hacer de las redes un espacio de democratización fracasa ante el exceso de voces y la incapacidad de atenderlas individualmente.

World Processor | Ingo Günther

World Processor es un proyecto iniciado en 1988 que consiste en una serie de globos terráqueos que reflejan gráficamente más de 300 temas, con información válida en el momento de su creación. La serie comprende más de 1.000 piezas –algunas se han roto–, en las que el globo terráqueo aparece como medio para el arte y el periodismo al mostrar, mediante la representación en el mapa, datos sobre temas políticos, económicos, geográficos, sociales, históricos, medioambientales y tecnológicos, entre otros.

Vida sexual de una parella estable | Jaime Serra

Esta imagen representa la vida sexual que el autor y su mujer han mantenido durante el año 2010. La pareja tipificó las prácticas sexuales que mantienen habitualmente y anotaron en un calendario los días en que mantenían relaciones y el tipo según su propia clasificación. Para llevar a cabo la representación formal se trazó una línea negra para cada día del año, dividiendo cada una de las 365 líneas en 7 líneas más finas que representarían cada una de las prácticas mediante el uso de un color diferente.

jaime-serra-vida-sexual-pareja_01-770x380