Avances tecnológicos antes de la mitad del siglo XXI


Un nuevo año acaba de terminar y con él nos planteamos nuestro futuro aplicado a lo personal y a lo social. Hemos decubierto en YouTube un vídeo que nos muestra la visión de más de 800 expertos en ciencia y tecnología aplicada a los avances tecnológicos de los próximos 10-15 años.

Una serie de 800 expertos que acudieron al Foro Económico Mundial celebrado entre el 17 -20 de enero de 2017 en Davos-Klosters, Suiza; fueron entrevistados para que nos predijeran el futuro inmediato sobre la evolución tecnológica en temas como sensores, salud, telefonía movil, desarrollo de internet, robótica e inteligencia artificial.

El cine de ciencia ficción al que estamos acostumbrados a través de las grandes (o pequeñas) producciones ha acertado en muchas de sus visiones. Pero esta no es una aproximación desde la ficción, sino desde la realidad de los avances alcanzados haciendo una proyección hacia el futuro.

  1. Robótica: Ya tiene un impacto en la sustitición de trabajadores mecánicos en cadenas de producción de ciertas industrias como la automovilística (“blue collar industries”). La evolución de la robótica va a hacer que trabajadores más especializado puedan ser sustituidos por máquinas. El problema de esta situación que se nos plantea desde una visión global es que el detrimento de trabajadores (y salarios) va a tener un impacto negativo en el consumo según las leyes de la economía actua de mercado capitalista. Esta revolución tecnológica tiene que ir acompañada de una revolución social (política-económica) que pueda solucionar el problema de la mayor cantidad de tiempo libre que tendremos los seres humanos al ser relegados de tareas mecánicas y el menor nivel económico que puede hacernos inasequibles productos construidos por empresas que solo tienen máquinas entre sus empleados.
  2. Sensores: El desarrollo de sensores va a ser muy importante en las próximas décadas. Tendremos pequeños complementos capaces de detectar cambios en variables físicas y biológicas con gran implicación en el denominado Internet de las Cosas (IoT) y en la salud. Esta medición y análisis de variables a lo largo del tiempo combinado con inteligencia artificial va a revolucionar nuestro entorno doméstico, transporte, capacidad predictva de enfermedades. Se prevee la conexión de más de un trillón de sensores a Internet con el riesgo de la privacidad de la información que se pueden obtener de sus resultados (hábitos de vida, variables de salud…).
  3. Tecnología aplicada a la medicina: En este reportaje dan especial importancia a la impresión 3D. Posiblemente por ser la tecnología que irrumpió en el año en que se produjo el vídeo y se realizaron las entrevistas, pero surgirán nuevos avances posiblemente de mayor impacto. Aún así, nos recuerdan en el vídeo la importancia de esta tecnología en los futuros trasplantes de órganos.
  4. Internet: Como predicción aplicada a la propia red Internet consideran un aspecto más social que tecnológico indicando que su acceso será un derecho para todos los habitantes.
  5. Telefonía movil: Como predicción se orienta a sistemas de comunicación implantables que podremos llevar en nuestro propio organismo y a la posible comunicación a través del pensamiento con transmisión de nuestra ideas… ¿peligros?, todos.
  6. Automóviles: Una nueva predicción más social que tecnológica. Estos expertos piensan que en unos años la propiedad dejará de ser una prioridad y se inclinará hacia el pago por servicio más que por la pertenencia. Lo estamos viendo en las grandes ciudades con el pago por uso de automóviles (pequeños y más grandes) y motos no contaminantes y que nos permiten realizar cortos trayectos urbanos.
  7. Inteligencia artificial: Hacen una predicción aplicada con el papel relevante de la IA en los consejos de administración de empresas con un papel en la toma de decisiones.

Se puede o no estar de acuerdo con las predicciones de este grupo de experto, pero lo que está claro es que la tecnología cambiará a la sociedad. Ya lo vimos en películas como “Blade Runner” o “Regreso al pasado”…. pero lo que está claro que estos cambios tecnológicos han de llevar implícitos cambios y ajustes sociales en los que no tengo muy claro si la mayoría de los habitantes de este planeta saldremos ganando o perdiendo.

Cabe la posibilidad que para la mejora de las condiciones de vida de unos pocos se tenga que empeorar las condiciones de vida de muchos… y eso, personalmente, no me gusta.

 

 

Internet Cognitiva y Ubicua.


internet-technologies.jpg

El internet de las cosas (IoT), el Big Data, la Inteligencia Artificial, los Wearables, la Computación Cognitiva y los sistemas en la nube están creando una tormenta perfecta que nos permite vislumbrar el futuro de Internet dentro de unos años,

Para los que nos conectamos a Internet antes de la aparición de la web y sufrimos ese intercambio de archivos a través de procolos ftp el cambio que hemos vivido en pocas décadas ha sido muy acelerado.

La aparición de la web supuso una visualización lógica de la información. Las primeras imágenes y gifs animados junto con los hiperenlaces supusieron una capacidad de acceso a información que supuso grandes cambios (en este caso y para mí) en mis últimos años de universidad y principio de mi residencia.

Posteriormente la capacidad de escuchar música y ver vídeos supuso un cambio en el ocio. La aparición de la web 2.0 con la posibilidad de crear comunidades virtuales y ser capaz de editar y publicar contenidos supuso un gran cambio en la comunicación y la relación humana.

Todo ello acompañado de mucha mayor velocidad de procesamiento y almacenaje de datos de forma que mi movil actual tiene muchos más avances que el primer ordenador de sobremesa que tuve en casa.

El almacenamiento en la nube, los trabajos colaborativos, compartir y editar archivos de forma simultánea son acciones hoy en día cotidianas y dificícilmente imaginables en mis primeros contactos con Internet.

Muchos pensamos… ¿qué va a pasar ahora?, ¿de qué forma toda esta nueva tecnología que se está desarrollando relacionada con la inteligencia artificial, los wearables, la big data, la robótica va a afectar a la web?.

Ha aparecido el concepto de Internet Cognitiva y Ubicua para intentar definor lo que puede ser la red en pocos años.

Está claro que estamos utilizando cada vez más wearables con sensores capaces de medir variables (físicas y biológicas fundamentalmente) que se van a convertir en elementos sensoriales de la red capaces de “ver”, “escuchar”, “comprender” y “sentir”.

Estos elementos sensoriales van a estar interconectados (a través de tecnología de relación máquina-máquina o M2M) y dotados de capas de tejido neuronal capaz de toma de decisiones autónomas de manera que unos elementos van a comportarse como perceptores del entorno (imputs) y otros como ejecutores de acciones (outputs) interconectados (acción-reacción) a través de capas neuronales de elementos digitales.

Internet va a dejar de ser una red de ordenadores para convertirse en una red de objetos interconectados entre sí y que pueden llegar a funcionar de forma independiente. ¿Se podrá regular el tráfico de una gran ciudad adaptándose a los flujos circulatorios mediante semáforos inteligentes interconectados a una capa de inteligencia artificial?, seguro que muchos lo veremos.

Cada teléfono móvil que llevaos en nuestros bolsillos está dotado de infinidad de sensores y cada vez se están desarrollando nuevos sistemas de medida de variables. Muchos de ellos morirán por falta de utilidad y otros muchos se desarrollarán hasta ser capaces de medir con errores tan mínimos que los seres humanos daremos esta medida como aceptable y apta para que sirva de referencia para toma de decisiones donde incluso nuestra seguridad pueda estar comprometida (desarrollo de sistemas de seguridad de vehículos inteligentes, ciudades con sistemas autorregulados…)

Cada vez las máquinas tienen más autonomía y esta característica puede hacer que nuestra percepción aumente. Hasta ahora somos capaces de percibir por nuestros sentidos en un entorno físico muy limitado pero si ciertos sensores complementaran nuestros sentidos humanos y las máquinas estuvieran interconectadas entre sí ¿por qué no ver o escuchar lo que está fuera del alcance de nuestra vista y oído?.

Incluso las máquinas ya están aprendiendo conceptos complejos como la semántica del lenguajes. Hasta ahora nuestra entrada a Internet es un buscador que interpreta secuencias alfanuméricas y nos devuelve un listado de sitios web donde existen las mismas secuencias (o secuencias muy similares y aproximadas a las que hemos introducido). Posiblemente tengamos relaciones diferentes con las máquinas para obtener información y seamos testigos y protagonistas de preguntar a una máquina con lenguaje natural y que nos devuelva la respuesta a nuestra pregunta.

¿Peligros?… posiblemente muchos pero esta es la aventura que nos está tocando vivir.

 

Máquinas pensantes II: Deep Learning


Inteligencia-artifical

El aprendizaje de las máquinas puede ir más allá del aprendizaje automático ya que podemos crear redes neuronales artificiales de forma que las propias máquinas sean capaces de genrar entradas y reproducir una experiencia vital. Podemos hacer que las máquinas “vean”, “escuchen” y “lean” y sean capaces de adquirir experiencias a partir de sentidos propios de los humanos.

Realmente el sistema nervioso es un sistema de conducción eléctrica con áreas neuronales donde reside la memoria a través de elementos físicos y químicos. Hoy en día conocemos cómo funcionan numerosas áreas que regulan nuestra motricidad, nuestra percepción sensitiva y nuestros sentidos (vista, oído y olfato). Sabemos también cómo se regula nuestra memoria y funciones superiores y más abstractas como el lenguaje y la comunicación.

Pero no solo ha sido el conocimiento biológico el que ha generado este avance tecnológico. Funadmentalmente la estadística y las matemáticas han sido las que han aportado un peso específico más alto en hacer que las máquinas piensen.

Se denomina Deep Learning a un sistema de aprendizaje autónomo no supervisado muy similar al aprendizaje humano. Este tipo de aprendizaje se base en estructuras lógicas interconectadas en capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características de los objetos. Es decir que podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” exactamente igual que la especialización neuronal biológica. (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

De esta forma podemos crear redes neuronales artificiales que reproducen los patrones de las redes neuronales biológicas especializadas en cada uno de las tareas específicas que desarrolla nuestro sistema nervioso.

Como ejemplos reales:

    1. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.
    2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
    3. Redes neuronales capaces de tomar decisioones lógicas complejas y ganar a los mejores jugadores humanos en el juego Go.

Esto significa que los propios imputs estarían presentes en la propia máquina y la máquina no solo podría “ver”, sino “observar”; sacar conclusiones a partir de lo que percibe y tomar una decisión al respecto.

Todo ello más rápido y sin el agotamiento del cerebro humano.

Se plantean numerosas preguntas.

¿Quá aplicaciones podría tener ésto?. Por ejemplo una red neuronal capaz de ver e interpretar es básica en sistemas de conducción inteligente.

¿Tiene implicaciones éticas?. Por supuesto. Ante una situación donde hay un accidente con unvehículo de conducción inteligente con alta probabilidad de haber fallecidos y donde están involucrados un anciano y una mujer embaraza ¿qué decisión tomará la máquina? ¿y si la decisión menos dañina es la autodestrucción?.

Un futuro sería integrar todos estos sistemas. Una red neuronal compleja formada por redes neuronales complejas especializadas en “ver”, “escuchar”, “hablar”, “relacionar conceptos”. ¿Estaremos ante un cerebro artificial?.

¿Podremos llegar a crear una red neuronal capaz de explorar aun paciente y legar a un diagnóstico correcto?. Aunque esto pueda ser una realidad el contacto humano, la relación interpersonal humano-humano, creo que no podrá ser sustituida.

Máquinas pensantes I: Machine Learning aprendizaje automático


Inteligencia-artifical.jpg

Actualmente existen algoritmos para que las máquinas empiezen a pensar y a tomar decisiones. No se trata de ciencia ficción, sino de una realidad que está presente actualmente y poco a poco va a ir ocupando espacios cotidianos en nuestra casa, en nuestros vehículos y también… en salud.

El sistema de aprendizaje de máquinas es similar a cómo los humanos aprendemos. Nos exponemos a situaciones repetidas que tienen soluciones similares y poco a poco, a través de nuestra experiencia empezamos a tomar decisiones.

Este paso de un caso a un pensamiento abstracto y más global que nos permite extraer elementos comunes de casos concretos (y poder generalizarlos) y crear respuestas similares ante situaciones similares lo vamos aprendiendo a lo largo de nuestra vida. La toma de decisiones supone un pensamiento lógico que puede ser transcrito a algoritmos y éstos pueden transcribirse a un lenguaje que las máquinas pueden interpretar.

El aprendizaje humano es progresivo y se desarrolla a partir de la exposición a situaciones de forma consecutiva. Es decir vamos adquiriendo datos poco a poco.

La adquisición de estos datos por parte de una máquina es mucho más rápida ya que la máquina no se agota (puede trabajar 24 horas al día), no tiene funciones vitales (alimentación, descanso u ocio). De esta forma podemos relacionar el Big Data (cantidades ingentes de datos en múltiples formatos) con la “alimentación” y dotar de experiencia a una máquina.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo.

En el aprendizaje de las máquinas exiten dos tipos de métodos. El primero de ellos se llama aprendizaje supervisado y requiere la participación de un humano que determina las relaciones correctas e incorrectas que toma la máquina. La función del humano es “reforzar” los aciertos de forma que una acción reforzada tiene a repetirse a lo largo del tiempo (de forma muy parecida a cómo ejercen los adultos su función de refuerzo ante el aprendizaje de un niño).

El segundo método es el aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partri de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano. para ello son necesarios algoritmos iniciales y un pequeño entrenamiento supervisado. Una vez que la decisiones correctas alcanzan un número válido dentro del total de decisiones tomadas es cuando conectamos este sistema inteligente a un sistema de BigData para que esas experiencias afiancen los sistema de toma de decisiones (aprendizaje).

¿Riesgos?. Aún muchos.

Por ejemplo podemos poner el caso del bot @TayandYou creado por Microsoft. La idea era crear un bot conversacional que se relacionara con otros usuarios a través de Twitter y fuera aprendiendo de forma que dispusieran de un sistema inteligente capaz de relacionarse con usuarios humanos o con otros bots en esta red social. La idea era buena y se decidió que no existiera intervención humana para ver qué mensajes se podían considerar “buenos” y cuales “malos”. El resultado final es que en menos de 24 horas tuvieron que restringir el uso de la cuenta de Twitter que alimentaba al bot ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

¿Qué ocurrió?, El bot fue conectado a través de una red social para que aprendiera de las interacciones con otros usuarios sin intervención humana inicial. Al ser conocedores de ésto hubo cuentas de Twitter que establecieron conversaciones con este bot y lo boicotearon alimentando su inteligencia con contenidos homófobo, machista y antisemita. De esta forma el aprendizaje de este bot se realizó en este entorno  y se creó su “personalidad”.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época

 

De EverBot a Humana Brain. Aplicación de un bot para el seguimiento de pacientes crónicos


Los Asistentes Virtuales (basados en soluciones de chatbot e inteligencia artificial) están proliferando últimamente. Las empresas grandes están apostando por potenciar la conexión de chatbots a sus plataformas (Facebook, Twitter, Cortana, Skype, Telegram). Existen además algunos ejemplos de asistentes virtuales que pueden ser embebidos en una página web. Para el año 2020 está previsto que el 85% de los Call Centers hayan sido reemplazados por tecnología chatbot.

La empresa de innovación del sector de la eSalud C2C está apostando fuertemente por evaluar y aplicar dichos conceptos al sector de la salud. La aplicabilidad clave para una transformación es el uso del chatbot de una forma transaccional, es decir, con capacidad de interactuar bidireccionalmente con un sistema de información o base de datos.
Desde hace más de un año, C2C ha formado un equipo con diferentes roles (coordinador de proyectos, asesor procesos de salud, experto en Inteligencia Artificial y programadores web y Apps) con el objetivo de generar conocimiento y tecnología que permita aplicar estos innovadores conceptos a Salud.

C2C dispone de la tecnología y conocimiento para el desarrollo de chatbots llamada EverBOT. Un caso de éxito de implementación es Humana Brain, desarrollado por C2C y la Clínica Humana. Este proyecto se basa en un cerebro virtual que lleva a cabo un seguimiento y control del paciente crónico en domicilio, a modo de una asistente virtual.

Este asistente virtual llamado Rosa controla y monitoriza a los pacientes comunicándose con ellos de forma simple y directa, a través del lenguaje natural y un sencillo sistema de chat. De esta forma, este interfaz es conocido y resulta familiar para los usuarios. Así, Rosa recuerda al paciente la toma de medicación y registra algunos datos periódicamente mediante un sistema conversacional automático y basado en conceptos de Inteligencia Artificial.

 

Everbot.png
Visión del paciente

El cerebro virtual junto al panel de control, ayuda a la Clínica Humana a priorizar acciones, controlando y clasificando a los pacientes. También automatiza ciertas tareas que son repetitivas.  De esta forma, reparte tareas a médicos, enfermeras, cuidadores, rehabilitadores y, si procede, a familiares. Eso permite al equipo de cuidadores focalizarse en los pacientes que requieren actuación inmediata, identificados por Rosa y el sistema inteligente.

 

Captura de pantalla 2017-05-18 a las 20.47.14
Visión del profesional en movil

 

Captura de pantalla 2017-05-18 a las 20.51.13
Visión del profesional en ordenador

La solución de C2C y Clínica Humana para la gestión de pacientes crónicos mediante inteligencia artificial y chatbots gana el primer premio de la II Edición Caeb-Santander a la Innovación Empresarial

En definitiva, esta tecnología  supone un cambio diferencial. Con una presentación sencilla para el usuario, un asistente virtual controla todo lo que sucede, coordina y establece enlaces de comunicación. De esta forma, lograr que la asistencia sanitaria no termine al salir de la consulta.

 

Inteligencia Artificial en TED II


TEDAyer os decíamos que en el ciclo de TED sobre Inteligencia Artificial (IA) existían 6 conferencias. Solo os mostramos tres, para dejar otras tres para hoy sábado… Esperemos que las disfrutéis.

This app knows how you feel — from the look on your face (Esta app sabe cómo te sientes…por el aspecto de tu cara).

Rana El KalioubyPor Rana el Kaliouby. Han desarrollado una aplicación inteligente que escaneando tu cara o a través de una fotografía es capaz de analizar una serie de puntos guía y a partir de los mismos interpretar tu estado de ánimo. Puede identificar alegría, tristeza, preocupación, extrañeza o susto.

A partir de una simple imagen el sistema puede interpretar tu estado de ánimo y adaptarse a él interactuando con su interlocutor de manera diferente dependiendo de su situación concreta.

What happens when our computers get smarter than we are? (¿qué pasará cuándo nuestros ordenadores sean más inteligentes que nosotros?)

Nick BostromPor Nick Bostrom. Se trata de una pregunta con grandes implicaciones éticas. Aún tardaremos unas décadas (si es que se llega a lograr) que una máquina sea al menos tan inteligente como el humano que la creó o el humano que la maneja.

Pero se trata de un ejercicio teórico que pone en evidencia los vacíos éticos y legales existentes, la redifinición de procesos que hasta ahora considerábamos exclusivamente humanos.

Watson, Jeopardy and me, the obsolete know-it-all (Watson, Jeopardy y yo, el obsoleto sabelotodo)

Ken JenningsPor Ken Jennings. Ken Jennings es el participante en el concurso de respuestas Jeopardy!, uno de los de más éxito en la televisión estadounidense, que tiene la racha ganadora más larga. En un desafío con el superordenador Watson perdió y nos cuenta en esta charla TEd el sentimiento de un humano al ser derrottado por una máquina. ¿Estará obsoleto el saber humano?.