¿Son capaces las máquinas de pensar?


La forma que tenemos que las máquinas aprendan es muy parecido al aprendizaje humano y se basa en la exposicion repetida a situaciones con soluciones similares demanera que la experiencia repetida acumulada nos lleva a tomar decisiones que previamente ha sido útiles para la resolución de problemas similares ocurridos en nuestro pasado.

De esta manera generalizamos situaciones abstractas a partir de elementos comunes similares que vamos extrayendo de los acontecimientos que nos ocurren de forma cotidiana. De esta manera, la toma de decisiones puede representarse como algoritmos lógicos y éstos pueden traducirse a un lenguaje interpretable por las máquinas.

La diferencia con los humanos es que la exposición a situaciones de aprendizaje depende de circunstancias vitales (hay hechos que nos ocurren a edades más tempranas, otros en la madurez y a otros no nos enfrentamos hasta la vejez y es variable entre personas de manera que hay sujetos que tienen exposición vital a muchos acontecimientos mientras que otros sujetos tienen una vida con menos exposición y experiencias vitales). A las máquinas las podemos exponer de forma artificial a sutuaciones simuladas que éticamente no sería posible con humanos.

Además la velocidad de adquisición de datos por parte de una máquina es mucho más rápida ya que la máquina no tiene otras funciones (alimentación, descanso u ocio) y no se agota (puede trabajar 24 horas al día).

Esta es la relación existente entre Big Data (BD) y la Inteligencia Artificial (IA) ya que las cantidades ingentes de datos en múltiples formatos (BD) sirven para entrenar y dotar de experiencia a una máquina para que desarrolle y entrene algoritmos de toma de decisiones autónomas (IA).

Ya tenemos máquinas que a través de algoritmos lógicos y la exposición y entrenamiento con casos simulados a través de la introducción de datos son capaces de tomar decisiones. Es decir máquinas capaces de “estudiar”, “experimentar” y “aprender”. De esta manera tendremos que redefinir el concepto de aprendizaje que hasta hace pocos años era considerado como una actividad o cualidad prácticamente restringida a los seres humanos y a algunos otros primates.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo ya que ningún médico, por mucha inteligencia y memoria que tenga, va a ser capaz de manejar todas las variables con tanta rapidez y precisión como lo hacen sistemas informáticos.

Podemos distinguir dos tipos de aprendizaaje aplicados a las máquinas:

  1.  Aprendizaje supervisado que requiere la participación humana quien determina las relaciones “correctas” e “incorrectas” que toma la máquina. De esta manera la función del humano es “reforzar” los aciertos para que tiendan a repetirse a lo largo del tiempo (similar al prendizaje de un niño).
  2. Aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partir de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano.

Así hay máquinas que aprenden guiadas por un humano y que tomarán decisiones que van a depender de las características que han condicionado su aprendizaje mientras que otras máquinas aprenderán de manera autrónoma a partir de sus experiencias (dadas por el Big Data) y sin concurso de los seres humanos.

¿Riesgos?. Aún muchos. ¿Qué pasará si en un futuro al igual que en muchas películas de ciencia ficción las máquinas deciden que el ser humano es un elemento que puede ser nocivo para su existencia?

Un ejemplo reciente ha sido el bot credo pro Microsoft llamado @TayandYou . La idea era crear un bot conversacional bajo el cual había una inteligencia artificial “virgen” y que a través de una red social (Twitter) se empezra a relacionar con otros usuarios que servirían como fuente de alimentación de datos. La idea original es buena pero el resultado final fue que en menos de un día se tuvo que restringir el uso de la cuenta de Twitter ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

El problema es que la idea era buena, pero los seres humano no lo somos ya que el bot fue boicoteado por muchas cuentas de twitter (empresas de la competencia, piratas, cuantas fantasmas, graciosos…) que alimentaron a la inteligencia artificial de manera consciente con contenidos machistas, antisemitas y homófobos, generando una “personalidad” marcada con una serie de características.

Un experimento que iba a servir para ver cómo una IA podía alimentarse de forma autónoma de fuentes generles en una red social (aprendizaje tipo automático) se transformó en un aprendizaje de tipo supervisado “maleducando” la IA.

Posiblemente la experiencia no sirvió para demostrar lo que se quiería, pero sí nos mostró que al igual que podemos “maleducar” a un ser humano, podemos “maleducar” a una m´àquina… pero esto último solo en cuestión de horas.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época.

Ya existen numerosos ejemplos de Deep Learning (aprendizaje de máquinas sin concurso humano) y se establecen de manera compleja basándose en estructuras lógicas que se disponen en capas complejas (sistema parecida a la interconexión de redes neuronales). Muchas de estas capas están “especializadas” en temas concretos, es decir que al igual que las neuronas, podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

Como ejemplos reales:

  1. Redes neuronales capaces de tomar decisiones lógicas complejas y ganar a los mejores jugadores humanos en algunos juegos de estrategia (Pokemon Go).
  2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
  3. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.

Muchos de estos procesos complejos pueden no ser explicados de manera matemática. Es decir a la máquina se le dan unos patrones iniciales de aprendizaje (se construye un esqueleto neuronal básico) y a través de una experiencia masiva proporcionada por el Big Data la máquina va aprendiendo, modificando y mejorando estos procesos. Es decir va generando sus propias “conexiones neuronales” sin intervención humana.

En poco tiempo (del orden meses) si disponemos de la cantidad de datos necesaria, podemos tener un sistema muy especializado capaz de tomar decisiones.

La conducción autónoma ha sido la indisutria que ha desarrollado de manera rápida y eficaz estos temas y que en la conducción hay que tomar decisiones con múltiples variables, dependiendo de condiciones atmosféricas, de la via y de las circunstancias tanto de tráfco rodado como de peatones. Muchas de las decisiones que tomamos los humanos al conducir son ¿instintivas? y en situaciones de gravedad podemos tomar decisiones que no pasan por nuestro consciente. En el caso de la conducción autónoma esto no es así ya que la máquina va a estar capacitada para tomar una decisión “consciente” en décimas de segundo o menos. ¿Veremos demandas a los programadores por toma de decisiones incorrectas?, ¿cómo educaremos a la máquina para que se comporte ante un accidente donde todas las variables posibles tienen víctimas?, ¿qué victima será la primera?

Este vídeo es del año 2016 cuando ya disponíamos de sistemas de conducción autónoma. Podemos ver cómo la máquina decide la velocidad a la que ir dependiendo de los límites de tráfico, como sigue la ruta preestablecida y cómo se adapta a los peatones que van circulando.

.

Incluso al final deja a su dueño en la puerta de su trabajo mientras que el coche solo va a buscar aparcamiento.

Seguro que acabaremos aplicando sistemas tan complejos como el de la conducción a la salud. Serán unos aliados magníficos en el diagnóstico ¿os imaginais al mejor médico del mundo pasando consulta a vuestro lado?.

Seguridad, privacidad e inteorperabilidad


consejos_seguridad_ordenador--644x450.jpg

Cuando hablamos de datos sanitarios y salud (y hablamos mucho de ellos cuando se trata de BigData, inteligencia artificial o uso de wearables) la seguridad y la privacidad son temas fundamentales sobre todo cuando hemos sido testigos el pasado mes de mayo del primer ciberataque masivo por un ramsonware.

El pasado mes de mayo nos despertamos un día con la noticia de un atque masivo a nivel mundial por medio de un ramsonware (malware informático que encripta los archivos de un disco duro y pide un rescate a cambio). Estábamos en fin de semana y las noticias nos iban desvelando grandes empresas afectadas.

Es cierto que la entrada de este malware se debía a un fallo de seguridad de un sistema operativo. También es cierto que el fallo era conocido y que tuvieron tiempo desde su detección hasta el ataque de crear los parches de seguridad necesarios.

Las noticias nos alertaban que numerosos equipos sanitarios de sistema público de salud británico estaban afectados.

El lunes llegué a mi puesto de trabajo y por “necesidades técnicas” tuvimos restringido el acceso a la web y al correo electrónico durante una semana.

Si nos ponemso a pensar en un futuro próximo con numerosos servicios basados en datos y la cantidad de datos personales que están circulando en la red da miedo pensar lo que pueda pasar.

Ciudades inteligentes que pueden ser “secuestradas” o alterar toda su función a través de pequeños programas informáticos que pueden ir camuflados en cualquier adjunto de correo electrónico o en cualquiera de los archivos de intercambio continuo que hace nuestro navegador.

¿Podremos estar secuestrados en nuestra propia casa domótica?, ¿podrán secuestrar una ciudad entera o privarla de servicios fundamentamentales?. Cualquier elemento digital conectado a una red puede ser hackeable, hasta los coches inteligentes.

En el entorno de la BigData no existe problema ya que para analizar estas tendencias, en el campo que sea, no es necesario tener identificados los datos. Datos anonimizados engullidos por una inteligencia artificial virgen van a servir para entrenarla. Pero ¿podemos alterar las decisiones de esta inteligencia artificial a través de virus informáticos?.

Pero no solamente con la inteligencia artificial aparecen estos riesgos. Cada vez se habla más de interoperabilidad aplicada a la historia clínica digital. La interoperabilidad es la habilidad de dos o más sistemas o componentes para intercambiar información y utilizar la información intercambiada. (Institute of Electrical and Electronics Engineers. IEEE Standard Computer Dictionary: A Compilation of IEEE Standard Computer Glossaries. New York, NY: 1990.).

Esta característica, aplicada a la historia clínica, permite que cualquier dato introducido en la historia clínica del pacientes, en cualquier localización, sea integrado en todos los sistemas. Es decir, tendríamos casi una historia clínica única y accesible desde cualquier parte.

Llevado al extremo ideal, se podrían introducir variables de salud desde cualquier parte (domicilio del paciente, oficina de farmacia, centro de salud, hospital…) e incluso sin intervención humana (por ejemplo un glucómetro o un tensiómetro o cualquier otro aparato de medida, podría meter directamente la información si está conectado a la historia clínica). Incluso un wearable que midiera variables en salud (un podómetro, un calculador de calorías consumidas….) podría introducirlas.

Como gran ventaja es que no se perderían datos en salud que actualmente estamos perdiendo y esta medición de variables de manera más continuada y registrada prodría servir para predecir eventos futuros de alteración de la salud. Además se podrían transmitir estos datos a otros sistemas (si el paciente viaja o cambia de domicilio) o poddrían ser accesibles por  el propio paciente con un terminal.

Por otro lado tenemos flujos de datos, miles de flujos de datos que irían entre elementos conectados a los que daríamos autorización de forma que las vulnerabilidades del sistema serían mucho mayores.

¿Podemos permitirnos el riesgo de entradas de agentes nocivos en un sistema tan sensible como el que alberga los datos de salud de un población?

Esta última pregunta puede ser clave en el caso en que la salud vaya por estos caminos.

Internet Cognitiva y Ubicua.


internet-technologies.jpg

El internet de las cosas (IoT), el Big Data, la Inteligencia Artificial, los Wearables, la Computación Cognitiva y los sistemas en la nube están creando una tormenta perfecta que nos permite vislumbrar el futuro de Internet dentro de unos años,

Para los que nos conectamos a Internet antes de la aparición de la web y sufrimos ese intercambio de archivos a través de procolos ftp el cambio que hemos vivido en pocas décadas ha sido muy acelerado.

La aparición de la web supuso una visualización lógica de la información. Las primeras imágenes y gifs animados junto con los hiperenlaces supusieron una capacidad de acceso a información que supuso grandes cambios (en este caso y para mí) en mis últimos años de universidad y principio de mi residencia.

Posteriormente la capacidad de escuchar música y ver vídeos supuso un cambio en el ocio. La aparición de la web 2.0 con la posibilidad de crear comunidades virtuales y ser capaz de editar y publicar contenidos supuso un gran cambio en la comunicación y la relación humana.

Todo ello acompañado de mucha mayor velocidad de procesamiento y almacenaje de datos de forma que mi movil actual tiene muchos más avances que el primer ordenador de sobremesa que tuve en casa.

El almacenamiento en la nube, los trabajos colaborativos, compartir y editar archivos de forma simultánea son acciones hoy en día cotidianas y dificícilmente imaginables en mis primeros contactos con Internet.

Muchos pensamos… ¿qué va a pasar ahora?, ¿de qué forma toda esta nueva tecnología que se está desarrollando relacionada con la inteligencia artificial, los wearables, la big data, la robótica va a afectar a la web?.

Ha aparecido el concepto de Internet Cognitiva y Ubicua para intentar definor lo que puede ser la red en pocos años.

Está claro que estamos utilizando cada vez más wearables con sensores capaces de medir variables (físicas y biológicas fundamentalmente) que se van a convertir en elementos sensoriales de la red capaces de “ver”, “escuchar”, “comprender” y “sentir”.

Estos elementos sensoriales van a estar interconectados (a través de tecnología de relación máquina-máquina o M2M) y dotados de capas de tejido neuronal capaz de toma de decisiones autónomas de manera que unos elementos van a comportarse como perceptores del entorno (imputs) y otros como ejecutores de acciones (outputs) interconectados (acción-reacción) a través de capas neuronales de elementos digitales.

Internet va a dejar de ser una red de ordenadores para convertirse en una red de objetos interconectados entre sí y que pueden llegar a funcionar de forma independiente. ¿Se podrá regular el tráfico de una gran ciudad adaptándose a los flujos circulatorios mediante semáforos inteligentes interconectados a una capa de inteligencia artificial?, seguro que muchos lo veremos.

Cada teléfono móvil que llevaos en nuestros bolsillos está dotado de infinidad de sensores y cada vez se están desarrollando nuevos sistemas de medida de variables. Muchos de ellos morirán por falta de utilidad y otros muchos se desarrollarán hasta ser capaces de medir con errores tan mínimos que los seres humanos daremos esta medida como aceptable y apta para que sirva de referencia para toma de decisiones donde incluso nuestra seguridad pueda estar comprometida (desarrollo de sistemas de seguridad de vehículos inteligentes, ciudades con sistemas autorregulados…)

Cada vez las máquinas tienen más autonomía y esta característica puede hacer que nuestra percepción aumente. Hasta ahora somos capaces de percibir por nuestros sentidos en un entorno físico muy limitado pero si ciertos sensores complementaran nuestros sentidos humanos y las máquinas estuvieran interconectadas entre sí ¿por qué no ver o escuchar lo que está fuera del alcance de nuestra vista y oído?.

Incluso las máquinas ya están aprendiendo conceptos complejos como la semántica del lenguajes. Hasta ahora nuestra entrada a Internet es un buscador que interpreta secuencias alfanuméricas y nos devuelve un listado de sitios web donde existen las mismas secuencias (o secuencias muy similares y aproximadas a las que hemos introducido). Posiblemente tengamos relaciones diferentes con las máquinas para obtener información y seamos testigos y protagonistas de preguntar a una máquina con lenguaje natural y que nos devuelva la respuesta a nuestra pregunta.

¿Peligros?… posiblemente muchos pero esta es la aventura que nos está tocando vivir.

 

Máquinas pensantes II: Deep Learning


Inteligencia-artifical

El aprendizaje de las máquinas puede ir más allá del aprendizaje automático ya que podemos crear redes neuronales artificiales de forma que las propias máquinas sean capaces de genrar entradas y reproducir una experiencia vital. Podemos hacer que las máquinas “vean”, “escuchen” y “lean” y sean capaces de adquirir experiencias a partir de sentidos propios de los humanos.

Realmente el sistema nervioso es un sistema de conducción eléctrica con áreas neuronales donde reside la memoria a través de elementos físicos y químicos. Hoy en día conocemos cómo funcionan numerosas áreas que regulan nuestra motricidad, nuestra percepción sensitiva y nuestros sentidos (vista, oído y olfato). Sabemos también cómo se regula nuestra memoria y funciones superiores y más abstractas como el lenguaje y la comunicación.

Pero no solo ha sido el conocimiento biológico el que ha generado este avance tecnológico. Funadmentalmente la estadística y las matemáticas han sido las que han aportado un peso específico más alto en hacer que las máquinas piensen.

Se denomina Deep Learning a un sistema de aprendizaje autónomo no supervisado muy similar al aprendizaje humano. Este tipo de aprendizaje se base en estructuras lógicas interconectadas en capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características de los objetos. Es decir que podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” exactamente igual que la especialización neuronal biológica. (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

De esta forma podemos crear redes neuronales artificiales que reproducen los patrones de las redes neuronales biológicas especializadas en cada uno de las tareas específicas que desarrolla nuestro sistema nervioso.

Como ejemplos reales:

    1. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.
    2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
    3. Redes neuronales capaces de tomar decisioones lógicas complejas y ganar a los mejores jugadores humanos en el juego Go.

Esto significa que los propios imputs estarían presentes en la propia máquina y la máquina no solo podría “ver”, sino “observar”; sacar conclusiones a partir de lo que percibe y tomar una decisión al respecto.

Todo ello más rápido y sin el agotamiento del cerebro humano.

Se plantean numerosas preguntas.

¿Quá aplicaciones podría tener ésto?. Por ejemplo una red neuronal capaz de ver e interpretar es básica en sistemas de conducción inteligente.

¿Tiene implicaciones éticas?. Por supuesto. Ante una situación donde hay un accidente con unvehículo de conducción inteligente con alta probabilidad de haber fallecidos y donde están involucrados un anciano y una mujer embaraza ¿qué decisión tomará la máquina? ¿y si la decisión menos dañina es la autodestrucción?.

Un futuro sería integrar todos estos sistemas. Una red neuronal compleja formada por redes neuronales complejas especializadas en “ver”, “escuchar”, “hablar”, “relacionar conceptos”. ¿Estaremos ante un cerebro artificial?.

¿Podremos llegar a crear una red neuronal capaz de explorar aun paciente y legar a un diagnóstico correcto?. Aunque esto pueda ser una realidad el contacto humano, la relación interpersonal humano-humano, creo que no podrá ser sustituida.

De EverBot a Humana Brain. Aplicación de un bot para el seguimiento de pacientes crónicos


Los Asistentes Virtuales (basados en soluciones de chatbot e inteligencia artificial) están proliferando últimamente. Las empresas grandes están apostando por potenciar la conexión de chatbots a sus plataformas (Facebook, Twitter, Cortana, Skype, Telegram). Existen además algunos ejemplos de asistentes virtuales que pueden ser embebidos en una página web. Para el año 2020 está previsto que el 85% de los Call Centers hayan sido reemplazados por tecnología chatbot.

La empresa de innovación del sector de la eSalud C2C está apostando fuertemente por evaluar y aplicar dichos conceptos al sector de la salud. La aplicabilidad clave para una transformación es el uso del chatbot de una forma transaccional, es decir, con capacidad de interactuar bidireccionalmente con un sistema de información o base de datos.
Desde hace más de un año, C2C ha formado un equipo con diferentes roles (coordinador de proyectos, asesor procesos de salud, experto en Inteligencia Artificial y programadores web y Apps) con el objetivo de generar conocimiento y tecnología que permita aplicar estos innovadores conceptos a Salud.

C2C dispone de la tecnología y conocimiento para el desarrollo de chatbots llamada EverBOT. Un caso de éxito de implementación es Humana Brain, desarrollado por C2C y la Clínica Humana. Este proyecto se basa en un cerebro virtual que lleva a cabo un seguimiento y control del paciente crónico en domicilio, a modo de una asistente virtual.

Este asistente virtual llamado Rosa controla y monitoriza a los pacientes comunicándose con ellos de forma simple y directa, a través del lenguaje natural y un sencillo sistema de chat. De esta forma, este interfaz es conocido y resulta familiar para los usuarios. Así, Rosa recuerda al paciente la toma de medicación y registra algunos datos periódicamente mediante un sistema conversacional automático y basado en conceptos de Inteligencia Artificial.

 

Everbot.png
Visión del paciente

El cerebro virtual junto al panel de control, ayuda a la Clínica Humana a priorizar acciones, controlando y clasificando a los pacientes. También automatiza ciertas tareas que son repetitivas.  De esta forma, reparte tareas a médicos, enfermeras, cuidadores, rehabilitadores y, si procede, a familiares. Eso permite al equipo de cuidadores focalizarse en los pacientes que requieren actuación inmediata, identificados por Rosa y el sistema inteligente.

 

Captura de pantalla 2017-05-18 a las 20.47.14
Visión del profesional en movil

 

Captura de pantalla 2017-05-18 a las 20.51.13
Visión del profesional en ordenador

La solución de C2C y Clínica Humana para la gestión de pacientes crónicos mediante inteligencia artificial y chatbots gana el primer premio de la II Edición Caeb-Santander a la Innovación Empresarial

En definitiva, esta tecnología  supone un cambio diferencial. Con una presentación sencilla para el usuario, un asistente virtual controla todo lo que sucede, coordina y establece enlaces de comunicación. De esta forma, lograr que la asistencia sanitaria no termine al salir de la consulta.

 

Villancico e Inteligencia Artificial


En estas entradas ya cercanas a la finalización del año queríamos hermanar tecnología, música, villancicos y navidad y que mejor forma que presentaros el primer villancico realziado por inteligencia artificial.

 

Se trata de un experimento realizado por Hang Chu y Raquel Urtasan de la Universidad de Toronto que consistió en hacer escuchar a un sistema de inteligencia artificial más de 100 horas de música y que compusiera una canción basándose en los acordes escuchados y en la imagen que aparece en el vídeo (un árbol de navidad).

El sistema compuso la melodía, la letra e interpretó el resultado final a través de un sistema sintetizador de voz.

Os dejamos escuchar la composición definitiva:

villancico

Es posible que como experimento haya sido un éxito, pero no creemos que vaya a estar entre los temas más escuchados estas navidades.

Bueno… a lo mejor tampoco es tan malo… Disfrutad de Wing!!! (si tenéis valor para hacerlo)

 

Hoy es domingo de…Cerveza con inteligencia artificial


Una cerveza a tu gusto

La inteligencia artificial se ha ido aplicando en diferentes situaciones a lo largo de los años y ha sido parte de soluciones creativas para problemas comunes incluyendo el área de la salud, transporte, motores de búsqueda, juegos de mesa, respuestas rápidas en apps de mensajería, etc.

En este caso, ha sido una compañía londinense la que, con la ayuda de inteligencia artificial, fabrica cerveza.

La empresa en cuestión, llamada IntelligentX, cerveza aiutiliza un algoritmo mediante el cual les pregunta a sus clientes si les gusta la cerveza y cómo podrían mejorar su sabor y su textura. De esa manera van mejorando la receta.

Una cerveza más amarga, con un intenso sabor ahumado o un marcado sabor a lúpulo son algunas de las características de los primeros lotes de cerveza creados con la ayuda de un sistema de inteligencia artificial de nombre ABI (Automated Brewing Intelligence) que recoge la información sobre los gustos de los consumidores.

En la botella hay un código que dirige a la persona que compra la cerveza a Facebook Messenger, donde un chatbot le hace algunas preguntas.

Hasta el momento la compañía de científicos británicos cool ha lanzado cuatro etiquetas (Golden AI, Amber AI, Pale AI y Black AI) que se han modificado hasta en 11 ocasiones a partir de las diferentes opiniones de los usuarios vía Facebook Messenger.

La información llega al maestro cervecero y se traduce en una mejor modificación de la receta. Por supuesto como para gustos los colores, todas las recetas que han ido surgiendo mediante este sistema han sido publicadas para todas aquellas personas que quieran replicarlas.

Se espera que las cervezas no sean los únicos productos que se produzcan a partir de este algoritmo.

Y que bien entra un domingo como hoy una cervecita bien fresquita y, encima, si está a tu gusto pues mucho mejor.

En el siguiente enlace y vídeo puedes ver como se realiza:

http://rudo.video/vod/b4vo9RlYdU/country/Mexico/section/estilodeVida/device/Mobile/type/sitio/origin/metrotv_estilodevida/autostart/true/volume/80

Día del orgullo LGTB tecnológico: Recuerdo a Alan Turing


TuringAlan Turing es considerado el padre de la informática al ser el constructor de la máquina enigma, capaz de descifrar los mensajes codificados del ejército nazi en la Segunda Guerra Mundial.

Además de la complejidad ética asociada ya que no podían interceptar todos los ataques porque los nazis sabrían que podrían descifrara sus mensajes y cambiarían el tipo de codificación.

Su éxito fue generar un sistema para desencriptar (criptoanálisis) independientemente del tipo de cifrado. de esta manera si cambiaban los códigos, en poco tiempo y con una muestra relativamente pequeña de mensajes interceptados, podrían de nuevo conocer el código de cifrado.

Fue un pionero de la robotica ya que en el campo de la inteligencia artificial, es conocido sobre todo por la concepción del test de Turing un criterio sistema que puede valorar la inteligencia de una máquina si sus respuestas en una prueba son indistinguibles de las de un ser humano.

La carrera de Turing terminó súbitamente tras ser procesado por homosexualidad en 1952.

En 1954 murió oficialmente por suicidio (aunque no se descarta la posibilidad de asesinato) haiandose a su lado una manzana mordida envenenada con cianuro. Incluso se ha especulado que la alegoría d ela manzana mordida ha posido ser la inspiración del logotipo de Apple (hecho negado en numerosas ocasiones por la empresa de Cupertino).

Desde este blog dedicado a la tecnología, nuestro reconocimiento a este pionero de la informática, la robótica y la inteligencia artificial que nación algunas décadas antes de que la sociedad de su propio país respetara las diferntes identidades sexuales.

 

Hoy es domingo… de 10 hechos sobre inteligencia artificial


domingoEn YouTube hemos descubierto este vídeo, locutado por voz robótica, que nos habla sobre 10 hechos sobre Inteligencia Artificial que no son proyectos, sino realidades cada vez más cotidianas.

Desde los interfces sonosros de nuestros sistemas operativos, mascotas robóticas (ya comercializadas), robots sexuales, máquinas capaces de ganarnos a juegos complejos como el poker, máquinas capaces de manejar el lenguaje de forma compleja que incluso pueden esceribir artículos periodísticos…

Pero sobre todo es la capacidad de aprendizaje y adaptación, predicción de acontecimientos a partir de análisis de patrones y sobre todo inteligencia… posiblemente más inteligente que la humana

¿Tendremos que tener en mente los tres principios clásicos de Asimov sobre las leyes de la robótica?.

Inteligencia Artificial en TED II


TEDAyer os decíamos que en el ciclo de TED sobre Inteligencia Artificial (IA) existían 6 conferencias. Solo os mostramos tres, para dejar otras tres para hoy sábado… Esperemos que las disfrutéis.

This app knows how you feel — from the look on your face (Esta app sabe cómo te sientes…por el aspecto de tu cara).

Rana El KalioubyPor Rana el Kaliouby. Han desarrollado una aplicación inteligente que escaneando tu cara o a través de una fotografía es capaz de analizar una serie de puntos guía y a partir de los mismos interpretar tu estado de ánimo. Puede identificar alegría, tristeza, preocupación, extrañeza o susto.

A partir de una simple imagen el sistema puede interpretar tu estado de ánimo y adaptarse a él interactuando con su interlocutor de manera diferente dependiendo de su situación concreta.

What happens when our computers get smarter than we are? (¿qué pasará cuándo nuestros ordenadores sean más inteligentes que nosotros?)

Nick BostromPor Nick Bostrom. Se trata de una pregunta con grandes implicaciones éticas. Aún tardaremos unas décadas (si es que se llega a lograr) que una máquina sea al menos tan inteligente como el humano que la creó o el humano que la maneja.

Pero se trata de un ejercicio teórico que pone en evidencia los vacíos éticos y legales existentes, la redifinición de procesos que hasta ahora considerábamos exclusivamente humanos.

Watson, Jeopardy and me, the obsolete know-it-all (Watson, Jeopardy y yo, el obsoleto sabelotodo)

Ken JenningsPor Ken Jennings. Ken Jennings es el participante en el concurso de respuestas Jeopardy!, uno de los de más éxito en la televisión estadounidense, que tiene la racha ganadora más larga. En un desafío con el superordenador Watson perdió y nos cuenta en esta charla TEd el sentimiento de un humano al ser derrottado por una máquina. ¿Estará obsoleto el saber humano?.