Seguridad, privacidad e inteorperabilidad


consejos_seguridad_ordenador--644x450.jpg

Cuando hablamos de datos sanitarios y salud (y hablamos mucho de ellos cuando se trata de BigData, inteligencia artificial o uso de wearables) la seguridad y la privacidad son temas fundamentales sobre todo cuando hemos sido testigos el pasado mes de mayo del primer ciberataque masivo por un ramsonware.

El pasado mes de mayo nos despertamos un día con la noticia de un atque masivo a nivel mundial por medio de un ramsonware (malware informático que encripta los archivos de un disco duro y pide un rescate a cambio). Estábamos en fin de semana y las noticias nos iban desvelando grandes empresas afectadas.

Es cierto que la entrada de este malware se debía a un fallo de seguridad de un sistema operativo. También es cierto que el fallo era conocido y que tuvieron tiempo desde su detección hasta el ataque de crear los parches de seguridad necesarios.

Las noticias nos alertaban que numerosos equipos sanitarios de sistema público de salud británico estaban afectados.

El lunes llegué a mi puesto de trabajo y por “necesidades técnicas” tuvimos restringido el acceso a la web y al correo electrónico durante una semana.

Si nos ponemso a pensar en un futuro próximo con numerosos servicios basados en datos y la cantidad de datos personales que están circulando en la red da miedo pensar lo que pueda pasar.

Ciudades inteligentes que pueden ser “secuestradas” o alterar toda su función a través de pequeños programas informáticos que pueden ir camuflados en cualquier adjunto de correo electrónico o en cualquiera de los archivos de intercambio continuo que hace nuestro navegador.

¿Podremos estar secuestrados en nuestra propia casa domótica?, ¿podrán secuestrar una ciudad entera o privarla de servicios fundamentamentales?. Cualquier elemento digital conectado a una red puede ser hackeable, hasta los coches inteligentes.

En el entorno de la BigData no existe problema ya que para analizar estas tendencias, en el campo que sea, no es necesario tener identificados los datos. Datos anonimizados engullidos por una inteligencia artificial virgen van a servir para entrenarla. Pero ¿podemos alterar las decisiones de esta inteligencia artificial a través de virus informáticos?.

Pero no solamente con la inteligencia artificial aparecen estos riesgos. Cada vez se habla más de interoperabilidad aplicada a la historia clínica digital. La interoperabilidad es la habilidad de dos o más sistemas o componentes para intercambiar información y utilizar la información intercambiada. (Institute of Electrical and Electronics Engineers. IEEE Standard Computer Dictionary: A Compilation of IEEE Standard Computer Glossaries. New York, NY: 1990.).

Esta característica, aplicada a la historia clínica, permite que cualquier dato introducido en la historia clínica del pacientes, en cualquier localización, sea integrado en todos los sistemas. Es decir, tendríamos casi una historia clínica única y accesible desde cualquier parte.

Llevado al extremo ideal, se podrían introducir variables de salud desde cualquier parte (domicilio del paciente, oficina de farmacia, centro de salud, hospital…) e incluso sin intervención humana (por ejemplo un glucómetro o un tensiómetro o cualquier otro aparato de medida, podría meter directamente la información si está conectado a la historia clínica). Incluso un wearable que midiera variables en salud (un podómetro, un calculador de calorías consumidas….) podría introducirlas.

Como gran ventaja es que no se perderían datos en salud que actualmente estamos perdiendo y esta medición de variables de manera más continuada y registrada prodría servir para predecir eventos futuros de alteración de la salud. Además se podrían transmitir estos datos a otros sistemas (si el paciente viaja o cambia de domicilio) o poddrían ser accesibles por  el propio paciente con un terminal.

Por otro lado tenemos flujos de datos, miles de flujos de datos que irían entre elementos conectados a los que daríamos autorización de forma que las vulnerabilidades del sistema serían mucho mayores.

¿Podemos permitirnos el riesgo de entradas de agentes nocivos en un sistema tan sensible como el que alberga los datos de salud de un población?

Esta última pregunta puede ser clave en el caso en que la salud vaya por estos caminos.

Internet Cognitiva y Ubicua.


internet-technologies.jpg

El internet de las cosas (IoT), el Big Data, la Inteligencia Artificial, los Wearables, la Computación Cognitiva y los sistemas en la nube están creando una tormenta perfecta que nos permite vislumbrar el futuro de Internet dentro de unos años,

Para los que nos conectamos a Internet antes de la aparición de la web y sufrimos ese intercambio de archivos a través de procolos ftp el cambio que hemos vivido en pocas décadas ha sido muy acelerado.

La aparición de la web supuso una visualización lógica de la información. Las primeras imágenes y gifs animados junto con los hiperenlaces supusieron una capacidad de acceso a información que supuso grandes cambios (en este caso y para mí) en mis últimos años de universidad y principio de mi residencia.

Posteriormente la capacidad de escuchar música y ver vídeos supuso un cambio en el ocio. La aparición de la web 2.0 con la posibilidad de crear comunidades virtuales y ser capaz de editar y publicar contenidos supuso un gran cambio en la comunicación y la relación humana.

Todo ello acompañado de mucha mayor velocidad de procesamiento y almacenaje de datos de forma que mi movil actual tiene muchos más avances que el primer ordenador de sobremesa que tuve en casa.

El almacenamiento en la nube, los trabajos colaborativos, compartir y editar archivos de forma simultánea son acciones hoy en día cotidianas y dificícilmente imaginables en mis primeros contactos con Internet.

Muchos pensamos… ¿qué va a pasar ahora?, ¿de qué forma toda esta nueva tecnología que se está desarrollando relacionada con la inteligencia artificial, los wearables, la big data, la robótica va a afectar a la web?.

Ha aparecido el concepto de Internet Cognitiva y Ubicua para intentar definor lo que puede ser la red en pocos años.

Está claro que estamos utilizando cada vez más wearables con sensores capaces de medir variables (físicas y biológicas fundamentalmente) que se van a convertir en elementos sensoriales de la red capaces de “ver”, “escuchar”, “comprender” y “sentir”.

Estos elementos sensoriales van a estar interconectados (a través de tecnología de relación máquina-máquina o M2M) y dotados de capas de tejido neuronal capaz de toma de decisiones autónomas de manera que unos elementos van a comportarse como perceptores del entorno (imputs) y otros como ejecutores de acciones (outputs) interconectados (acción-reacción) a través de capas neuronales de elementos digitales.

Internet va a dejar de ser una red de ordenadores para convertirse en una red de objetos interconectados entre sí y que pueden llegar a funcionar de forma independiente. ¿Se podrá regular el tráfico de una gran ciudad adaptándose a los flujos circulatorios mediante semáforos inteligentes interconectados a una capa de inteligencia artificial?, seguro que muchos lo veremos.

Cada teléfono móvil que llevaos en nuestros bolsillos está dotado de infinidad de sensores y cada vez se están desarrollando nuevos sistemas de medida de variables. Muchos de ellos morirán por falta de utilidad y otros muchos se desarrollarán hasta ser capaces de medir con errores tan mínimos que los seres humanos daremos esta medida como aceptable y apta para que sirva de referencia para toma de decisiones donde incluso nuestra seguridad pueda estar comprometida (desarrollo de sistemas de seguridad de vehículos inteligentes, ciudades con sistemas autorregulados…)

Cada vez las máquinas tienen más autonomía y esta característica puede hacer que nuestra percepción aumente. Hasta ahora somos capaces de percibir por nuestros sentidos en un entorno físico muy limitado pero si ciertos sensores complementaran nuestros sentidos humanos y las máquinas estuvieran interconectadas entre sí ¿por qué no ver o escuchar lo que está fuera del alcance de nuestra vista y oído?.

Incluso las máquinas ya están aprendiendo conceptos complejos como la semántica del lenguajes. Hasta ahora nuestra entrada a Internet es un buscador que interpreta secuencias alfanuméricas y nos devuelve un listado de sitios web donde existen las mismas secuencias (o secuencias muy similares y aproximadas a las que hemos introducido). Posiblemente tengamos relaciones diferentes con las máquinas para obtener información y seamos testigos y protagonistas de preguntar a una máquina con lenguaje natural y que nos devuelva la respuesta a nuestra pregunta.

¿Peligros?… posiblemente muchos pero esta es la aventura que nos está tocando vivir.

 

Máquinas pensantes II: Deep Learning


Inteligencia-artifical

El aprendizaje de las máquinas puede ir más allá del aprendizaje automático ya que podemos crear redes neuronales artificiales de forma que las propias máquinas sean capaces de genrar entradas y reproducir una experiencia vital. Podemos hacer que las máquinas “vean”, “escuchen” y “lean” y sean capaces de adquirir experiencias a partir de sentidos propios de los humanos.

Realmente el sistema nervioso es un sistema de conducción eléctrica con áreas neuronales donde reside la memoria a través de elementos físicos y químicos. Hoy en día conocemos cómo funcionan numerosas áreas que regulan nuestra motricidad, nuestra percepción sensitiva y nuestros sentidos (vista, oído y olfato). Sabemos también cómo se regula nuestra memoria y funciones superiores y más abstractas como el lenguaje y la comunicación.

Pero no solo ha sido el conocimiento biológico el que ha generado este avance tecnológico. Funadmentalmente la estadística y las matemáticas han sido las que han aportado un peso específico más alto en hacer que las máquinas piensen.

Se denomina Deep Learning a un sistema de aprendizaje autónomo no supervisado muy similar al aprendizaje humano. Este tipo de aprendizaje se base en estructuras lógicas interconectadas en capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características de los objetos. Es decir que podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” exactamente igual que la especialización neuronal biológica. (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

De esta forma podemos crear redes neuronales artificiales que reproducen los patrones de las redes neuronales biológicas especializadas en cada uno de las tareas específicas que desarrolla nuestro sistema nervioso.

Como ejemplos reales:

    1. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.
    2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
    3. Redes neuronales capaces de tomar decisioones lógicas complejas y ganar a los mejores jugadores humanos en el juego Go.

Esto significa que los propios imputs estarían presentes en la propia máquina y la máquina no solo podría “ver”, sino “observar”; sacar conclusiones a partir de lo que percibe y tomar una decisión al respecto.

Todo ello más rápido y sin el agotamiento del cerebro humano.

Se plantean numerosas preguntas.

¿Quá aplicaciones podría tener ésto?. Por ejemplo una red neuronal capaz de ver e interpretar es básica en sistemas de conducción inteligente.

¿Tiene implicaciones éticas?. Por supuesto. Ante una situación donde hay un accidente con unvehículo de conducción inteligente con alta probabilidad de haber fallecidos y donde están involucrados un anciano y una mujer embaraza ¿qué decisión tomará la máquina? ¿y si la decisión menos dañina es la autodestrucción?.

Un futuro sería integrar todos estos sistemas. Una red neuronal compleja formada por redes neuronales complejas especializadas en “ver”, “escuchar”, “hablar”, “relacionar conceptos”. ¿Estaremos ante un cerebro artificial?.

¿Podremos llegar a crear una red neuronal capaz de explorar aun paciente y legar a un diagnóstico correcto?. Aunque esto pueda ser una realidad el contacto humano, la relación interpersonal humano-humano, creo que no podrá ser sustituida.

De EverBot a Humana Brain. Aplicación de un bot para el seguimiento de pacientes crónicos


Los Asistentes Virtuales (basados en soluciones de chatbot e inteligencia artificial) están proliferando últimamente. Las empresas grandes están apostando por potenciar la conexión de chatbots a sus plataformas (Facebook, Twitter, Cortana, Skype, Telegram). Existen además algunos ejemplos de asistentes virtuales que pueden ser embebidos en una página web. Para el año 2020 está previsto que el 85% de los Call Centers hayan sido reemplazados por tecnología chatbot.

La empresa de innovación del sector de la eSalud C2C está apostando fuertemente por evaluar y aplicar dichos conceptos al sector de la salud. La aplicabilidad clave para una transformación es el uso del chatbot de una forma transaccional, es decir, con capacidad de interactuar bidireccionalmente con un sistema de información o base de datos.
Desde hace más de un año, C2C ha formado un equipo con diferentes roles (coordinador de proyectos, asesor procesos de salud, experto en Inteligencia Artificial y programadores web y Apps) con el objetivo de generar conocimiento y tecnología que permita aplicar estos innovadores conceptos a Salud.

C2C dispone de la tecnología y conocimiento para el desarrollo de chatbots llamada EverBOT. Un caso de éxito de implementación es Humana Brain, desarrollado por C2C y la Clínica Humana. Este proyecto se basa en un cerebro virtual que lleva a cabo un seguimiento y control del paciente crónico en domicilio, a modo de una asistente virtual.

Este asistente virtual llamado Rosa controla y monitoriza a los pacientes comunicándose con ellos de forma simple y directa, a través del lenguaje natural y un sencillo sistema de chat. De esta forma, este interfaz es conocido y resulta familiar para los usuarios. Así, Rosa recuerda al paciente la toma de medicación y registra algunos datos periódicamente mediante un sistema conversacional automático y basado en conceptos de Inteligencia Artificial.

 

Everbot.png
Visión del paciente

El cerebro virtual junto al panel de control, ayuda a la Clínica Humana a priorizar acciones, controlando y clasificando a los pacientes. También automatiza ciertas tareas que son repetitivas.  De esta forma, reparte tareas a médicos, enfermeras, cuidadores, rehabilitadores y, si procede, a familiares. Eso permite al equipo de cuidadores focalizarse en los pacientes que requieren actuación inmediata, identificados por Rosa y el sistema inteligente.

 

Captura de pantalla 2017-05-18 a las 20.47.14
Visión del profesional en movil

 

Captura de pantalla 2017-05-18 a las 20.51.13
Visión del profesional en ordenador

La solución de C2C y Clínica Humana para la gestión de pacientes crónicos mediante inteligencia artificial y chatbots gana el primer premio de la II Edición Caeb-Santander a la Innovación Empresarial

En definitiva, esta tecnología  supone un cambio diferencial. Con una presentación sencilla para el usuario, un asistente virtual controla todo lo que sucede, coordina y establece enlaces de comunicación. De esta forma, lograr que la asistencia sanitaria no termine al salir de la consulta.

 

Villancico e Inteligencia Artificial


En estas entradas ya cercanas a la finalización del año queríamos hermanar tecnología, música, villancicos y navidad y que mejor forma que presentaros el primer villancico realziado por inteligencia artificial.

 

Se trata de un experimento realizado por Hang Chu y Raquel Urtasan de la Universidad de Toronto que consistió en hacer escuchar a un sistema de inteligencia artificial más de 100 horas de música y que compusiera una canción basándose en los acordes escuchados y en la imagen que aparece en el vídeo (un árbol de navidad).

El sistema compuso la melodía, la letra e interpretó el resultado final a través de un sistema sintetizador de voz.

Os dejamos escuchar la composición definitiva:

villancico

Es posible que como experimento haya sido un éxito, pero no creemos que vaya a estar entre los temas más escuchados estas navidades.

Bueno… a lo mejor tampoco es tan malo… Disfrutad de Wing!!! (si tenéis valor para hacerlo)

 

Hoy es domingo de…Cerveza con inteligencia artificial


Una cerveza a tu gusto

La inteligencia artificial se ha ido aplicando en diferentes situaciones a lo largo de los años y ha sido parte de soluciones creativas para problemas comunes incluyendo el área de la salud, transporte, motores de búsqueda, juegos de mesa, respuestas rápidas en apps de mensajería, etc.

En este caso, ha sido una compañía londinense la que, con la ayuda de inteligencia artificial, fabrica cerveza.

La empresa en cuestión, llamada IntelligentX, cerveza aiutiliza un algoritmo mediante el cual les pregunta a sus clientes si les gusta la cerveza y cómo podrían mejorar su sabor y su textura. De esa manera van mejorando la receta.

Una cerveza más amarga, con un intenso sabor ahumado o un marcado sabor a lúpulo son algunas de las características de los primeros lotes de cerveza creados con la ayuda de un sistema de inteligencia artificial de nombre ABI (Automated Brewing Intelligence) que recoge la información sobre los gustos de los consumidores.

En la botella hay un código que dirige a la persona que compra la cerveza a Facebook Messenger, donde un chatbot le hace algunas preguntas.

Hasta el momento la compañía de científicos británicos cool ha lanzado cuatro etiquetas (Golden AI, Amber AI, Pale AI y Black AI) que se han modificado hasta en 11 ocasiones a partir de las diferentes opiniones de los usuarios vía Facebook Messenger.

La información llega al maestro cervecero y se traduce en una mejor modificación de la receta. Por supuesto como para gustos los colores, todas las recetas que han ido surgiendo mediante este sistema han sido publicadas para todas aquellas personas que quieran replicarlas.

Se espera que las cervezas no sean los únicos productos que se produzcan a partir de este algoritmo.

Y que bien entra un domingo como hoy una cervecita bien fresquita y, encima, si está a tu gusto pues mucho mejor.

En el siguiente enlace y vídeo puedes ver como se realiza:

http://rudo.video/vod/b4vo9RlYdU/country/Mexico/section/estilodeVida/device/Mobile/type/sitio/origin/metrotv_estilodevida/autostart/true/volume/80

Día del orgullo LGTB tecnológico: Recuerdo a Alan Turing


TuringAlan Turing es considerado el padre de la informática al ser el constructor de la máquina enigma, capaz de descifrar los mensajes codificados del ejército nazi en la Segunda Guerra Mundial.

Además de la complejidad ética asociada ya que no podían interceptar todos los ataques porque los nazis sabrían que podrían descifrara sus mensajes y cambiarían el tipo de codificación.

Su éxito fue generar un sistema para desencriptar (criptoanálisis) independientemente del tipo de cifrado. de esta manera si cambiaban los códigos, en poco tiempo y con una muestra relativamente pequeña de mensajes interceptados, podrían de nuevo conocer el código de cifrado.

Fue un pionero de la robotica ya que en el campo de la inteligencia artificial, es conocido sobre todo por la concepción del test de Turing un criterio sistema que puede valorar la inteligencia de una máquina si sus respuestas en una prueba son indistinguibles de las de un ser humano.

La carrera de Turing terminó súbitamente tras ser procesado por homosexualidad en 1952.

En 1954 murió oficialmente por suicidio (aunque no se descarta la posibilidad de asesinato) haiandose a su lado una manzana mordida envenenada con cianuro. Incluso se ha especulado que la alegoría d ela manzana mordida ha posido ser la inspiración del logotipo de Apple (hecho negado en numerosas ocasiones por la empresa de Cupertino).

Desde este blog dedicado a la tecnología, nuestro reconocimiento a este pionero de la informática, la robótica y la inteligencia artificial que nación algunas décadas antes de que la sociedad de su propio país respetara las diferntes identidades sexuales.

 

Hoy es domingo… de 10 hechos sobre inteligencia artificial


domingoEn YouTube hemos descubierto este vídeo, locutado por voz robótica, que nos habla sobre 10 hechos sobre Inteligencia Artificial que no son proyectos, sino realidades cada vez más cotidianas.

Desde los interfces sonosros de nuestros sistemas operativos, mascotas robóticas (ya comercializadas), robots sexuales, máquinas capaces de ganarnos a juegos complejos como el poker, máquinas capaces de manejar el lenguaje de forma compleja que incluso pueden esceribir artículos periodísticos…

Pero sobre todo es la capacidad de aprendizaje y adaptación, predicción de acontecimientos a partir de análisis de patrones y sobre todo inteligencia… posiblemente más inteligente que la humana

¿Tendremos que tener en mente los tres principios clásicos de Asimov sobre las leyes de la robótica?.

Inteligencia Artificial en TED II


TEDAyer os decíamos que en el ciclo de TED sobre Inteligencia Artificial (IA) existían 6 conferencias. Solo os mostramos tres, para dejar otras tres para hoy sábado… Esperemos que las disfrutéis.

This app knows how you feel — from the look on your face (Esta app sabe cómo te sientes…por el aspecto de tu cara).

Rana El KalioubyPor Rana el Kaliouby. Han desarrollado una aplicación inteligente que escaneando tu cara o a través de una fotografía es capaz de analizar una serie de puntos guía y a partir de los mismos interpretar tu estado de ánimo. Puede identificar alegría, tristeza, preocupación, extrañeza o susto.

A partir de una simple imagen el sistema puede interpretar tu estado de ánimo y adaptarse a él interactuando con su interlocutor de manera diferente dependiendo de su situación concreta.

What happens when our computers get smarter than we are? (¿qué pasará cuándo nuestros ordenadores sean más inteligentes que nosotros?)

Nick BostromPor Nick Bostrom. Se trata de una pregunta con grandes implicaciones éticas. Aún tardaremos unas décadas (si es que se llega a lograr) que una máquina sea al menos tan inteligente como el humano que la creó o el humano que la maneja.

Pero se trata de un ejercicio teórico que pone en evidencia los vacíos éticos y legales existentes, la redifinición de procesos que hasta ahora considerábamos exclusivamente humanos.

Watson, Jeopardy and me, the obsolete know-it-all (Watson, Jeopardy y yo, el obsoleto sabelotodo)

Ken JenningsPor Ken Jennings. Ken Jennings es el participante en el concurso de respuestas Jeopardy!, uno de los de más éxito en la televisión estadounidense, que tiene la racha ganadora más larga. En un desafío con el superordenador Watson perdió y nos cuenta en esta charla TEd el sentimiento de un humano al ser derrottado por una máquina. ¿Estará obsoleto el saber humano?.

Inteligencia Artificial en TED


TEDEsta semana dedicada a la Inteligencia Artificial (IA) no podíamos acabarla sin ver si existen conferencias en TED relacionadas sobre este tema.

Hemos descubierto 6 conferencias, algunas de ellas ya revisadas en estas páginas que estamos seguros os van a entusiasmar durante el fin de semana.

Os presentamos 6 intervenciones en charlas TED donde se nos muestran diferentes experiencias sobre cómo estamos enseñando a los programas informáticos a “pensar” a “tomar decisiones” o a “interpretar datos”. Hasta ahora estas actitudes eran exclusivamente humanas, pero gracias a algoritmos lógicos capaces de retroalimentarse y a grandes cantidades de datos (Big Data) que sirven de alimentación a éstos para establecer entrenamientos de lógica y causalidad podemos lograr que un sistema artificial pueda determinar que una opción sea más válida o mejor que otra dependiendo de las variables o parámetros que previamente determinemos.

Get ready for hybrid thinking (Prepárate para el pensamiento híbrido).

ray kurzweilPor Ray Kurzweil. Evolutivamente la corteza cerebral, que nos dota a los mamíferos inteligentes de funciones superiores se desarrolló inicialmente hace doscientos millones de años. Desde entonces ha ido evolucionando aumentando su superficie y su complejidad de interconexión neuronal dotándonos de nuevas funciones y habilidades. Este desarrollo ha permitido que actualmente seamos como somos y hallamos alcanzado los logros que disfrutamos. Pero ¿se ha detenido la evolución?, ¿evolucionaremos a partir de lo que seamos capaces de crear?, ¿el siguiente gran salto evolutivo está en las máquinas?.

Una conferencia con un poco de ficción y mucho de ciencia  por el inventor , empresario ,y visionario Ray Kurzweil que inventó el primer sistema de reconocimiento óptico de caracteres (OCR) para transformar la palabra escrita en datos, el primer software de impresión a voz para ciegos, el primer sintetizador de texto a voz, el primer sintetizador de música capaz de recrear instrumentos de orquesta con gran calidad  y el primer sistema comercializado de reconocimiento de voz de gran vocabulario.

 

The wonderful and terrifying implications of computers that can learn (Las maravillosas y terroríficas implicaciones de los ordenadores que pueden aprender)

Jeremy HowardPor Jeremy Howard. ¿Qué técnicas tenemos para que una máquina inerte pueda tener capacidad de aprendizaje?, ¿cómo pasamos de algo inerte y automático manejado por un ser humano a un sistema capaz de tomar sus propias decisiones?. Estos son los datos de un futuro muy cercano que va a obligarnos a redifinir conceptos que hasta ahora considerábamos exclusivamente como capacidades humanas.

How we’re teaching computers to understand pictures (Cómo estamos enseñando a los ordenadores a interpretar imágenes)

FeiFeiLiPor Fei-Fei Li. Hoy en día un sistema informático es capaz de interpretar imágenes. No solamente imágenes simples, también imágenes complejas. Es capaz de interpretar formas, colores, proporciones e incluso identificar gestos y determinar el estado de ánimo a partir de los mismos.

Gran parte del diagnóstico médico es a través de imágenes. ¿Podremos tener sistemas fiables que puedan interpretar imágenes?. No solo estamos hablando de imágenes radiológicas, podemos ampliarlo a lesiones cutáneas, fondos de ojo, endoscopias…