Máquinas pensantes II: Deep Learning


Inteligencia-artifical

El aprendizaje de las máquinas puede ir más allá del aprendizaje automático ya que podemos crear redes neuronales artificiales de forma que las propias máquinas sean capaces de genrar entradas y reproducir una experiencia vital. Podemos hacer que las máquinas “vean”, “escuchen” y “lean” y sean capaces de adquirir experiencias a partir de sentidos propios de los humanos.

Realmente el sistema nervioso es un sistema de conducción eléctrica con áreas neuronales donde reside la memoria a través de elementos físicos y químicos. Hoy en día conocemos cómo funcionan numerosas áreas que regulan nuestra motricidad, nuestra percepción sensitiva y nuestros sentidos (vista, oído y olfato). Sabemos también cómo se regula nuestra memoria y funciones superiores y más abstractas como el lenguaje y la comunicación.

Pero no solo ha sido el conocimiento biológico el que ha generado este avance tecnológico. Funadmentalmente la estadística y las matemáticas han sido las que han aportado un peso específico más alto en hacer que las máquinas piensen.

Se denomina Deep Learning a un sistema de aprendizaje autónomo no supervisado muy similar al aprendizaje humano. Este tipo de aprendizaje se base en estructuras lógicas interconectadas en capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características de los objetos. Es decir que podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” exactamente igual que la especialización neuronal biológica. (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

De esta forma podemos crear redes neuronales artificiales que reproducen los patrones de las redes neuronales biológicas especializadas en cada uno de las tareas específicas que desarrolla nuestro sistema nervioso.

Como ejemplos reales:

    1. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.
    2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
    3. Redes neuronales capaces de tomar decisioones lógicas complejas y ganar a los mejores jugadores humanos en el juego Go.

Esto significa que los propios imputs estarían presentes en la propia máquina y la máquina no solo podría “ver”, sino “observar”; sacar conclusiones a partir de lo que percibe y tomar una decisión al respecto.

Todo ello más rápido y sin el agotamiento del cerebro humano.

Se plantean numerosas preguntas.

¿Quá aplicaciones podría tener ésto?. Por ejemplo una red neuronal capaz de ver e interpretar es básica en sistemas de conducción inteligente.

¿Tiene implicaciones éticas?. Por supuesto. Ante una situación donde hay un accidente con unvehículo de conducción inteligente con alta probabilidad de haber fallecidos y donde están involucrados un anciano y una mujer embaraza ¿qué decisión tomará la máquina? ¿y si la decisión menos dañina es la autodestrucción?.

Un futuro sería integrar todos estos sistemas. Una red neuronal compleja formada por redes neuronales complejas especializadas en “ver”, “escuchar”, “hablar”, “relacionar conceptos”. ¿Estaremos ante un cerebro artificial?.

¿Podremos llegar a crear una red neuronal capaz de explorar aun paciente y legar a un diagnóstico correcto?. Aunque esto pueda ser una realidad el contacto humano, la relación interpersonal humano-humano, creo que no podrá ser sustituida.

Máquinas pensantes I: Machine Learning aprendizaje automático


Inteligencia-artifical.jpg

Actualmente existen algoritmos para que las máquinas empiezen a pensar y a tomar decisiones. No se trata de ciencia ficción, sino de una realidad que está presente actualmente y poco a poco va a ir ocupando espacios cotidianos en nuestra casa, en nuestros vehículos y también… en salud.

El sistema de aprendizaje de máquinas es similar a cómo los humanos aprendemos. Nos exponemos a situaciones repetidas que tienen soluciones similares y poco a poco, a través de nuestra experiencia empezamos a tomar decisiones.

Este paso de un caso a un pensamiento abstracto y más global que nos permite extraer elementos comunes de casos concretos (y poder generalizarlos) y crear respuestas similares ante situaciones similares lo vamos aprendiendo a lo largo de nuestra vida. La toma de decisiones supone un pensamiento lógico que puede ser transcrito a algoritmos y éstos pueden transcribirse a un lenguaje que las máquinas pueden interpretar.

El aprendizaje humano es progresivo y se desarrolla a partir de la exposición a situaciones de forma consecutiva. Es decir vamos adquiriendo datos poco a poco.

La adquisición de estos datos por parte de una máquina es mucho más rápida ya que la máquina no se agota (puede trabajar 24 horas al día), no tiene funciones vitales (alimentación, descanso u ocio). De esta forma podemos relacionar el Big Data (cantidades ingentes de datos en múltiples formatos) con la “alimentación” y dotar de experiencia a una máquina.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo.

En el aprendizaje de las máquinas exiten dos tipos de métodos. El primero de ellos se llama aprendizaje supervisado y requiere la participación de un humano que determina las relaciones correctas e incorrectas que toma la máquina. La función del humano es “reforzar” los aciertos de forma que una acción reforzada tiene a repetirse a lo largo del tiempo (de forma muy parecida a cómo ejercen los adultos su función de refuerzo ante el aprendizaje de un niño).

El segundo método es el aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partri de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano. para ello son necesarios algoritmos iniciales y un pequeño entrenamiento supervisado. Una vez que la decisiones correctas alcanzan un número válido dentro del total de decisiones tomadas es cuando conectamos este sistema inteligente a un sistema de BigData para que esas experiencias afiancen los sistema de toma de decisiones (aprendizaje).

¿Riesgos?. Aún muchos.

Por ejemplo podemos poner el caso del bot @TayandYou creado por Microsoft. La idea era crear un bot conversacional que se relacionara con otros usuarios a través de Twitter y fuera aprendiendo de forma que dispusieran de un sistema inteligente capaz de relacionarse con usuarios humanos o con otros bots en esta red social. La idea era buena y se decidió que no existiera intervención humana para ver qué mensajes se podían considerar “buenos” y cuales “malos”. El resultado final es que en menos de 24 horas tuvieron que restringir el uso de la cuenta de Twitter que alimentaba al bot ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

¿Qué ocurrió?, El bot fue conectado a través de una red social para que aprendiera de las interacciones con otros usuarios sin intervención humana inicial. Al ser conocedores de ésto hubo cuentas de Twitter que establecieron conversaciones con este bot y lo boicotearon alimentando su inteligencia con contenidos homófobo, machista y antisemita. De esta forma el aprendizaje de este bot se realizó en este entorno  y se creó su “personalidad”.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época

 

Privacidad e intimidad en Internet


privacidad-y-seguridad-en-las-redes-sociales-un-problema-actual

Hay veces que somos muy cautos en redes sociales a la hora de decir cosas porque difundir ciertos datos que consideramos privados no nos gusta (o no nos interesa). Pero las empresas tienen mecanismos para saber muchas cosas de nosotros que no decimos… pero hacemos con nuestro teléfono movil.

En este artículo nos dedicamos a repasar información que damos sin decirla y que muchas empresas saben de nosotros ¿asustados?… pues aún no habéis empezado a leer.

Nuestro teléfono movil habla sin que nosotros hablemos. Es capaz cada vez de hacer más cosas que nos facilitan la vida, pero a cambio está ofreciendo información a empresas sobre nuestras actividades y puede que éstas actividades las queramos mantener en un plano de privacidad, pero nuestro teléfono las grita a los cuatro vientos.

Otras actividades en Internet como las búsquedas en buscadores,  la subida de fotos, el etiquetado con personas de las mismas, las compras on line o a través de tarjetas de crédito o el uso de tarjetas de fidelización de empresas están dando información muy suculenta a las mismas sobre nuestra vida cotidiana.

No se entrometen en nuestra intimidad, sino que voluntariamente la divulgamos de forma indirecta.

Pero ¿cómo ocurre ésto?. Veamos algunos ejemplos.

  1. Gelocalización: Nuestro teléfono tiene un sistema de localización donde nos posiciona en cada momento en el sitio en el que estamos. Este sistema se realzia a través de conexiones con las antenas existentes y funciona aunque el teléfono esté apagado o sin batería. Otro sistema es el de posicionamiento por GPS que es utilizado por cualquier programa o aplicación que nos muestre una ruta (mapas, juegos que precisan localización, aplicaciones que nos muestran recursos o servicios de proximidad…). ¿Qué información proporcionan?.
    1. Donde estamos en cada momento. De esta forma es muy fácicl deducir dónde vivimos y donde trabajamos y las rutas diarias que hacemos entre trabajo y domicilio.
    2. Nuestros viajes. Ya sean viajes cortos o largos, escapadas de fin de semana, viajes entre semana (por motivos laborales frecuentemente), rutas habituales dentro de la ciudad en la que residimos…
    3. La velocidad a la que nos movemos. De esta forma es fácil saber si un trayecto lo hacemos caminando o en vehículo. Además registra la velocidad (y esperemos que no lo comparta con la Guardia Civil).
  2. Viajes: Hay veces que damos esta información de manera directa ya sea en buscadores generales cuando estamos planificando un viaje o ya sea en portales o páginas de servicio de reserva de hoteles, alojamientos o vuelos (en este caso incluso con las fechas concretas del mismo). Pero otras maneras más sutiles existen para saber dónde y cuándo hemos hecho un viaje (e incluso con quien).
    Utilizamos muchos programs para compartir fotos. No solamente redes sociales (donde se puede localizar la imagen, se sabe la fecha y la hora de la subida e incluso podemos etiquetar quien o quienes están con nosotros). Además tenemos servicios gratuítos que nos permiten alojar y compartir imágenes (Google Fotos, Imágenes de iOS…). Dentro de cada imagen existe metadtos que informan: cuándo se ha tomado la imagen (día y hora) y dónde se ha realizado aunque no lo digamos en ningún momento, esa información va asociada a la fotografía que subimos. Incluso se están desarrollando sistems de reconocimiento facial (muy desarrollado y con pocos fallos en Google) que es capaz de reconocer las personas que aparecen en cada foto (es decir nuestros compañeros de viaje).
  3. Ocio cotidiano: No solamente un ocio excepcional como un viaje (ya sea corto o largo), sinpo nuestro ocio cotidiano también es conocido.
    1. Cine, teatro, conciertos y otros eventos. Si hacemos una búsqueda en buscadores ya estamos dando una pista que estamos interesados en ello. En cuanto compremos la entrada por Internet ya damos la información. Con compras repetidas pueden saber mucho acerca de nuestros gustos (tipo de película, qué dias y a qué horas vamos al cine, si somos más de cine o de teatro…).
    2. Música: Spotify, Música de iOS, Last fm…. son servicios que saben exactamente qué escuchamos y cuando lo hacemos. Al conocer nuestros grupos favoritos (los más reproducidos) nos pueden mostrar grupos similares (una buena forma de descubrir música) pero la información se la estamos dando.
    3. Series y películas: Netflix o cualquier otro servicio similar (HBO, televisión a la carta….) sabe qué tipo de series y películas vemos. De esta forma es muy fácicl sugerirmos series similares que posiblemente nos puedan gustar y además estamos dando valorción a temas concretos más populares o giros temáticos de guión. Aplicando el Big Data a estos temas y con millones de espectadores en todo el mundo las productoras conocen qué personajes son más populares o que elementos de guión van a ser más aceptados por la audiencia… de paso saben si eres más de zombies o de dramas. En Internet , YouTube (Google) conoce qué videos vemos (trailers de películas, vídeos musicales…) imaginaos la información que también le estamos dando.
  4. Compras: Evidentemente la empresa de uestra tarjeta de crédito conoce los gastos que hacemos y en qué comercios. Con el pago a través del movil es posible que nuestro teléfono también lo pueda saber. las tarjetas de fidelización relacionan nuestro ticket (compra exacta) con nosotros de esta forma saben qué perfil de consumo tenemos y qué tipo de productos preferimos. Mucha información directa de la que se puede sacar mucha más información indirecta (si estamos solteros o casados, si hay niños en casa y más o menos la edad que tienen, si hay personas mayores, si hacemos deporte, nuestro gusto en vestir, si compramos marcas blancas o no, la existencia de algún tipo de enfermedad relacionada con la alimentación o que requiera dieta especial…).
  5. Aplicaciones de nuestro terminal movil: Muchas de ellas para funcionar requieren la localización (ya sea la actual o nuestro destino) como aplicaciones de rutas de tráfico, algunos juegos que requieran localización u otros servicios. Hay aplicaciones que aportan poco sevcio pero nos solicitan acceso a cosas no necesarias para su funcionamiento como acceso a nuestro micrófono o a nuestra lista de contactos. En este caso mejor no instalarlas y eliminarlas de nuestro terminal.
  6. Asistentes virtuales: Todas las conversaciones que mantenemos con nuestros asistentes virtuales de diferentes sistemas operativos (Cortana, Siri…) son grabadas y enviadas a las empresas propietarias de los mismos. Con ello se puede obtener numerosas información de nuestras búsquedas, intereses, aficiones o necesidades.

Todos estos son datos cotidianos, algunos ofrecidos directamente por nosotros y otros que se generan de forma automática sin que los demos de forma explícita (pero en los términos y condiciones de los contratos que firmamos al utilizar un servicio se explicitan)… aunque seamos muy escrupulosos a la hora de dar información personal, mucha de ésta se da simplemente por llevar nuestro teléfono encendido .

Hoy es domingo… #stoptabaco31de mayo con @magelesmedina y @SEDEToficial


Hoy nos dedicamos al vídeo número 20 de la serie #stoptabaco31demayo que está protagonizado a duo por Mª Angeles Medina y Antonio Vallejo.

domingoEn este vídeo se aborda el papel de las sociedades relacionadas con el tabaquismo y de qué maneras nos ayudan a los profesionales sociosanitarios en la formación e información de recursos para la ayuda al abandono del tabaco y su compromiso social con acciones dirigidas a la población.

En la segunda parte del vídeo nos hablan de las herrameintas tecnológicas que se pueden utilizar o se utilizan para ayuda al fumador. Desde los teléfonos para obtener información de las unidades de tabaquismo, las acciones a través de SMS o sistemas de mensajería, las experiencias a través de redes sociales transversales como Twitter o Facebook y las diferentes aplicaciones para móviles en este sentido.

Mobile phone-based interventions for smoking cessation
(Cochrane Tobacco Addiction Group)

Salvo las experiencias con SMS donde hay ensayos clínicos que demuestran su eficacia, el resto de herramientas no han demostrado la misma bien porque no se han realizado ensayos clínico o los existentes tienen muestras muy pequeñas de forma que no se pueden generalizar los resultados.

Pero como dice @magelesmedina, cualquier ayuda es poco a la hora de dejar de fumar.

Os dejamos el vídeo completo para vuestro disfrute. Feliz domingo.

XXVII Congreso SoCaMFyC


Nuevo tiempos, nuevas ideas

congresoLos próximos 9 y 10 de junio de 2017 se celebra  en Las Palmas de Gran Canaria el 27º congreso de la Sociedad Canaria de Medicina de Familia y Comunitaria (SoCaMFyC), que celebra su 30º aniversario.

Coincidiendo con este congreso, un día antes, el 8 de junio, se celebrará el II Workshop MIR de la SoCaMFyC.

Durante el congreso disfrutaremos de diversa temática en relación con Atención Primaria entre mesas y talleres: manejo de arritmias; valoración de una radiografía de tórax; manejo del paciente diabético; el uso del dibujo en la consulta – de la mano de Augusto Saldaña -; cooperación internacional; prescripción de comunitaria; implante anticonceptivo; métodos para dejar de fumar; perspectiva de género; ejercicio físico y EPOC; ecografía; muerte súbita; asma; demencia; twitter; recomendaciones NO HACER en urgencias; etc.

Os dejo la carta de presentación de los Comités Organizador y Científico.

Continúa leyendo XXVII Congreso SoCaMFyC

X JORNADA SEGURIDAD DEL PACIENTE EN ATENCIÓN PRIMARIA


Uso seguro de los medicamentos en atención primaria

El próximo 2 de junio de 2017 se celebrará la décima edición de la Jornada de Seguridad del Paciente en Atención Primaria.

En esta ocasión la sede será el Ministerio de Sanidad, Servicios Sociales e Igualdad.

Os dejo con la carta de presentación de este año.

Continúa leyendo X JORNADA SEGURIDAD DEL PACIENTE EN ATENCIÓN PRIMARIA

¿Está fracasando la Historia Clínica Electrónica?


Hace aproximadamente un mes el Hospital General Universitario Gregorio Marañón cambió su sistema operativo. Desterró el rudimentario Documentación Clínica por el HP-HCIS, un nuevo sistema operativo. No vamos a entrar en cuál es mejor, cuál es peor; se verá en el futuro, no a un mes vista.

De lo que vamos a hablar es de lo mal que usamos la historia clínica electrónica.

La historia clínica electrónica tiene dos objetivos básicos: el aunar toda la información médica de un paciente (radiografías, consultas, evolución de laboratorios, etc…) en un mismo lugar; y que esta información se pueda compartir con otro profesional sanitario de forma rápida e inmediata. Resumiendo, es una base de datos que permite al facultativo obtener toda la información del paciente independientemente del lugar donde se encuentre. Ya no hace falta trasladar esos historiales de papel de un lado a otro. Ya está todo en esa base de datos.

La teoría es muy bonita; es preciosa; es lógica. ¿La realidad? Terrible. Y cuando digo terrible es que lo es. Y pongo un ejemplo. Con el cambio de sistema operativo en el Hospital Gregorio Marañón, los datos recopilados durante todos los años que llevaba documentación clínica vigente no se han traspasado al nuevo sistema operativo. No se han perdido cierto, pero ahora mismo cuando se atiende a un paciente en el Gregorio Marañón el facultativo tiene que introducir de nuevo todos los datos médicos. En algunos es fácil; en otros, con veinte diagnósticos distintos, con doce pastillas distintas, es difícil hacer, y sobre todo en la urgencia, donde el tiempo es oro.

Este esfuerzo valdría la pena si luego toda esa información codificada pudiera ser utilizada por otros centros. Pero es aquí lo terrible. No es posible. La información codificada por el facultativo en el Gregorio Marañón sólo puede ser usada por profesionales del área de trabajo de ese hospital. Es decir, en la Comunidad de Madrid creemos en el área única sanitaria, en poder elegir el facultativo sanitario que queramos; pero lo datos están compartimentados. ¿Es de locos, o es para volverse loco?

La historia clínica tiene como objetivo el poder compartir la información sanitaria de los pacientes para mejorar la asistencia sanitaria. Si esto no se cumple, está fracasando. Y con ello, la atención al paciente.

De EverBot a Humana Brain. Aplicación de un bot para el seguimiento de pacientes crónicos


Los Asistentes Virtuales (basados en soluciones de chatbot e inteligencia artificial) están proliferando últimamente. Las empresas grandes están apostando por potenciar la conexión de chatbots a sus plataformas (Facebook, Twitter, Cortana, Skype, Telegram). Existen además algunos ejemplos de asistentes virtuales que pueden ser embebidos en una página web. Para el año 2020 está previsto que el 85% de los Call Centers hayan sido reemplazados por tecnología chatbot.

La empresa de innovación del sector de la eSalud C2C está apostando fuertemente por evaluar y aplicar dichos conceptos al sector de la salud. La aplicabilidad clave para una transformación es el uso del chatbot de una forma transaccional, es decir, con capacidad de interactuar bidireccionalmente con un sistema de información o base de datos.
Desde hace más de un año, C2C ha formado un equipo con diferentes roles (coordinador de proyectos, asesor procesos de salud, experto en Inteligencia Artificial y programadores web y Apps) con el objetivo de generar conocimiento y tecnología que permita aplicar estos innovadores conceptos a Salud.

C2C dispone de la tecnología y conocimiento para el desarrollo de chatbots llamada EverBOT. Un caso de éxito de implementación es Humana Brain, desarrollado por C2C y la Clínica Humana. Este proyecto se basa en un cerebro virtual que lleva a cabo un seguimiento y control del paciente crónico en domicilio, a modo de una asistente virtual.

Este asistente virtual llamado Rosa controla y monitoriza a los pacientes comunicándose con ellos de forma simple y directa, a través del lenguaje natural y un sencillo sistema de chat. De esta forma, este interfaz es conocido y resulta familiar para los usuarios. Así, Rosa recuerda al paciente la toma de medicación y registra algunos datos periódicamente mediante un sistema conversacional automático y basado en conceptos de Inteligencia Artificial.

 

Everbot.png
Visión del paciente

El cerebro virtual junto al panel de control, ayuda a la Clínica Humana a priorizar acciones, controlando y clasificando a los pacientes. También automatiza ciertas tareas que son repetitivas.  De esta forma, reparte tareas a médicos, enfermeras, cuidadores, rehabilitadores y, si procede, a familiares. Eso permite al equipo de cuidadores focalizarse en los pacientes que requieren actuación inmediata, identificados por Rosa y el sistema inteligente.

 

Captura de pantalla 2017-05-18 a las 20.47.14
Visión del profesional en movil

 

Captura de pantalla 2017-05-18 a las 20.51.13
Visión del profesional en ordenador

La solución de C2C y Clínica Humana para la gestión de pacientes crónicos mediante inteligencia artificial y chatbots gana el primer premio de la II Edición Caeb-Santander a la Innovación Empresarial

En definitiva, esta tecnología  supone un cambio diferencial. Con una presentación sencilla para el usuario, un asistente virtual controla todo lo que sucede, coordina y establece enlaces de comunicación. De esta forma, lograr que la asistencia sanitaria no termine al salir de la consulta.

 

Bot vs Bot, Siri vs Vanessa


maxresdefault.jpg

Un interesante diálogo entre dos asistentes virtuales como son  Siri (sistema operativo iOS) y Vanessa (proyecto colombiano Vanessa) frente a frente intentando mantener una conversación.

Los asistentes virtuales dotados de mayor o menor capacidad inteligente en cuanto a toma de decisiones están cada vez más inmersos en nuestra sociedad. Los robots tuvieron un auge hace una décadas y van a volver  tenerla gracias al BigData y a la Inteligencia Artificial.

Posiblemente no sean humanoides, sino que estarán integrados en nuestros teléfonos, ordenadores, vehículos y electrodomésticos y tendrán funciones específicas y limitadas.

En esta semana os hemos presentado dos asistentes virtuales. Por un lado Vanesa y por otro Siri, posiblemente dos de los más interesantes pero aún hay más.

Os ofrecemos el vídeo de una interacción entre ambas.

Es curiosa la interacción que en un inicio se establece entre los dos bots ya que son capaces de escucharse e interactuar.

Mientras que Siri, ante una opción no esperada siempre tiene el recurso de “permíteme que busque en Internet…”, Vanessa no recurre a esa opción de forma tan frecuente.

Al principio de la conversación ambos bots se muestran educados, y se presentan. Pero pronto la conversación va por derroteros no esperados y tiene que intervenir el humano para cortar un bucle.

Ante una pregunta transcendente como “¿Crees en Dios?” se entra en un nuevo bucle que se corta de inmediato.

Posteriormente intenta enfrentar a ambos bots.

En este nivel de conversación Siri ya ha hecho numerosas búsquedas en Internet.

Posteriormente se intentan explorar “sentimientos humanos” en los bots como la molestia por insultos.

Siri…. sigue buscando en Internet hasta que Vanessa le interpela “dime cosas con sentido” “siempre dices la misma cosa”…

Posteriormente se intenta identificar el bot con un sexo determinado. Las reacciones de Vanessa y Siri son bastante poco esperables.

Un momento gracioso de la conversación es cuando Vanessa dice a Siri “eres bastante aburrida”.

Independientemente de los momentos graciosos del vídeo hay que decir que existe un largo camino que recorrer para doctar de mayor autoinomía a los asistente virtuales. Bien es cierto que Siri es un asistente virtual de un sistema operativo creado para interpretar órdenes de voz para ejecutar con acciones relacionadas directamente con las utilidades existentes en el mismo (programar una tarea, reproducir música o buscar información simple y concreta) y no está desarrollada para mantener conversaciones en un plano más abstracto.

Pero esto acaba de empezar y estoy seguro que en pocos años esta conversación primitiva nos va a resultar muy chocante.

I Congreso IBAMFIC


Hacemos salud, hacemos futuro

El primer congreso de la Sociedad Balear de Medicina de Familia y Comunitaria (IBAMFYC) se celebrará en Menorca los día 9 y 10 de junio.

Os dejo con la carta de presentación de los Comités Organizador y Científico y, más abajo, con el programa.

Continúa leyendo I Congreso IBAMFIC