Existen varios ejemplos que podemos conocer sobre bots y salud. Uno de ellos un bot con interfaz humana como es el Proyecto Kristina y un bot textual como el Dr. Abuse.
Kristina es un proyecto del que hemos hablado en las últimas semanas. Se trata de una asistente con interfaz humana que nos va a servir como una intérprete inteligente para favorecer la comunicación en temas de salud con ciudadanos extranjeros. Se trata de un interesante proyecto en el en el marco del Horizonte 2020 de la Comisión Europea dentro del CORDIS (Community Research and Development Information Services) donde existe participación española destacando la Universidad Pompeu Fabra y la Sociedad Española de Medicina de Familia y Comunitaria (semFYC).
Pero hemos descubierto otros interesantes protectos de salud realizados a través de bots como el Dr. Abuse programado como un bot de charla (chatbot) de psicoterapia y activando el modo de autoayuda podrás acceder a su opciones de psicoterapeuta. El propio bot tiene un comportamiento humano con una «personalidad» bien definida de forma que lo más acertado es tratarle como un humano («como a tu mejor amigo»).
Es un proyecto que cuenta con sectores muy críticos y no vamos a entrar en estas líneas si podrá sustituir o incluso complementar el apoyo psicoterapeútico ya que el nivel de error y de fallos de comunicación es grande.
Podemos tener algunas conversaciones transcritas donde veremos el funcionamiento y los límites de este bot desde el año 2006 al 2008 en el blog «Las Consultas del Dr Abuse» donde también podemos ir viendo las mejoras progresivas que va teniendo el programa y el aprendizaje continuado que va realziando el bot de forma que las últimas conversaciones son más «maduras» y «coherentes» que las primeras.
Dr. Abuse es un programa de Inteligencia Artificial (AI) que demuestra apariencia humana, basado en un famoso programa Eliza de Joseph Weizenbaum que permite mantener una conversación fluida con el ordenador ya que bot ha sido entrenado en miles de conversaciones con humanos y otros robots a través de diferentes medios.
Al entremezclar bots e Inteligencia artifical enla mayoría de los programas se siguen cumpliendo las clásicas Leyes de la Robótica de Asimov.
1 – Un robot no puede hacer daño a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado.
2 – Un robot debe obedecer las órdenes recibidas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3 – Un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la Primera y la Segunda Ley.
No conocemos más casos de ejemplos de bots y salud… pero esto es un reto ¿bots para perder peso?, ¿bots para alimentación más saludable?, ¿bots de ayuda para dejar de fumar?….¿Más ideas?.
Proyecto como bien apuntaba Rafa Bravo en Primum non Nocere sobre aplicaciones de chat bots para confirmar o no la asistencia a una cita médica
Dejemos volar la imaginación…. sin mucha ciencia ficción, solo ciencia… Con la conjunción de los bots y la inteligencia artificial, ¿qué pasará cuando le añadamos big data?, ¿qué pasará cuando la toma de decisiones generada en segundos por un programa tenga más evidencia científica basada en el conocimiento, análisis y procesamiento de las conclusiones y resultados de los últimos metaanálisis y ensayos clínicos, que la generada por una mente humana?… Tendremos que redefinir los conceptos pensar e inteligencia como bien dice mi amigo @joakinen