Presentación del proyecto #Dejalobot en #semFYCBCN


En el mes de mayo se ha celebrado el congreso semFYC del año 2018 en la ciudad de Barcelona. Hasta allí fuimos miembros del GAT (Grupo de Ayuda al Tabaquismo) y del Grupo de Trabajo de Nuevas Tecnologías para presentar nuestro proyecto  #Dejalobot.

 

Se trata de un ensayo clínico pragmático con dos ramas paraleleas. Una de ellas (control) donde se realizará el manejo del abandono del tabaquismo según la práctica habitual y un segundo grupo (intervención) donde la deshabituación se realizará a través de un chat-bot.

Un chatbot es un programa informático que interactúa con el usuario a través de una aplicación de mensajería (en nuestro caso hemos utilizado por cuestiones técnicas  y de seguridad la aplicación Telegram) entablando una conversación lógica.

Para el desarrollo de esta conversación, cuyo objetivo es guiar al fumador en el proceso del abandono del hábito tabáquico, hemos desarrollado una serie de escenarios clínicos similares a todos los casos posibles que se pueden dar en este proceso. Ha sido como elaborar un guion de teatro con múltiples opciones y que ha sido de gran complejidad para nuestros expertos en tabaquismo.

La conversación puede ser iniciada por la persona o por la máquna y se bot puede remitir mensajes multimedia (texto, enlaces, imágenes, infografías, vídeos) como respuesta o complemento a la misma a lo largo de la conversación.

Pero en el Congreso de Barcelona hemos presentado la metodología del trabajo. Os dejamos la presentación que llevamos al congreso.

Nuestro Plis-Plas en #SoMaMFyC19A


El 19 de abril y bajo el lema “Nuevas miradas para viejos retos” se celebró en la Universidad Rey Juan Carlos de Madrid el vigesimo sexto congreso de la Sociedad Madrileña de Medicina de Familia y Comunitaria (SoMaMFyC).

La participación de nuestro grupo de trabajo fue en el reconocido Plis-Plas (intervenciones cortas de cada uno de los grupos) que pretenden dar una actualización de las novedades en su ámbito de trabajo durante este año.

Escogimos un tema de actualidad: la inteligencia artificial y cómo las máquinas, aunque sigan sin ser inteligentes, son capaces de aprender.

Os dejamos nuestra intervención esperando que os sea de ayuda.

Acceso abierto (Open Acces): nuevas formas de difundir ciencia por una tercera vía


El Acceso abierto (Open access  en inglés) es la posibilidad de adquirir u obtener de forma inmediata y sin requerimientos de registro, suscripción o pago material digital educativo, académico o científico. Principalmente artículos de investigación científica de revistas especializadas y arbitradas mediante el sistema de revisión por pares o peer review. (Wikipedia)

A través de este tipo de acceso se favorece la difusión de la investigación a más alto nivel de forma que no existen restricciones para que el conocimiento se difunda entre todos los profesionales e investigadores interesdos en un tema.

De esta forma se favorece que la literatura científica se encuentre disponible en internet y accesible sin barreras, eliminando procesos de suscripción y diferencias de posibilidad de acceso por motivos económicos. Además se elimina el concepto clásico de derechos de distribución de manera que la mayoría de las barreras de uso de este material desaparecen manteniéndose el hecho de reconocimiento de la autoría del original.

Aunque se inició esta corriente en el ámbito científico y académico se ha extendido a muchos otros campos del saber ya que actualmente existen en Internet numerosas bases de datos, software, elementos multimedia y libros cuyo acceso está restringido.

open_access_grafik2016Eliminar barreras de diferentes tipos (legales, económicas o de acceso) permite que el contenido sea más difundido, que los autores tengan más impacto y que el beneficio de la investigación llegue a la sociedad.

Tener la disponibilidad de acceso de forma gratuita de literatura en Internet de manera que cualquier usuario pueda leer, descargar, copiar, distribuir, imprimir, buscar o enlazar los textos completos de estos artículos, reutilizarlos como datos para generar software o utilizarlos para cualquier otro propósito legal, sin barreras financieras, legales o técnicas distintas de las fundamentales a la propia conexión a Internet es el objetivo último de este movimiento.

La única limitación ha de ser otorgar a los autores el control último de su trabajo y reconocerlos como tal en cualquier obra derivada de la obra original citando su trabajo y enlazándolo a la fuente original.

Durante los años 2002 y 2003 se establecen reuniones en Budapest (2002), Bethesda (2003) y Berlin (2003) donde se establecen las bases y las normas del acceso abierto.

Tradicionalmente existen dos vías de acceso.

  1.  Acceso verde (autoarchivo): Los autores del original almacenan o archivan el contenido de su trabajo en un servidor (normalmente el de la institución donde realizan el mismo) con acceso abierto a otros investigadores. La limitación de esta vía es que aún el trabajo no ha sido revisado por pares. Aunque en investigación clínica este hecho es una limitación, en otras disciplinas (programación de software) el tener acceso a este archivo en bruto permite el aprovechamiento del mismo y la construcción de nuevas utilidades de programación a partir del contenido compartido.
  2. Acceso oro (revistas de acceso abierto). Por el momento es el máximo exponente de acceso abierto para la difusión de artículos científicos. Los autores remiten el manuscrito y éste es revisado por pares previo a su publicación. Los editores (editores tradicionales que están variando el modelo de negocio hacia modelos abiertos) o editores que han nacido como modelos abiertos como Public Library of Science (PLOS) o BioMed Central se encargan de establecer la revisión y difundir el trabajo a través de sus plataformas y redes sociales (en abierto). El coste de todo el proceso es sostenido por los autores (normalmente sufragado a través de becas o ayudas a la investigación con capítulos presupuestarios específicos).

Se está iniciando una tercera vía denominada acceso diamante que supondría una mezcla de las dos.

Los autores suben el original a una base de datos abierta (vía verde) y existirían una serie de revisores voluntarios que a través de un trabajo voluntario acreditarían la validez de la investigación actuando como revisores (vía dorada).

De esta forma el modelo diamante emula la forma de generar contenido de Wikipedia con la que hemos empezdo el artículo en la definición de código abierto. En Wikipedia cualquiera podemos editar cada uno de los wikis que corresponden a las entradas de los artículos, bien modificando los contenidos o generando contenidos o entradas nuevas. La propia comunidad actúa como revisor de forma gratuita y se amplían, corrigen,, modifican o aceptan nuevas aportaciones.

Esta vía diamante tendría las siguientes ventajas:

  1. Sería la propia comunidad científica quien tendría la capacidad de generar, revisar y difundir el producto de la investigación.
  2. Se tendría acceso en un mismo reservorio institucional el trabajo sin revisar y revisado.
  3. Se obvian intermediarios que suponen un coste adicional en la investigación.
  4. El acceso se amntiene abierto y libre de cargo económico tanto para los lectores como para los autores.

Como inconvenientes vemos:

  1. El trabajo del revisor es voluntario y debería estar planificado y estructurado por la institución científica o académica que lo alberga o solicitar revisón a terceros.
  2. La propia voluntariedad del trabajo podría generar sesgos en la propia revisón.

Una revisión del perfil personal de Google Académico


Si Google es el buscador por excelencia, Google Académico puede ser una excelente opción de búsqueda que presenta algunas ventajas que analizaremos en este artículo (también algunos inconveniente). El perfil personal que podemos establecer puede ser interesante y nos ofrece datos sobre nuestras publicaciones además de estar bien posicionado en el buscador.

Que Google es el buscador por excelencia no hay duda. En inglés, idioma posiblemente más plástico que el nuestro y fuente de innovación lingüística, ha surgido el verbo “to google” (que hemos importado como “googlear”/ “guglear”) para hacer referencias a las búsquedas en él.

Google nos ofrece Google Académico que realmente es un buscador con el mismo motor  pero que restringe la misma a páginas relacionadas con entornos académicos (bases de datos bibliográficas, tesis doctorales, libros, artículos, presentaciones).

El ejemplo más evidente y frecuentemente puesto para comparar ambos buscadores es teclear en su cajetín de búsqueda la palabra “sexo”. En Google arroja, en el día de escribir este artículo más de 447 millones de resultados. mientras que en Google Académico no llega a 2 millones y medio. Evidentemente la orientación de los resultados arrojados no es la misma.

sexo

FiltrosGoogle Académico como buscador nos ofrece una serie de filtros que se localizan en el margen derecho de la página (al estilo de los filtros en PubMed) pudiendo filtrar por:

  1. Intervalo de tiempo: Artículos publicados desde un año determinado o eligiendo un intervalo de fechas.
  2. Tipo de orden: Siguiendo dos criterios: relevancia o fecha de publicación.
  3. Nos permite incluir patentes o citas.
  4. Nos permite crear alertas de las búsquedas.

En los últimos años no se han modificado los filtros y estaría bien tener una mayor posibilidad de afinar búsqueda en esta plataforma ya que se ha comparado con el buscador biosanitario por excelencia que es PubMed:

 

Pero en esta entrada nos interesa Google Acagémico como creador de un perfil personal académico.

Nos permite crear un perfil con unos pocos datos profesionales donde se van a ir incluyendo las publicaciones que aparezcan en Internet.

Tiene una serie de ventajas e inconvenientes.

Ventajas Inconvenientes Google Academico

Ventajas:

  1. Al ser una herramienta de Google la posiciona muy bien en el buscador por lo que aparece mucho antes cuando se busca nuestro nombre que otras plataformas similares ya vistas en anteriores artículos de este blog (como ORCID, Mendeley o ResearchGate).
  2. Actualiza automáticamente los artículos según aparecen indexados en el buscador a través de nuestro nombre.
  3. En el caso en que no aparezca un artículo determinado lo podemos buscar entre una lista de artículos donde seamos posibles autores o incluirlo de forma manual.
  4. Nos ofrece índices bibliométricos como el “h index” o el “i10 index” así como el número total de artículos y citas por año.
  5. Permite creación de citas bibliográficas a través de la exportación de las referencias a gestores de citas en diferentes formatos (BibTeX, EndNote, RefMan o CSV)
  6. Además de los artículos en revistas científicas, Google Académico, amplía su búsqueda en otras bases de datos. Por este motivo la cantidad de referencias suele ser mayor.

Inconvenientes:

  1. Carece de identificadores inequívocos de autor (ScopusID, ORCIDID) por lo que si nuestro nombre aparece en algunas combinaciones no detectadas no nos lo incluye automáticamente en el perfil. Nos permite, eso sí, la posibilidad de hacer una búsqueda manual de artículos (a través de artículos cuyos autores tienen una composición similar a nuestro nombre) o poder incluirlo manualmente.
  2. Por ese motivo hay que revisarlo de forma periódica para ver si están todas nuestras publicaciones.
  3. Como aparecen referencias de nuestros artículos en citas digitales (no necesariamente publicadas en revistas científicas el índice h suele estar incrementado respecto a otras plataformas que lo calculan exclusivamente con publicaciones en papel. Así mi h index en Scopus y Mendeley es de 2, mientras que en Google Académico es de 6.

    Comparación h index.png

¿Cómo crear un perfil en Google Académico?

  1. En la esquina superior derecha de la pantalla principal de Google Académico podemos iniciar la creación de un perfil.
    1
  2. Se nos muestra una pantalla inicial donde podemos ofrecer datos de filiación y profesionales y subir una imagen.
    2
  3. Rastrea en la red para incluir los artículos de los cuales seamos autores. La generación de índices bibliométricos es automática.

¿Cómo visualizar nuestras referencias?

Tenemos os opciones de visualizarlas: bien por fecha de publicación o por impacto (número de veces que han sido citadas)

Captura de pantalla 2018-01-14 a las 13.45.51.png

 

¿Cómo gestionar nuestras referencias?

Añadir referencias. Podemos añadir referencias a través de una búsqueda automática o un registro manual.

Para la búsqueda automática (referencias existentes porque Google no ha podido detectar nuestra autoría por propblemas en la identificación). Vamos a la barra de botones superior y pulsamos sobre el botón añadir artículo desplegándose una ventana emergente donde podemos añadir un artículo de forma semiautomática (se nos muestra un listado con artículos con la grafía del nombre similar a la nuestra seleccionando los artículos de los que somos autores), añadir artículo de forma manual y añadir grupos de artículos.

Añadir.png

Fusionar artículos duplicados. Hay veces que ocurre que aparecen artículos duplicados por varias razones:

  • La grafía de nuestro nombre tiene sutiles diferencias en diferentes bases de datos.
  • Lo más frecuente es que Google detecta como diferentes el mismo artículo con el título en inglés y en español.

Por ello a veces hay que fusionarlos (nos contabilizarían el número de citas en dos artículos diferente cuando en realidad son el mismo).

Para ello seleccionaríamos los artículos haciendo clic en la casilla de verificación que aparece delante de los mismos y aparece un botón de “combinar” en la barra superior de botones. En una posterior ventana nos pide cuál es la versión que deseamos que aparezca en nuestro listado. A partir de ese momento considerará el artículo como único.

Combinar articulos.png

Eliminar un artículo. Hay veces que se incluyen artículos de los que no somos autores o nos equivocamos en el registro. Ante esa posibilidad nos permite eliminar un registro que se hace seleccionando el artículo que queremos eliminar haciendo clic en la casilla de verificación anterior y pulsando el botón eliminar.

Eliminar.png

Exportar artículos a gestores bibliográficos. Nos ofrece la posibilidad de exportar artículos a diferentes gestores bibliográficos en diversos formatos que son interpretados e importados por la mayoría de los gestores. Haciendo clic en la casilla de verificación del artículo o artículos que queremos exportar se activa el botón de exportar. Si seleccionamos el mismo nos permite la exportación de la-s referencia-s en diferenets formatos.

Exportar.png

Datos de impacto

Haciendo clic en cada uno de los artículos se nos abre una ventana emergente que nos ofrece numerosos datos de impacto del mismo.

  1. Datos identificativos del artículo: autores, fecha de publicación, revista, volumen, número, editor y citas totales.
  2. Una gráfica con el número de citas por año.
  3. Las diferentes versiones o formas en el que nos lo podemos encontar en Google Académico (ver que se trata de errores tipográficos). En cada uno de ellos podemos ver el número de citas totales al mismo y artículos relacionados (tema similar).Datos de impacto

“Watson for Oncology”, del Big Data y la IA a la terapeútica.


watson

Hace una semana os traíamos un resumen sobre la Jornada de Health 2.0 que tuvo lugar en el Flagship Store de Telefónica.

Esa misma jornada se desarrolló de forma similar en Barcelona. De esta última si queréis acceder a las ponencias podéis hacerlo aquí. En el canal de youtube de Health 2.0 España están la mayoría de los meetups que se organizan en materia de “salud 2.02.

Hoy haremos un poco más de hincapié en la plataforma computacional Watson en una de sus primeras aplicaciones, el uso de Oncología.

El Jupiter Medical Center, un centro médico regional de Florida ha estado  usando la plataforma computacional cognitiva IBM Watson para Oncología, siendo de esta manera el primer hospital que ha hecho uso de esta tecnología. 

El objetivo primordial de su uso , era suponer una ayuda a los médicos en el proceso terapeútico de sus pacientes basado en la evidencia existente en la literatura en cuestiones de oncología.

Watson en su aplicación en Oncología, pretender ser de ayuda para aumentar la eficiencia de los oncólogos al clasificar y calificar la documentación médica y resumir rápidamente los registros de los pacientes.

Watson para Oncología se basa en los datos e información de más de 300 revistas médicas, más de 200 libros de texto y cerca de 15 millones de páginas de texto para proporcionar recomendaciones sobre diferentes opciones de tratamiento. Además, clasifica las recomendaciones basadas en evidencia, vinculándolas a los estudios revisados y las guías clínicas. Por tanto , se trata de un sistema de computación cognitiva que utiliza el procesamiento del lenguaje natural para asimilar datos estructurados y no estructurados sobre los pacientes. Esta tecnología proporciona a los profesionales médicos distintas opciones de tratamiento para su consideración. Estas recomendaciones proceden de normas, documentación sanitaria y experiencia adquirida de otros casos con pacientes

IBM y el Memorial Sloan Kettering  Cancer Center de Nueva York están en pleno proceso de aceleración del entrenamiento del sistema Watson para Oncología, estando  disponible para ayudar a los clínicos en el desarrollo de planes de tratamiento para cánceres de mama, pulmón, colorrectal, cervical, ovárico y gástrico.

Diferentes estudios a lo largo de estos años de andadura de Watson han  demostrado que puede contribuir en la toma de decisiones sobre tratamientos y avances en investigación.  Varios ejemplos al respecto:

  • Un estudio de 2016 señaló que Watson for Oncology coincidió con las recomendaciones de la comisión multidisciplinar de tumores de Manipal en un 90% de casos de cáncer de mama.
  • En el Victoria Comprehensive Cancer Centre (Australia), un informe realizado en ASCO 2016 analizó las capacidades de procesamiento del lenguaje natural de Watson.
  • En ASCO 2015, un estudio examinó las recomendaciones de Watson for Oncology basadas en el histórico de casos de pacientes del MSK.
  • Una investigación en ASCO 2014 demostró que Watson for Oncology alcanzó una compatibilidad del 100% con los datos del MSK.
  • Un estudio de 2014 de Baylor College of Medicine indicó que Watson for Drug Discovery (Watson para el descubrimiento de medicamentos) contribuyó a identificar seis nuevas proteínas para ayudar a tratar el cáncer p53 en cuestión de semanas.
  • En 2015, un informe reveló que Watson for Genomics permitía a los profesionales médicos analizar la secuenciación completa del genoma y disponer de información práctica en minutos.

Aún queda mucho camino por recorrer, pero seguro que la aplicabilidad de esta herramienta en otros sectores de las profesiones sanitarias no ha hecho más que empezar.

En el siguiente enlace podéis acceder a una interesante entrevista publicada recientemente en el XLSemanal a Josep Baselga, Director del Sloan Kettering Cancer Center, en la que él mismo habla del uso del Big Data en Oncología.

Y para terminar un vídeo en el que probablemente os quede más claro en qué consiste esto de “Watson for Oncology”

.

¿Son capaces las máquinas de pensar?


La forma que tenemos que las máquinas aprendan es muy parecido al aprendizaje humano y se basa en la exposicion repetida a situaciones con soluciones similares demanera que la experiencia repetida acumulada nos lleva a tomar decisiones que previamente ha sido útiles para la resolución de problemas similares ocurridos en nuestro pasado.

De esta manera generalizamos situaciones abstractas a partir de elementos comunes similares que vamos extrayendo de los acontecimientos que nos ocurren de forma cotidiana. De esta manera, la toma de decisiones puede representarse como algoritmos lógicos y éstos pueden traducirse a un lenguaje interpretable por las máquinas.

La diferencia con los humanos es que la exposición a situaciones de aprendizaje depende de circunstancias vitales (hay hechos que nos ocurren a edades más tempranas, otros en la madurez y a otros no nos enfrentamos hasta la vejez y es variable entre personas de manera que hay sujetos que tienen exposición vital a muchos acontecimientos mientras que otros sujetos tienen una vida con menos exposición y experiencias vitales). A las máquinas las podemos exponer de forma artificial a sutuaciones simuladas que éticamente no sería posible con humanos.

Además la velocidad de adquisición de datos por parte de una máquina es mucho más rápida ya que la máquina no tiene otras funciones (alimentación, descanso u ocio) y no se agota (puede trabajar 24 horas al día).

Esta es la relación existente entre Big Data (BD) y la Inteligencia Artificial (IA) ya que las cantidades ingentes de datos en múltiples formatos (BD) sirven para entrenar y dotar de experiencia a una máquina para que desarrolle y entrene algoritmos de toma de decisiones autónomas (IA).

Ya tenemos máquinas que a través de algoritmos lógicos y la exposición y entrenamiento con casos simulados a través de la introducción de datos son capaces de tomar decisiones. Es decir máquinas capaces de “estudiar”, “experimentar” y “aprender”. De esta manera tendremos que redefinir el concepto de aprendizaje que hasta hace pocos años era considerado como una actividad o cualidad prácticamente restringida a los seres humanos y a algunos otros primates.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo ya que ningún médico, por mucha inteligencia y memoria que tenga, va a ser capaz de manejar todas las variables con tanta rapidez y precisión como lo hacen sistemas informáticos.

Podemos distinguir dos tipos de aprendizaaje aplicados a las máquinas:

  1.  Aprendizaje supervisado que requiere la participación humana quien determina las relaciones “correctas” e “incorrectas” que toma la máquina. De esta manera la función del humano es “reforzar” los aciertos para que tiendan a repetirse a lo largo del tiempo (similar al prendizaje de un niño).
  2. Aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partir de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano.

Así hay máquinas que aprenden guiadas por un humano y que tomarán decisiones que van a depender de las características que han condicionado su aprendizaje mientras que otras máquinas aprenderán de manera autrónoma a partir de sus experiencias (dadas por el Big Data) y sin concurso de los seres humanos.

¿Riesgos?. Aún muchos. ¿Qué pasará si en un futuro al igual que en muchas películas de ciencia ficción las máquinas deciden que el ser humano es un elemento que puede ser nocivo para su existencia?

Un ejemplo reciente ha sido el bot credo pro Microsoft llamado @TayandYou . La idea era crear un bot conversacional bajo el cual había una inteligencia artificial “virgen” y que a través de una red social (Twitter) se empezra a relacionar con otros usuarios que servirían como fuente de alimentación de datos. La idea original es buena pero el resultado final fue que en menos de un día se tuvo que restringir el uso de la cuenta de Twitter ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

El problema es que la idea era buena, pero los seres humano no lo somos ya que el bot fue boicoteado por muchas cuentas de twitter (empresas de la competencia, piratas, cuantas fantasmas, graciosos…) que alimentaron a la inteligencia artificial de manera consciente con contenidos machistas, antisemitas y homófobos, generando una “personalidad” marcada con una serie de características.

Un experimento que iba a servir para ver cómo una IA podía alimentarse de forma autónoma de fuentes generles en una red social (aprendizaje tipo automático) se transformó en un aprendizaje de tipo supervisado “maleducando” la IA.

Posiblemente la experiencia no sirvió para demostrar lo que se quiería, pero sí nos mostró que al igual que podemos “maleducar” a un ser humano, podemos “maleducar” a una m´àquina… pero esto último solo en cuestión de horas.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época.

Ya existen numerosos ejemplos de Deep Learning (aprendizaje de máquinas sin concurso humano) y se establecen de manera compleja basándose en estructuras lógicas que se disponen en capas complejas (sistema parecida a la interconexión de redes neuronales). Muchas de estas capas están “especializadas” en temas concretos, es decir que al igual que las neuronas, podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

Como ejemplos reales:

  1. Redes neuronales capaces de tomar decisiones lógicas complejas y ganar a los mejores jugadores humanos en algunos juegos de estrategia (Pokemon Go).
  2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
  3. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.

Muchos de estos procesos complejos pueden no ser explicados de manera matemática. Es decir a la máquina se le dan unos patrones iniciales de aprendizaje (se construye un esqueleto neuronal básico) y a través de una experiencia masiva proporcionada por el Big Data la máquina va aprendiendo, modificando y mejorando estos procesos. Es decir va generando sus propias “conexiones neuronales” sin intervención humana.

En poco tiempo (del orden meses) si disponemos de la cantidad de datos necesaria, podemos tener un sistema muy especializado capaz de tomar decisiones.

La conducción autónoma ha sido la indisutria que ha desarrollado de manera rápida y eficaz estos temas y que en la conducción hay que tomar decisiones con múltiples variables, dependiendo de condiciones atmosféricas, de la via y de las circunstancias tanto de tráfco rodado como de peatones. Muchas de las decisiones que tomamos los humanos al conducir son ¿instintivas? y en situaciones de gravedad podemos tomar decisiones que no pasan por nuestro consciente. En el caso de la conducción autónoma esto no es así ya que la máquina va a estar capacitada para tomar una decisión “consciente” en décimas de segundo o menos. ¿Veremos demandas a los programadores por toma de decisiones incorrectas?, ¿cómo educaremos a la máquina para que se comporte ante un accidente donde todas las variables posibles tienen víctimas?, ¿qué victima será la primera?

Este vídeo es del año 2016 cuando ya disponíamos de sistemas de conducción autónoma. Podemos ver cómo la máquina decide la velocidad a la que ir dependiendo de los límites de tráfico, como sigue la ruta preestablecida y cómo se adapta a los peatones que van circulando.

.

Incluso al final deja a su dueño en la puerta de su trabajo mientras que el coche solo va a buscar aparcamiento.

Seguro que acabaremos aplicando sistemas tan complejos como el de la conducción a la salud. Serán unos aliados magníficos en el diagnóstico ¿os imaginais al mejor médico del mundo pasando consulta a vuestro lado?.

Máster en Salud Digital @salusplay


Salusplay

Os presentamos una nueva edición del Máster en Salud Digital con título propio de la Universidad Europea Miguel de Cervantes que podéis realizar de forma no presencial y que estamos seguros complementará la formación en eSalud de manera importante.

Un máster en el que tengo el orgullo de compartir responsabilidad con Chema Cepeda (@ChemaCepeda), Ignacio González  (@igonzalezh) y Raúl Ferrer (@_RaulFerrer) que está organizado por SalusPlay (@salusplay) con un bagaje de más de 400 cursos impartidos y más de 21.000 alumnos formados colaborando con 30 instituciones sanitarias.

El Máster de Salud Digital está dirigido a profesionales sanitarios (enfermería, medicina, fisioterapia, podología, odontología, psicología…) que quieran iniciarse o ampliar conocimientos en este aspecto de la salud por el momento abandonado en la mayoría de las formaciones de grado de las especilidades sanitarias en nuestro país.

Llama la atención cómo un tema de tanta importancia en el presente y proyección de futuro está ausente en la formación de grado de los sanitarios actuales y por ello se necesitan formaciones postgrado para compensar esta ausencia.

Una formación de calidad como la que nos ofrece SalusPlay con los siguientes objetivos:

  1. Conocer los principales Recursos Digitales y su influencia en los profesionales e instituciones sanitarias.
  2. Manejar nuevos medios digitales que facilitan la Comunicación entre profesionales sanitarios y pacientes.
  3. Capacitar en el manejo de recursos digitales orientados a la Creación y Difusión de información sanitaria.
  4. Diseñar y poner en práctica de una estrategia de Identidad Digital orientada a profesionales sanitarios.
  5. Diseño y puesta en práctica de una estrategia de Identidad Digital orientada a profesionales sanitarios.
  6. Diseño y puesta en práctica de una estrategia de Identidad Digital orientada a profesionales sanitarios.

Un máster con 8 módulos y un total de 40 temas con una metodología totalmente on line accediendo a nuevas herramientas docentes como la posibilidad de seguir lo contenidos a través de podcast, vídeos en HD o aplicación de técnicas de gamificación.

Existe una triple evaluación:

  1. Autoevaluación de cada uno de los temas a través de Serious Games.
  2. Tareas innovadoras al final de cada tema o módulo.
  3. Trabajo de Fin de Máster.

Además con este máster obtrendrás una triple acreditación:

  1. Título Propio de la Universidad Miguel de Cervantes con 60 créditos ECTS (1500 horas de formación).
  2. Un diploma de formación continuada con créditos CFC por cada uno de los módulos. Un total de 8 Diplomas de Formación Continuada con una acreditación de más de 23 créditos CFC.
  3. Autoría de un capítulo de libro donde se recogen todos los TFM aprobados.

Se ofrecen dos modalidades:

  1. Modalidad intensiva: 4 meses iniciando el 30 de octubre de 2017.
  2. Modalidad anual : 8 meses iniciando el 30 de octubre de 2017.

La formación no es un gasto, es una inversión de presente y futuro muy importante, ¿por qué no te regalas un máster este verano?. Inscríbete y participa con nosotros en esta aventura digital.

Hoy es domingo de… 22ª Conferencia WONCA Europa


Unidad en la diversidad

Del 28 de junio al 1 de julio de 2017 se celebrará en Praga la 22ª Conferencia WONCA Europa: “General Practice in Europe: Growing together in diversity”.

A continuación os dejo la carta de bienvenida. Continúa leyendo Hoy es domingo de… 22ª Conferencia WONCA Europa

Melanoma 360º III edición #Melanoma360


header-articulo-MELANOMA-360-2017.jpg

La Fundación MasQueIdeas nos invita a asistir al evento Melanoma: visión 360º que se celebrará el martes 23 de mayo en Madrid.

La Fundación Mas Que Ideas celebra el día mundial del melanoma, el próximo 23 de mayo la terccera edición de su encuentro Melanoma: visión 360º. Se trata de una reunión en una única jornada de encuentro entre profesionales y afectados de esta enfermedad que ofrece una visión global desde múltiples aspectos desde la investigación hasta la  vida cotidiana y los cuidados que han de mantener los ciudadanos.

Este espacio de encuentro se organiza con el propósito de ahondar en tres aspectos fundamentales tanto para los pacientes como para los familiares de los mismos como son: los tratamientos personalizados, las mejoras a implantar en la asistencia sanitaria a las personas diagnosticadas de melanoma y las emociones de las personas que conviven con esta enfermedad.

Desde la organización nos invitan a conocer la primera y la segunda edición de este evento. A través de los enlaces podrás ver las imágenes, vídeos y programas y conocer mejor así esta iniciativa.

Programa:

16.00h Una visión 360° de la persona con melanoma

  • Representante de Melanoma España y Fundación MÁS QUE IDEAS.

16.15 ¿Biomarcadores? ¿Moléculas? Explicando el melanoma para todos

16.45 El tratamiento adecuado para cada persona. ¿Cómo saberlo?

18.00 Descanso

18.30 Reconstruyendo el cuidado. ¿Qué debemos cambiar en la asistencia?

19.15 Las emociones tras el diagnóstico. Comprenderlas para vivir mejor

20.15 Despedida.

 

Captura de pantalla 2017-05-08 a las 18.32.12.png
Fundación Mas Que Ideas

Hashtag: #Melanoma360
Fecha de celebración: martes 23 de mayo de 2017
Lugar de celebración: Espacio Harley – Workshop Experience. Calle General Álvarez de Castro 12, Madrid (Metro Quevedo/Iglesia/Canal)

Health 2.0 Europe 2017: The next generation of health care


Innovaciones y actualidad en el sector de la salud.

La 8ª edición de Health 2.0 Europe tendrá lugar en Barcelona los días 3 y 4 de mayo en una nueva ubicación: Fira Montjuic, Plaza España. En ella se exhibirán y se explorarán las últimas innovaciones en el sector de la salud, tales como comunicación entre el paciente y el proveedor, salud del consumidor, genómica, análisis de datos, bienestar corporativo y mucho más.

Además, este año también se tratarán temas tan de actualidad como las nuevas herramientas para el consumidor de salud, analítica de datos, mercados emergentes y medicina personalizada, además de continuar mostrando las últimas tendencias en soluciones para hospitales, pacientes, profesionales y pagadores.

En 2016, tuvimos más de 120 oradores y 550 asistentes de todo el mundo para experimentar 52 demostraciones de productos en vivo de soluciones innovadoras que están sacudiendo los sistemas de salud europeos.

Este año se han conseguido reunir a más de 150 ponentes y 600 congresistas de 47 países de Europa que presentarán las innovaciones en salud y compartirán y discutirán las mejores prácticas y desafíos en los sistemas sanitarios de todo el mundo en paneles internacionales; convirtiéndose, de nuevo, en una cita de referencia internacional.

Además, este año Health 2.0 Europe 2017 se ubicará junto a Healthio, un evento donde los profesionales de la salud, pacientes y empresas del sector podrán descubrir y probar las últimas innovaciones en salud a través de itinerarios diseñados para los participantes: Bienestar, Medicina Personalizada, Enfermedades Crónicas y Envejecimiento; así como navegar y participar con esas innovaciones.

También se podrá disfrutar de:

  • Concurso eHealth. Un evento que reconoce y premia a las mejores pymes digitales de la salud en Europa, con un enfoque especial en diabetes este año.
  • EHealth Hub. Un proyecto financiado por la UE que organizará varias actividades de apoyo a las PYME, incluida una Academia de Preparación para la Inversión y un taller de reglamentación.
  • EC2VC. Se trata del Foro de Inversores y del concurso Pitch que reunieron a más de 45 de los más activos inversores digitales en salud en Europa.

Para más información