Internet Cognitiva y Ubicua.


internet-technologies.jpg

El internet de las cosas (IoT), el Big Data, la Inteligencia Artificial, los Wearables, la Computación Cognitiva y los sistemas en la nube están creando una tormenta perfecta que nos permite vislumbrar el futuro de Internet dentro de unos años,

Para los que nos conectamos a Internet antes de la aparición de la web y sufrimos ese intercambio de archivos a través de procolos ftp el cambio que hemos vivido en pocas décadas ha sido muy acelerado.

La aparición de la web supuso una visualización lógica de la información. Las primeras imágenes y gifs animados junto con los hiperenlaces supusieron una capacidad de acceso a información que supuso grandes cambios (en este caso y para mí) en mis últimos años de universidad y principio de mi residencia.

Posteriormente la capacidad de escuchar música y ver vídeos supuso un cambio en el ocio. La aparición de la web 2.0 con la posibilidad de crear comunidades virtuales y ser capaz de editar y publicar contenidos supuso un gran cambio en la comunicación y la relación humana.

Todo ello acompañado de mucha mayor velocidad de procesamiento y almacenaje de datos de forma que mi movil actual tiene muchos más avances que el primer ordenador de sobremesa que tuve en casa.

El almacenamiento en la nube, los trabajos colaborativos, compartir y editar archivos de forma simultánea son acciones hoy en día cotidianas y dificícilmente imaginables en mis primeros contactos con Internet.

Muchos pensamos… ¿qué va a pasar ahora?, ¿de qué forma toda esta nueva tecnología que se está desarrollando relacionada con la inteligencia artificial, los wearables, la big data, la robótica va a afectar a la web?.

Ha aparecido el concepto de Internet Cognitiva y Ubicua para intentar definor lo que puede ser la red en pocos años.

Está claro que estamos utilizando cada vez más wearables con sensores capaces de medir variables (físicas y biológicas fundamentalmente) que se van a convertir en elementos sensoriales de la red capaces de “ver”, “escuchar”, “comprender” y “sentir”.

Estos elementos sensoriales van a estar interconectados (a través de tecnología de relación máquina-máquina o M2M) y dotados de capas de tejido neuronal capaz de toma de decisiones autónomas de manera que unos elementos van a comportarse como perceptores del entorno (imputs) y otros como ejecutores de acciones (outputs) interconectados (acción-reacción) a través de capas neuronales de elementos digitales.

Internet va a dejar de ser una red de ordenadores para convertirse en una red de objetos interconectados entre sí y que pueden llegar a funcionar de forma independiente. ¿Se podrá regular el tráfico de una gran ciudad adaptándose a los flujos circulatorios mediante semáforos inteligentes interconectados a una capa de inteligencia artificial?, seguro que muchos lo veremos.

Cada teléfono móvil que llevaos en nuestros bolsillos está dotado de infinidad de sensores y cada vez se están desarrollando nuevos sistemas de medida de variables. Muchos de ellos morirán por falta de utilidad y otros muchos se desarrollarán hasta ser capaces de medir con errores tan mínimos que los seres humanos daremos esta medida como aceptable y apta para que sirva de referencia para toma de decisiones donde incluso nuestra seguridad pueda estar comprometida (desarrollo de sistemas de seguridad de vehículos inteligentes, ciudades con sistemas autorregulados…)

Cada vez las máquinas tienen más autonomía y esta característica puede hacer que nuestra percepción aumente. Hasta ahora somos capaces de percibir por nuestros sentidos en un entorno físico muy limitado pero si ciertos sensores complementaran nuestros sentidos humanos y las máquinas estuvieran interconectadas entre sí ¿por qué no ver o escuchar lo que está fuera del alcance de nuestra vista y oído?.

Incluso las máquinas ya están aprendiendo conceptos complejos como la semántica del lenguajes. Hasta ahora nuestra entrada a Internet es un buscador que interpreta secuencias alfanuméricas y nos devuelve un listado de sitios web donde existen las mismas secuencias (o secuencias muy similares y aproximadas a las que hemos introducido). Posiblemente tengamos relaciones diferentes con las máquinas para obtener información y seamos testigos y protagonistas de preguntar a una máquina con lenguaje natural y que nos devuelva la respuesta a nuestra pregunta.

¿Peligros?… posiblemente muchos pero esta es la aventura que nos está tocando vivir.

 

Máquinas pensantes II: Deep Learning


Inteligencia-artifical

El aprendizaje de las máquinas puede ir más allá del aprendizaje automático ya que podemos crear redes neuronales artificiales de forma que las propias máquinas sean capaces de genrar entradas y reproducir una experiencia vital. Podemos hacer que las máquinas “vean”, “escuchen” y “lean” y sean capaces de adquirir experiencias a partir de sentidos propios de los humanos.

Realmente el sistema nervioso es un sistema de conducción eléctrica con áreas neuronales donde reside la memoria a través de elementos físicos y químicos. Hoy en día conocemos cómo funcionan numerosas áreas que regulan nuestra motricidad, nuestra percepción sensitiva y nuestros sentidos (vista, oído y olfato). Sabemos también cómo se regula nuestra memoria y funciones superiores y más abstractas como el lenguaje y la comunicación.

Pero no solo ha sido el conocimiento biológico el que ha generado este avance tecnológico. Funadmentalmente la estadística y las matemáticas han sido las que han aportado un peso específico más alto en hacer que las máquinas piensen.

Se denomina Deep Learning a un sistema de aprendizaje autónomo no supervisado muy similar al aprendizaje humano. Este tipo de aprendizaje se base en estructuras lógicas interconectadas en capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características de los objetos. Es decir que podemos tener capas neuronales especializadas en “ver”, en “escuchar” o en “relacionar” exactamente igual que la especialización neuronal biológica. (Para prender más cómo funcionan estos sistemas desde ejemplos básicos a la complejidad es fundamental el artículo “Las redes neuronales: qué son y por qué están volviendo“).

De esta forma podemos crear redes neuronales artificiales que reproducen los patrones de las redes neuronales biológicas especializadas en cada uno de las tareas específicas que desarrolla nuestro sistema nervioso.

Como ejemplos reales:

    1. Reconocimiento de números de calles a través de una red neuronal artificial creado por Google para Street View. Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks. Con lo cual una máquina puede “ver” e interpretar “lo que ve”.
    2. Reconocimiento de voz mejorado a través de redes neuronales aplicado a terminales móviles. Personalized Speech recognition on mobile devices o a televisores Talking to Your TV: Context-Aware Voice Search with Hierarchical Recurrent Neural Networks.
    3. Redes neuronales capaces de tomar decisioones lógicas complejas y ganar a los mejores jugadores humanos en el juego Go.

Esto significa que los propios imputs estarían presentes en la propia máquina y la máquina no solo podría “ver”, sino “observar”; sacar conclusiones a partir de lo que percibe y tomar una decisión al respecto.

Todo ello más rápido y sin el agotamiento del cerebro humano.

Se plantean numerosas preguntas.

¿Quá aplicaciones podría tener ésto?. Por ejemplo una red neuronal capaz de ver e interpretar es básica en sistemas de conducción inteligente.

¿Tiene implicaciones éticas?. Por supuesto. Ante una situación donde hay un accidente con unvehículo de conducción inteligente con alta probabilidad de haber fallecidos y donde están involucrados un anciano y una mujer embaraza ¿qué decisión tomará la máquina? ¿y si la decisión menos dañina es la autodestrucción?.

Un futuro sería integrar todos estos sistemas. Una red neuronal compleja formada por redes neuronales complejas especializadas en “ver”, “escuchar”, “hablar”, “relacionar conceptos”. ¿Estaremos ante un cerebro artificial?.

¿Podremos llegar a crear una red neuronal capaz de explorar aun paciente y legar a un diagnóstico correcto?. Aunque esto pueda ser una realidad el contacto humano, la relación interpersonal humano-humano, creo que no podrá ser sustituida.

Máquinas pensantes I: Machine Learning aprendizaje automático


Inteligencia-artifical.jpg

Actualmente existen algoritmos para que las máquinas empiezen a pensar y a tomar decisiones. No se trata de ciencia ficción, sino de una realidad que está presente actualmente y poco a poco va a ir ocupando espacios cotidianos en nuestra casa, en nuestros vehículos y también… en salud.

El sistema de aprendizaje de máquinas es similar a cómo los humanos aprendemos. Nos exponemos a situaciones repetidas que tienen soluciones similares y poco a poco, a través de nuestra experiencia empezamos a tomar decisiones.

Este paso de un caso a un pensamiento abstracto y más global que nos permite extraer elementos comunes de casos concretos (y poder generalizarlos) y crear respuestas similares ante situaciones similares lo vamos aprendiendo a lo largo de nuestra vida. La toma de decisiones supone un pensamiento lógico que puede ser transcrito a algoritmos y éstos pueden transcribirse a un lenguaje que las máquinas pueden interpretar.

El aprendizaje humano es progresivo y se desarrolla a partir de la exposición a situaciones de forma consecutiva. Es decir vamos adquiriendo datos poco a poco.

La adquisición de estos datos por parte de una máquina es mucho más rápida ya que la máquina no se agota (puede trabajar 24 horas al día), no tiene funciones vitales (alimentación, descanso u ocio). De esta forma podemos relacionar el Big Data (cantidades ingentes de datos en múltiples formatos) con la “alimentación” y dotar de experiencia a una máquina.

Imaginemos que una máquina “sabe” todo el conteido de libros y artículos publicados en salud y que además está dotada de herramientas lógicas que permitan establecer relaciones entre ellos y capaz de pasar de un caso concreto a un pensamiento global (generalizar un caso concreto). Dispondremos de unan herramienta de diagnóstico que seguro es menos falible que el mejor médico del mundo.

En el aprendizaje de las máquinas exiten dos tipos de métodos. El primero de ellos se llama aprendizaje supervisado y requiere la participación de un humano que determina las relaciones correctas e incorrectas que toma la máquina. La función del humano es “reforzar” los aciertos de forma que una acción reforzada tiene a repetirse a lo largo del tiempo (de forma muy parecida a cómo ejercen los adultos su función de refuerzo ante el aprendizaje de un niño).

El segundo método es el aprendizaje automático o Machine Learning. Consiste en alimentar de experiencia a la máquina (a partir de Big Data) y que sea ella misma, mediante una serie de normas lógicas iniciales, la que sea capaz de ir aprendiendo de manera independiente a partri de la experiencia que le proporcionan los datos y sin el concurso continuado de un humano. para ello son necesarios algoritmos iniciales y un pequeño entrenamiento supervisado. Una vez que la decisiones correctas alcanzan un número válido dentro del total de decisiones tomadas es cuando conectamos este sistema inteligente a un sistema de BigData para que esas experiencias afiancen los sistema de toma de decisiones (aprendizaje).

¿Riesgos?. Aún muchos.

Por ejemplo podemos poner el caso del bot @TayandYou creado por Microsoft. La idea era crear un bot conversacional que se relacionara con otros usuarios a través de Twitter y fuera aprendiendo de forma que dispusieran de un sistema inteligente capaz de relacionarse con usuarios humanos o con otros bots en esta red social. La idea era buena y se decidió que no existiera intervención humana para ver qué mensajes se podían considerar “buenos” y cuales “malos”. El resultado final es que en menos de 24 horas tuvieron que restringir el uso de la cuenta de Twitter que alimentaba al bot ya que empezó a dar respuestas machistas y violentas en las conversaciones.

Es decir en menos de 24 horas el bot empezó a decir lindezas como “Hitler tenia razón” “odio a las mujeres” o “las mataría a todas”.

Captura de pantalla 2017-05-17 a las 19.16.30.png

¿Qué ocurrió?, El bot fue conectado a través de una red social para que aprendiera de las interacciones con otros usuarios sin intervención humana inicial. Al ser conocedores de ésto hubo cuentas de Twitter que establecieron conversaciones con este bot y lo boicotearon alimentando su inteligencia con contenidos homófobo, machista y antisemita. De esta forma el aprendizaje de este bot se realizó en este entorno  y se creó su “personalidad”.

Parece que las leyes de la robótica de Asimov creadas en un entorno de ficción en la década de los 40 tienen ahora más vigencia que en su época

 

De EverBot a Humana Brain. Aplicación de un bot para el seguimiento de pacientes crónicos


Los Asistentes Virtuales (basados en soluciones de chatbot e inteligencia artificial) están proliferando últimamente. Las empresas grandes están apostando por potenciar la conexión de chatbots a sus plataformas (Facebook, Twitter, Cortana, Skype, Telegram). Existen además algunos ejemplos de asistentes virtuales que pueden ser embebidos en una página web. Para el año 2020 está previsto que el 85% de los Call Centers hayan sido reemplazados por tecnología chatbot.

La empresa de innovación del sector de la eSalud C2C está apostando fuertemente por evaluar y aplicar dichos conceptos al sector de la salud. La aplicabilidad clave para una transformación es el uso del chatbot de una forma transaccional, es decir, con capacidad de interactuar bidireccionalmente con un sistema de información o base de datos.
Desde hace más de un año, C2C ha formado un equipo con diferentes roles (coordinador de proyectos, asesor procesos de salud, experto en Inteligencia Artificial y programadores web y Apps) con el objetivo de generar conocimiento y tecnología que permita aplicar estos innovadores conceptos a Salud.

C2C dispone de la tecnología y conocimiento para el desarrollo de chatbots llamada EverBOT. Un caso de éxito de implementación es Humana Brain, desarrollado por C2C y la Clínica Humana. Este proyecto se basa en un cerebro virtual que lleva a cabo un seguimiento y control del paciente crónico en domicilio, a modo de una asistente virtual.

Este asistente virtual llamado Rosa controla y monitoriza a los pacientes comunicándose con ellos de forma simple y directa, a través del lenguaje natural y un sencillo sistema de chat. De esta forma, este interfaz es conocido y resulta familiar para los usuarios. Así, Rosa recuerda al paciente la toma de medicación y registra algunos datos periódicamente mediante un sistema conversacional automático y basado en conceptos de Inteligencia Artificial.

 

Everbot.png
Visión del paciente

El cerebro virtual junto al panel de control, ayuda a la Clínica Humana a priorizar acciones, controlando y clasificando a los pacientes. También automatiza ciertas tareas que son repetitivas.  De esta forma, reparte tareas a médicos, enfermeras, cuidadores, rehabilitadores y, si procede, a familiares. Eso permite al equipo de cuidadores focalizarse en los pacientes que requieren actuación inmediata, identificados por Rosa y el sistema inteligente.

 

Captura de pantalla 2017-05-18 a las 20.47.14
Visión del profesional en movil

 

Captura de pantalla 2017-05-18 a las 20.51.13
Visión del profesional en ordenador

La solución de C2C y Clínica Humana para la gestión de pacientes crónicos mediante inteligencia artificial y chatbots gana el primer premio de la II Edición Caeb-Santander a la Innovación Empresarial

En definitiva, esta tecnología  supone un cambio diferencial. Con una presentación sencilla para el usuario, un asistente virtual controla todo lo que sucede, coordina y establece enlaces de comunicación. De esta forma, lograr que la asistencia sanitaria no termine al salir de la consulta.

 

Villancico e Inteligencia Artificial


En estas entradas ya cercanas a la finalización del año queríamos hermanar tecnología, música, villancicos y navidad y que mejor forma que presentaros el primer villancico realziado por inteligencia artificial.

 

Se trata de un experimento realizado por Hang Chu y Raquel Urtasan de la Universidad de Toronto que consistió en hacer escuchar a un sistema de inteligencia artificial más de 100 horas de música y que compusiera una canción basándose en los acordes escuchados y en la imagen que aparece en el vídeo (un árbol de navidad).

El sistema compuso la melodía, la letra e interpretó el resultado final a través de un sistema sintetizador de voz.

Os dejamos escuchar la composición definitiva:

villancico

Es posible que como experimento haya sido un éxito, pero no creemos que vaya a estar entre los temas más escuchados estas navidades.

Bueno… a lo mejor tampoco es tan malo… Disfrutad de Wing!!! (si tenéis valor para hacerlo)

 

Inteligencia Artificial en TED II


TEDAyer os decíamos que en el ciclo de TED sobre Inteligencia Artificial (IA) existían 6 conferencias. Solo os mostramos tres, para dejar otras tres para hoy sábado… Esperemos que las disfrutéis.

This app knows how you feel — from the look on your face (Esta app sabe cómo te sientes…por el aspecto de tu cara).

Rana El KalioubyPor Rana el Kaliouby. Han desarrollado una aplicación inteligente que escaneando tu cara o a través de una fotografía es capaz de analizar una serie de puntos guía y a partir de los mismos interpretar tu estado de ánimo. Puede identificar alegría, tristeza, preocupación, extrañeza o susto.

A partir de una simple imagen el sistema puede interpretar tu estado de ánimo y adaptarse a él interactuando con su interlocutor de manera diferente dependiendo de su situación concreta.

What happens when our computers get smarter than we are? (¿qué pasará cuándo nuestros ordenadores sean más inteligentes que nosotros?)

Nick BostromPor Nick Bostrom. Se trata de una pregunta con grandes implicaciones éticas. Aún tardaremos unas décadas (si es que se llega a lograr) que una máquina sea al menos tan inteligente como el humano que la creó o el humano que la maneja.

Pero se trata de un ejercicio teórico que pone en evidencia los vacíos éticos y legales existentes, la redifinición de procesos que hasta ahora considerábamos exclusivamente humanos.

Watson, Jeopardy and me, the obsolete know-it-all (Watson, Jeopardy y yo, el obsoleto sabelotodo)

Ken JenningsPor Ken Jennings. Ken Jennings es el participante en el concurso de respuestas Jeopardy!, uno de los de más éxito en la televisión estadounidense, que tiene la racha ganadora más larga. En un desafío con el superordenador Watson perdió y nos cuenta en esta charla TEd el sentimiento de un humano al ser derrottado por una máquina. ¿Estará obsoleto el saber humano?.

Inteligencia Artificial en TED


TEDEsta semana dedicada a la Inteligencia Artificial (IA) no podíamos acabarla sin ver si existen conferencias en TED relacionadas sobre este tema.

Hemos descubierto 6 conferencias, algunas de ellas ya revisadas en estas páginas que estamos seguros os van a entusiasmar durante el fin de semana.

Os presentamos 6 intervenciones en charlas TED donde se nos muestran diferentes experiencias sobre cómo estamos enseñando a los programas informáticos a “pensar” a “tomar decisiones” o a “interpretar datos”. Hasta ahora estas actitudes eran exclusivamente humanas, pero gracias a algoritmos lógicos capaces de retroalimentarse y a grandes cantidades de datos (Big Data) que sirven de alimentación a éstos para establecer entrenamientos de lógica y causalidad podemos lograr que un sistema artificial pueda determinar que una opción sea más válida o mejor que otra dependiendo de las variables o parámetros que previamente determinemos.

Get ready for hybrid thinking (Prepárate para el pensamiento híbrido).

ray kurzweilPor Ray Kurzweil. Evolutivamente la corteza cerebral, que nos dota a los mamíferos inteligentes de funciones superiores se desarrolló inicialmente hace doscientos millones de años. Desde entonces ha ido evolucionando aumentando su superficie y su complejidad de interconexión neuronal dotándonos de nuevas funciones y habilidades. Este desarrollo ha permitido que actualmente seamos como somos y hallamos alcanzado los logros que disfrutamos. Pero ¿se ha detenido la evolución?, ¿evolucionaremos a partir de lo que seamos capaces de crear?, ¿el siguiente gran salto evolutivo está en las máquinas?.

Una conferencia con un poco de ficción y mucho de ciencia  por el inventor , empresario ,y visionario Ray Kurzweil que inventó el primer sistema de reconocimiento óptico de caracteres (OCR) para transformar la palabra escrita en datos, el primer software de impresión a voz para ciegos, el primer sintetizador de texto a voz, el primer sintetizador de música capaz de recrear instrumentos de orquesta con gran calidad  y el primer sistema comercializado de reconocimiento de voz de gran vocabulario.

 

The wonderful and terrifying implications of computers that can learn (Las maravillosas y terroríficas implicaciones de los ordenadores que pueden aprender)

Jeremy HowardPor Jeremy Howard. ¿Qué técnicas tenemos para que una máquina inerte pueda tener capacidad de aprendizaje?, ¿cómo pasamos de algo inerte y automático manejado por un ser humano a un sistema capaz de tomar sus propias decisiones?. Estos son los datos de un futuro muy cercano que va a obligarnos a redifinir conceptos que hasta ahora considerábamos exclusivamente como capacidades humanas.

How we’re teaching computers to understand pictures (Cómo estamos enseñando a los ordenadores a interpretar imágenes)

FeiFeiLiPor Fei-Fei Li. Hoy en día un sistema informático es capaz de interpretar imágenes. No solamente imágenes simples, también imágenes complejas. Es capaz de interpretar formas, colores, proporciones e incluso identificar gestos y determinar el estado de ánimo a partir de los mismos.

Gran parte del diagnóstico médico es a través de imágenes. ¿Podremos tener sistemas fiables que puedan interpretar imágenes?. No solo estamos hablando de imágenes radiológicas, podemos ampliarlo a lesiones cutáneas, fondos de ojo, endoscopias…

Bots, salud, Big Data… y cine


Una combinación de futuro. Los bots pueden ser una vía de exploración de futuro para la salud. La big data también. ¿Qué pasará si los combinamos?.

big dataCrear un sistema de inteligencia artificial capaz de ir aprendiendo de forma progresiva y que sea capaz de toma de decisiones al que le vamos alimentando de conocimientos teóricos reales (conectado a una base de datos de publicaciones científicas) y de datos reales de pacientes (procedentes de fuentes clínicas) … ¿llegaría a tener capacidades de diagnóstico?.

Posiblemente sí.

¿Sustituiría el papel de una persona?. Posiblemente no ya que el contacto humano es insustituible por mucha interfaz humanoide que tenga nuestro bot.

¿No os gustaría tener un “amigo” así en la consulta?. Posiblemente fuera un poco “listín repelente” pero indudablemente de gran ayuda.

Se plantean numerosos problemas éticos:

  1. Cuando aún no tenemos claros temas de confidencialidad y privacidad… ahora toman unos matices diferentes ¿estaríamos dispuestos a ceder nuestros datos para que estos robots fueran capaces de aprender? (la cantidad de datos dentro de una big data para que puedan ir desarrollando conexiones lógicas es muy, muy, muy grnade), ¿en caso de desarrollarse un proyecto de este tipo y viendo el beneficio global sería ético negarse a cederlos?, ¿podría la institución sanitaria cederlos o utilizarlos sin necesidad del permiso explícito de cada uno de nosotros?.
  2. Puede pasar que nuestro sistema inteligente sea capaz de apreciar patrones que aún los seres humanos no hemos relacionado e incluso adelantarse a diagnósticos. Esta situación estaría muy bien ya que nos permitiría poder estar más vigilantes o actuar de antemano antes de que se produzca una situación concreta… pero ¿si el problema es que nos encontramos ante una persona con más de un 90% de tener un brote esquizofrénico que tiene un 90% de probabilidades de presentarse de forma agresiva?, ¿podremos hablar de presonalidades predelincuentes?, ¿de detenciones preventivas antes de que se cometan delitos?…. ¿no os suena una escena de una película?

Otras películas nos hablan sobre los dilemas que nos puede generar la Inteligencia Artificial.

El estado actual de la inteligencia artificial


Bajo este título os presentamos una compelta y larga infografía realizada por la empresa BestComputerScienceDegrees.com en la que hacemosun rago recorrido por diferenets aspectos de la Inteligencia Artificial y la robótica.

La premisa básica de la Inteligencia Artificial (IA) fue originalmente que la inteligencia humana es lo suficientemente predecible que se puede simular con computadoras y se puede reducir a operacioens matemáticas más o menso complejas. Así la IA es un campo amplio que incluye muchas áreas de investigación como la programación informática, el reconocimiento de la lengua y la toma de decisiones. También ha adquirido otros desafíos, incluyendo el aprendizaje y la robótica en su conjunto.

De hecho si preguntamos a alguien lo que piensan de cuando se menciona  “inteligencia artificial”  lo más probable es que dirían “robots” – gracias a la cultura pop: programas de televisión, películas, cómics, libros y juguetes.
Robots e imágenes popLos robots que ofrecen servicios profesionales son los más numerosos en todo el mundo. Tareas de seguridad, tráfico aéreo, asistencia a discapacitados,herrameinats médicas y otros menos frecuentes relacionadas con la demolición de estructuras, limpieza, desactivación de explosivos o trabajos en situaciones de peligro o riesgo para los seres humanos son los más frecuentes.

servicve robots

Los robots industriales son aquellos que se encuentran en cadenas de montaje de grandes industrias. Capaces de realziar con perfección absoluta tareas repetitisvas que requieren o no gran precisión y concentración. Las cadenas de la industria automovilística son las que más número de elementos robóticos cuentan entre sus filas.

Por países Corea del Sur, Japón, Alemania, Italia y Suiza son los que más unidades tienen aunque posiblemente sea China quien ostente este record en muy poco tiempo.

Robot industriales

Puedes descargarte la infografía completa haciendo clic sobre la imagen.

5eac397a58ce09a0fea468acbdace9a7