Curso sobre HADOOP


HADOOP

Atravesamos la época de la revolución del Big Data, donde los grandes volúmenes de datos usados para trabajar, han superado con creces, la capacidad de procesamiento de un simple host. El Big Data nace para almacenar y trabajar con grandes volúmenes de datos y para poder interpretar y analizar estos datos, de naturaleza muy dispar.

De esta gran cantidad de datos que tenemos a nuestro alcance, sólo el 20% se trata de información estructura y el 80% son datos no estructurados. Estos últimos añaden complejidad en la forma que se tienen que almacenar y analizar. Hadoop aparece en el mercado como una solución para estos problemas, dando una forma de almacenar y procesar estos datos. Hadoop es capaz de almacenar toda clase de datos: estructurados, no estructurados, semiestructurados; archivos de registro, imágenes, video, audio, comunicación, etc

Qué es Hadoop?

Apache Hadoop es un framework que permite el procesamiento de grandes volúmenes de datos a través de clusters, usando un modelo simple de programación. Además su diseño permite pasar de pocos nodos a miles de nodos de forma ágil. Hadoop es un sistema distribuido usando una arquitectura Master-Slave, usando para almacenar su Hadoop Distributed File System (HDFS) y algoritmos de MapReduce para hacer cálculos.

Hadoop resulta vital, imprescindible en el entorno Big Data. Sin embargo, su instalación resulta verdaderamente complicada. Jorge Ubero, en su Web «Big Data 4 Success» publica otro interesante curso, esta vez, para la instalación y uso de HADOOP…   Si estás pensando iniciarte en este mundillo del big data puede que este curso te resulte muy interesante a modo de iniciación, según refiere en su web «se trataría de la primera guía 100% en español para realizar la instalación completa de Hadoop en una máquina convencional, como puede ser tu ordenador.  Al terminar podrás:

  • Trabajar con Hadoop instalado sin ningún error desde una de tus máquinas
  • Instalar Hadoop en modo Single Node y Pseudo Distribuido»

 Acceso al curso

Nota: es un curso gratuito, pero por tiempo limitado…

 

 

.

 

 

 

CURSO de iniciación gratuito sobre BIG DATA


BIG DATA

Big Data, concepto cada vez más visible en los medios de comunicación, ha sido magnificado, presentado como «solución a todos los problemas», así como demonizado «el gran mal que asecha a la humanidad». Este concepto hace referencia a la acumulación masiva de datos. Otras denominaciones son datos masivos o datos a gran escala. En la literatura escrita en lengua hispana con frecuencia se utiliza el término en inglés Big data.

El Big Data nace para almacenar y trabajar con grandes volúmenes de datos y para poder interpretar y analizar estos datos, de naturaleza muy dispar. La tendencia a manipular ingentes cantidades de datos se debe a la necesidad en muchos casos de incluir los datos relacionados del análisis en un gran conjunto de datos, como los análisis de negocio, los datos de enfermedades infecciosas o la lucha contra el crimen organizado.

En sucesivos pots de esta semana nos referiremos a algunas aplicaciones que de este procesamiento masivo de datos se obtienen para la salud.

Aprovechamos para recomendar un curso de iniciación sobre Big Data que Jorge Ubero ha publicado en su Web «Big Data 4 Success»

A continuación os dejamos la DESCRIPCIÓN DEL CURSO para los que estéis interesados.

DESCRIPCIÓN DEL CURSO

Vamos a ver de forma detallada, clara y amena en qué consiste eso de Big Data del que todos hablan. Nos vamos a asomar a su funcionamiento, la arquitectura de los sistemas y sus principales soluciones, sobre todo las que tienen que ver con Hadoop.

No es un curso técnico, queremos aprender qué utilidad tiene el Big Data dentro de una empresa, que factores son clave para implantarlo. En el curso se ven distintos casos de estudio que analizan el impacto crítico de big data en un negocio u organización.

Es un curso de iniciación con una orientación funcional, que utiliza el método del estudio del caso. Asimismo sabrá el valor puede aportar a una organización el uso del big data y cuáles son las principales necesidades para implementarlo