Atravesamos la época de la revolución del Big Data, donde los grandes volúmenes de datos usados para trabajar, han superado con creces, la capacidad de procesamiento de un simple host. El Big Data nace para almacenar y trabajar con grandes volúmenes de datos y para poder interpretar y analizar estos datos, de naturaleza muy dispar.
De esta gran cantidad de datos que tenemos a nuestro alcance, sólo el 20% se trata de información estructura y el 80% son datos no estructurados. Estos últimos añaden complejidad en la forma que se tienen que almacenar y analizar. Hadoop aparece en el mercado como una solución para estos problemas, dando una forma de almacenar y procesar estos datos. Hadoop es capaz de almacenar toda clase de datos: estructurados, no estructurados, semiestructurados; archivos de registro, imágenes, video, audio, comunicación, etc
Qué es Hadoop?
Apache Hadoop es un framework que permite el procesamiento de grandes volúmenes de datos a través de clusters, usando un modelo simple de programación. Además su diseño permite pasar de pocos nodos a miles de nodos de forma ágil. Hadoop es un sistema distribuido usando una arquitectura Master-Slave, usando para almacenar su Hadoop Distributed File System (HDFS) y algoritmos de MapReduce para hacer cálculos.
Hadoop resulta vital, imprescindible en el entorno Big Data. Sin embargo, su instalación resulta verdaderamente complicada. Jorge Ubero, en su Web «Big Data 4 Success» publica otro interesante curso, esta vez, para la instalación y uso de HADOOP… Si estás pensando iniciarte en este mundillo del big data puede que este curso te resulte muy interesante a modo de iniciación, según refiere en su web «se trataría de la primera guía 100% en español para realizar la instalación completa de Hadoop en una máquina convencional, como puede ser tu ordenador. Al terminar podrás:
- Trabajar con Hadoop instalado sin ningún error desde una de tus máquinas
- Instalar Hadoop en modo Single Node y Pseudo Distribuido»
Nota: es un curso gratuito, pero por tiempo limitado…
.