Los 5 mejores libros recomendados para aprender Hadoop

Hadoop es una herramienta de Big Data que está escrita en Java para analizar y manejar datos de gran tamaño utilizando sistemas/servidores más baratos. También es conocido por su técnica de almacenamiento eficiente y confiable. Hadoop funciona con el algoritmo de programación MapReduce y la arquitectura maestro-esclavo. Las principales empresas como Facebook, Yahoo, Netflix, eBay, etc. están utilizando Hadoop en su organización para encontrar una solución a los problemas de Big Data. Los marcos de procesamiento de alta gama como Apache Spark, Amazon S3, Databricks se construyen sobre Hadoop.

Top-5-Recommended-Books-To-Learn-Hadoop

1. Hadoop: la guía definitiva

  • Autor: Tom White
  • Editor: O’Reilly Media  

Este es uno de los libros mejor recomendados para principiantes que quieren aprender apache Hadoop desde lo más básico. El libro comprende todos los conceptos, desde básicos hasta avanzados, que un ingeniero de software necesita comprender. El flujo de trabajo completo de Hadoop y sus componentes internos está disponible en Hadoop: The Definitive Guide. El libro electrónico también está disponible de forma gratuita. Este libro en particular es bueno para los programadores que desean investigar conjuntos de datos de cualquier longitud. También es una opción útil y correcta para los directores que buscan instalar y ejecutar clústeres de Hadoop. Puede escribir sus programas en map-reduce ya que el libro le enseñará MapReduce desde niveles simples hasta avanzados. Incluye fundamentos para flume/sqoop utilizados en transferencias de registros. Guía a los novatos para crear una configuración de Hadoop confiable y fácil de mantener y ayuda a trabajar en conjuntos de datos independientemente de los tamaños y las marcas. También hay numerosas asignaciones disponibles que lo ayudan a aprender la capacidad en tiempo real de Hadoop de una manera mucho más fácil. Incluso en la última versión, puede encontrar fácilmente los ajustes de moda realizados en Hadoop sin problemas.

2. Hadoop en 24 horas

  • Autor: Jeffrey Aven
  • Por: Sams Enséñate a ti mismo

Este libro le ofrece una revisión ideal de la construcción de una plataforma de Hadoop, una interfaz y todos los aditivos del entorno de Hadoop. Quien ya tenga un conocimiento básico de Hadoop puede consultar este libro para una revisión rápida de la tecnología Hadoop Big Data. El libro es más preferible si está buscando estudios de casos en tiempo real y ejemplos reales. El libro explica los ejercicios completos desde el entorno de la agencia hasta la configuración del servidor local. HDFS y componentes del ecosistema Hadoop como un cerdo, la colmena está cubierta. Uno puede dominar los conceptos de programación de reducción de mapa con este libro en un período muy corto. Importación de datos para procesar en Hadoop, todos estos pasos se explican sabiamente junto con las funcionalidades de YARN y su importancia. Te indica como poner en vigor y administrar YARN. Los componentes del entorno Hadoop comoapache ambari también se discuten. También ayuda a los usuarios a conocer el entorno de consumo de Hadoop (tono) mediante el aprendizaje de funcionalidades de seguridad, escalado y resolución de problemas.

3. Hadoop en la práctica

  • Autor: Alex Holmes
  • Editorial: Manning

Hadoop en movimiento es una solución integral para aprender Hadoop. Toda la información y los conceptos necesarios para aprender apache Hadoop están integrados en la versión más antigua y más reciente de este libro. Básicamente comienza con los procedimientos de instalación predeterminados de Hadoop. Luego cubre aproximadamente el componente vital máximo de Hadoop, el MapReduce de una manera más fácil. el libro trata sobre los programas en tiempo real de Hadoop y MapReduce que consisten en los principales marcos estadísticos grandes utilizados en el análisis de registros. También explica específicamente cómo consultar datos usando Pig y escribiendo el cargador de archivos de registro. El libro consta de varios casos de uso en tiempo real que le permiten construir su solución para cualquiera de los problemas. El código fuente también se proporciona de una manera muy optimizada para aprender una forma eficiente de resolver un problema. Este libro no se recomienda para principiantes, se debe poseer algún conocimiento previo de Hadoop y map-reduce para obtener una mejor intuición de este libro. También se puede utilizar un libro similar, Hadoop in Action.  

4. Operaciones Hadoop

  • Autor: Eric Summers
  • Editor: O’Reilly Media

Las operaciones de Hadoop se enfocan principalmente en administrar y resolver problemas de big data en grandes conjuntos de datos utilizando un gran clúster compuesto por cientos de Nodes. Hoy en día, Hadoop se ha convertido en la mejor solución para todos los grandes problemas de información que requieren la gestión de datos específicos de la operación. Estos datos específicos de la operación han crecido exponencialmente a medida que aumenta la demanda de Hadoop en el mercado. El procesamiento de estos grandes datos específicos de operaciones para empresas requiere una configuración de alto nivel. El libro proporciona los recursos para abordar el problema de los datos masivos. Todos los problemas de cuello de botella están cubiertos en este libro que le permite avanzar en sus habilidades de aprendizaje de Hadoop. También proporciona una idea de alto nivel de HDFS y MapReducey sus consecuencias. Este libro está recomendado para Administradores y profesionales.

5. Hadoop profesional

  • Autor: Jason Venner
  • Editorial: Publicaciones Apress

Pro Hadoop siempre se recomienda para estudiantes experimentados. Quien tenga experiencia trabajando con Hadoop puede consultar este libro para fortalecer sus conceptos y conocimientos básicos y puede profundizar más para conocer más consecuencias de Hadoop. En este libro se cubre toda la información, desde la simple hasta la experiencia, sobre los clústeres de Hadoop, desde la instalación de un clúster de Hadoop hasta la lectura y la obtención de valiosos registros para la improvisación empresarial y la investigación médica. Los problemas de información masiva en tiempo real se resuelven utilizando Map-Reduce dividiéndolos en pequeños problemas sobre Nodes distribuidos para resolverlos en un tiempo óptimo.

Publicación traducida automáticamente

Artículo escrito por dikshantmalidev y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *