¿Qué es la transmisión de Hadoop?

Es una utilidad o característica que viene con una distribución de Hadoop que permite a los desarrolladores o programadores escribir el programa Map-Reduce usando diferentes lenguajes de programación como Ruby, Perl, Python, C++, etc. Podemos usar cualquier lenguaje que pueda leer desde el estándar. entrada (STDIN) como entrada de teclado y todo y escribir usando … Continue reading «¿Qué es la transmisión de Hadoop?»

Diferencia entre Big Data y Apache Hadoop

Big Data : son datos, información o estadísticas relevantes enormes, grandes o voluminosos adquiridos por las grandes organizaciones y empresas. Se crearon y prepararon muchos software y almacenamiento de datos, ya que es difícil calcular manualmente los grandes datos. Se utiliza para descubrir patrones y tendencias y tomar decisiones relacionadas con el comportamiento humano y … Continue reading «Diferencia entre Big Data y Apache Hadoop»

Hadoop Streaming usando Python – Problema de conteo de palabras

Hadoop Streaming es una característica que viene con Hadoop y permite a los usuarios o desarrolladores usar varios lenguajes diferentes para escribir programas de MapReduce como Python, C++, Ruby, etc. Es compatible con todos los lenguajes que pueden leer desde la entrada estándar y escribir en la salida estándar. Implementaremos Python con Hadoop Streaming y … Continue reading «Hadoop Streaming usando Python – Problema de conteo de palabras»

Tecnologías populares de Big Data

Grandes datostrata con grandes conjuntos de datos o trata con el complejo que maneja el software de aplicación de procesamiento de datos tradicional. Tiene tres conceptos clave como volumen, variedad y velocidad. En volumen, determinando el tamaño de los datos y en variedad, los datos serán categorizados, los medios determinarán el tipo de datos como … Continue reading «Tecnologías populares de Big Data»

Las 10 principales herramientas de análisis de Hadoop para Big Data

Hadoop es un marco de código abierto escrito en Java que utiliza muchas otras herramientas analíticas para mejorar sus operaciones de análisis de datos. El artículo demuestra las herramientas de análisis más amplias y esenciales que Hadoop puede usar para mejorar su confiabilidad y procesamiento para generar nuevos conocimientos sobre los datos. Hadoop se usa … Continue reading «Las 10 principales herramientas de análisis de Hadoop para Big Data»

¿Cómo crear una tabla en Hive?

En Apache Hive podemos crear tablas para almacenar datos estructurados para luego poder procesarlos. La tabla en la colmena consta de varias columnas y registros. La tabla que creamos en cualquier base de datos se almacenará en el subdirectorio de esa base de datos. La ubicación predeterminada donde se almacena la base de datos en … Continue reading «¿Cómo crear una tabla en Hive?»

¿Cómo MapReduce completa una tarea?

El maestro de aplicaciones cambia el estado del trabajo a «exitoso» cuando recibe una notificación de que se completó la última tarea de un trabajo. Luego, aprende que el trabajo se completó con éxito cuando el trabajo sondea el estado. Entonces, un mensaje regresa del waitForCompletion()método después de que imprime un mensaje, para informarle al … Continue reading «¿Cómo MapReduce completa una tarea?»

MapReduce: comprensión con un ejemplo de la vida real

MapReduce es un modelo de programación que se utiliza para realizar el procesamiento distribuido en paralelo en un clúster de Hadoop, lo que hace que Hadoop funcione tan rápido. Cuando se trata de Big Data, el procesamiento en serie ya no sirve de nada. MapReduce tiene principalmente dos tareas que se dividen en fases: Tarea … Continue reading «MapReduce: comprensión con un ejemplo de la vida real»

Colmena – Alterar mesa

Hive nos proporciona la funcionalidad para realizar alteraciones en las tablas y bases de datos. El comando ALTER TABLE se puede utilizar para realizar modificaciones en las tablas. Podemos modificar varios números de propiedades asociadas con el esquema de la tabla en Hive. La alteración en la tabla modifica o cambia sus metadatos y no … Continue reading «Colmena – Alterar mesa»

Hadoop Versión 3.0 – ¿Qué hay de nuevo?

Hadoop es un marco escrito en Java que se utiliza para resolver problemas de Big Data. La versión inicial de Hadoop se lanzó en abril de 2006. La comunidad de Apache ha realizado muchos cambios desde el día del primer lanzamiento de Hadoop en el mercado. El viaje de Hadoop comenzó en 2005 por Doug … Continue reading «Hadoop Versión 3.0 – ¿Qué hay de nuevo?»