1. Colmena Apache :
Apache Hive es un dispositivo de almacenamiento de datos construido sobre la base de Apache Hadoop que permite resúmenes de registros convenientes, consultas ad-hoc y la evaluación de conjuntos de datos masivos guardados en varias bases de datos y estructuras de archivos que se combinan con Hadoop, junto con MapR Data. Plataforma con MapR XD y base de datos MapR. Hive brinda una manera fácil de practicar la estructura de cantidades masivas de hechos no estructurados y luego operar consultas por lotes similares a SQL en esos datos.
2. Apache chispa SQL :
Spark SQL brinda asistencia nativa para SQL a Spark y agiliza el método de consulta de registros guardados en RDD (conjuntos de datos asignados de Spark) y en fuentes externas. Spark SQL borra sin esfuerzo los rastros entre los RDD y las tablas relacionales. La unificación de estas abstracciones efectivas hace que sea conveniente para los desarrolladores mezclar instrucciones SQL que consultan información externa con análisis complicados, todo dentro de una sola aplicación.
Diferencia entre Apache Hive y Apache Spark SQL:
S. No. | colmena apache | Apache chispa SQL |
---|---|---|
1. | Es un sistema de almacenamiento de datos de código abierto, construido sobre Apache Hadoop. | Se utiliza en el sistema de procesamiento de datos estructurados donde procesa información usando SQL. |
2. | Contiene grandes conjuntos de datos y se almacena en archivos Hadoop para fines de análisis y consulta. | Calcula funciones pesadas seguidas de técnicas de optimización correctas para procesar una tarea. |
3. | Fue lanzado en el año 2012. | Apareció por primera vez en 2014. |
4. | Para su implementación utiliza principalmente JAVA. | Se puede implementar en varios lenguajes como R, Python y Scala. |
5. | Su última versión (2.3.2) se lanza en 2017. | Su última versión (2.3.0) se lanza en 2018. |
6. | Principalmente RDMS se utiliza como modelo de base de datos. | Se puede integrar con cualquier base de datos No-SQL. |
7. | Puede admitir todos los sistemas operativos provistos, el entorno JVM estará allí. | Es compatible con varios sistemas operativos como Linux, Windows, etc. |
8. | Los métodos de acceso para su procesamiento incluyen JDBC, ODBC y Thrift. | Solo se puede acceder a él mediante ODBC y JDBC. |
9. | En Hive, el método de fragmentación de datos se utiliza para almacenar datos. | Spark SQL usa Apache Spark Core para almacenar datos. |
Publicación traducida automáticamente
Artículo escrito por dikshamulchandani1 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA