Ronda 1: El puesto era para un ingeniero de Big Data con experiencia en ETL y herramientas de Big Data. La primera ronda es donde se prueba qué tan bueno es su conocimiento básico de SQL. Además, las preguntas pasan a Hive, Apache SPARK y HDFS.
Ronda 2: una vez que sientan que eres bueno en lo básico, pasarás a consultas y lógicas SQL más complejas donde se prueba tu capacidad de escritura de SQL analítico. Luego pasa a preguntas basadas en escenarios sobre técnicas de optimización de SPARK y ajuste de consultas de Hive.
Asegúrese de que sus conceptos básicos estén actualizados, ya que eso es lo que busca el entrevistador.
Publicación traducida automáticamente
Artículo escrito por GeeksforGeeks-1 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA