Pregunta 1
Pregunta
¿Cuál de estos NO es un comando de vagrant?
Respuesta
-
vagrant up
-
vagrant destroy
-
vagrant exit vm
-
vagrant halt
Pregunta 2
Pregunta
¿Podría ser ésta una definición de big data?
En términos generales podríamos referirnos como a la tendencia en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis.
Pregunta 3
Pregunta
Hadoop está compuesto de tres piezas: [blank_start]Hadoop Distributed File System (HDFS)[blank_end], [blank_start]Hadoop MapReduce[blank_end] y [blank_start]Hadoop[blank_end] Common.
Pregunta 4
Pregunta
¿Qué factores (demonios) manejan el funcionamiento de Hadoop?
Respuesta
-
NameNode
-
Secondary Namenode
-
DataNode
-
JobTracker
-
TaskTracker
-
Master Node
-
Slave Node
Pregunta 5
Pregunta
Es el nodo máster encargado de gestionar el namespace del sistema de ficheros. También se encarga del mantenimiento de los metadata de todos los ficheros y directorios que forman parte del sistema HDFS.
Respuesta
-
NameNode
-
Secondary Namenode
-
DataNode
Pregunta 6
Pregunta
Las posibles implementaciones de Hadoop son: [blank_start]Local[blank_end], [blank_start]Pseudo-Distribuído[blank_end] y [blank_start]Distribuído[blank_end]
Respuesta
-
Local
-
Pseudo-Distribuído
-
Distribuído
Pregunta 7
Pregunta
Los formatos de entrada y salida de Hadoop (input/output formats) son totalmente diferentes en cuanto a tipos de datos disponibles
Pregunta 8
Pregunta
¿Cuál es el formato por defecto que toma el MapReduce?
Respuesta
-
TextInputFormat
-
KeyValueTextInputFormat
-
NLineInputFormat
Pregunta 9
Pregunta
¿Qué valores puede tomar el nombre del archivo de salida del proceso MapReduce?
Pregunta 10
Pregunta
Las tres clases básicas para programar un MapReduce en Java con Hadoop son: [blank_start]Driver[blank_end], [blank_start]Mapper[blank_end] y [blank_start]Reducer[blank_end]
Pregunta 11
Pregunta
El comando $ hadoop fs nos muestra el contenido del HDFS
Pregunta 12
Pregunta
Para estrategias de loggin en Hadoop, es recomendable utilizar println
Pregunta 13
Pregunta
La herramienta Sqoop nos sirve para:
Respuesta
-
Almacenar datos en el HDFS
-
Consultar datos de salida del MapReduce
-
Importar/exportar datos de BD relacionales al HDFS y viceversa
Pregunta 14
Pregunta
[blank_start]Oozie[blank_end] es un sistema de coordinación o flujo de trabajo que administra trabajos de Hadoop.
Pregunta 15
Pregunta
Entre las herramientas creadas por Facebook para Hadoop tenemos a [blank_start]Presto[blank_end] y [blank_start]Hive[blank_end], mientras que [blank_start]Cloudera[blank_end] nos ofrece Impala
Pregunta 16
Pregunta
Los componentes de un cluster de Storm son:
Respuesta
-
DataNode
-
NameNode
-
Master Node
-
Worker Nodes
-
Zookeeper
Pregunta 17
Pregunta
[blank_start]Storm[blank_end] está orientado al procesamiento de data en tiempo real a diferencia de [blank_start]Spark y Hadoop[blank_end]
Respuesta
-
Storm
-
Hive
-
Hadoop
-
Spark y Hadoop
-
Hadoop y Storm
-
Storm y Spark