Questão 1
Questão
¿Cuál de estos NO es un comando de vagrant?
Responda
-
vagrant up
-
vagrant destroy
-
vagrant exit vm
-
vagrant halt
Questão 2
Questão
¿Podría ser ésta una definición de big data?
En términos generales podríamos referirnos como a la tendencia en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis.
Questão 3
Questão
Hadoop está compuesto de tres piezas: [blank_start]Hadoop Distributed File System (HDFS)[blank_end], [blank_start]Hadoop MapReduce[blank_end] y [blank_start]Hadoop[blank_end] Common.
Questão 4
Questão
¿Qué factores (demonios) manejan el funcionamiento de Hadoop?
Responda
-
NameNode
-
Secondary Namenode
-
DataNode
-
JobTracker
-
TaskTracker
-
Master Node
-
Slave Node
Questão 5
Questão
Es el nodo máster encargado de gestionar el namespace del sistema de ficheros. También se encarga del mantenimiento de los metadata de todos los ficheros y directorios que forman parte del sistema HDFS.
Responda
-
NameNode
-
Secondary Namenode
-
DataNode
Questão 6
Questão
Las posibles implementaciones de Hadoop son: [blank_start]Local[blank_end], [blank_start]Pseudo-Distribuído[blank_end] y [blank_start]Distribuído[blank_end]
Responda
-
Local
-
Pseudo-Distribuído
-
Distribuído
Questão 7
Questão
Los formatos de entrada y salida de Hadoop (input/output formats) son totalmente diferentes en cuanto a tipos de datos disponibles
Questão 8
Questão
¿Cuál es el formato por defecto que toma el MapReduce?
Responda
-
TextInputFormat
-
KeyValueTextInputFormat
-
NLineInputFormat
Questão 9
Questão
¿Qué valores puede tomar el nombre del archivo de salida del proceso MapReduce?
Questão 10
Questão
Las tres clases básicas para programar un MapReduce en Java con Hadoop son: [blank_start]Driver[blank_end], [blank_start]Mapper[blank_end] y [blank_start]Reducer[blank_end]
Questão 11
Questão
El comando $ hadoop fs nos muestra el contenido del HDFS
Questão 12
Questão
Para estrategias de loggin en Hadoop, es recomendable utilizar println
Questão 13
Questão
La herramienta Sqoop nos sirve para:
Responda
-
Almacenar datos en el HDFS
-
Consultar datos de salida del MapReduce
-
Importar/exportar datos de BD relacionales al HDFS y viceversa
Questão 14
Questão
[blank_start]Oozie[blank_end] es un sistema de coordinación o flujo de trabajo que administra trabajos de Hadoop.
Questão 15
Questão
Entre las herramientas creadas por Facebook para Hadoop tenemos a [blank_start]Presto[blank_end] y [blank_start]Hive[blank_end], mientras que [blank_start]Cloudera[blank_end] nos ofrece Impala
Questão 16
Questão
Los componentes de un cluster de Storm son:
Responda
-
DataNode
-
NameNode
-
Master Node
-
Worker Nodes
-
Zookeeper
Questão 17
Questão
[blank_start]Storm[blank_end] está orientado al procesamiento de data en tiempo real a diferencia de [blank_start]Spark y Hadoop[blank_end]
Responda
-
Storm
-
Hive
-
Hadoop
-
Spark y Hadoop
-
Hadoop y Storm
-
Storm y Spark