Frage 1
Frage
¿Cuál de estos NO es un comando de vagrant?
Antworten
-
vagrant up
-
vagrant destroy
-
vagrant exit vm
-
vagrant halt
Frage 2
Frage
¿Podría ser ésta una definición de big data?
En términos generales podríamos referirnos como a la tendencia en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis.
Frage 3
Frage
Hadoop está compuesto de tres piezas: [blank_start]Hadoop Distributed File System (HDFS)[blank_end], [blank_start]Hadoop MapReduce[blank_end] y [blank_start]Hadoop[blank_end] Common.
Frage 4
Frage
¿Qué factores (demonios) manejan el funcionamiento de Hadoop?
Antworten
-
NameNode
-
Secondary Namenode
-
DataNode
-
JobTracker
-
TaskTracker
-
Master Node
-
Slave Node
Frage 5
Frage
Es el nodo máster encargado de gestionar el namespace del sistema de ficheros. También se encarga del mantenimiento de los metadata de todos los ficheros y directorios que forman parte del sistema HDFS.
Antworten
-
NameNode
-
Secondary Namenode
-
DataNode
Frage 6
Frage
Las posibles implementaciones de Hadoop son: [blank_start]Local[blank_end], [blank_start]Pseudo-Distribuído[blank_end] y [blank_start]Distribuído[blank_end]
Antworten
-
Local
-
Pseudo-Distribuído
-
Distribuído
Frage 7
Frage
Los formatos de entrada y salida de Hadoop (input/output formats) son totalmente diferentes en cuanto a tipos de datos disponibles
Frage 8
Frage
¿Cuál es el formato por defecto que toma el MapReduce?
Antworten
-
TextInputFormat
-
KeyValueTextInputFormat
-
NLineInputFormat
Frage 9
Frage
¿Qué valores puede tomar el nombre del archivo de salida del proceso MapReduce?
Frage 10
Frage
Las tres clases básicas para programar un MapReduce en Java con Hadoop son: [blank_start]Driver[blank_end], [blank_start]Mapper[blank_end] y [blank_start]Reducer[blank_end]
Frage 11
Frage
El comando $ hadoop fs nos muestra el contenido del HDFS
Frage 12
Frage
Para estrategias de loggin en Hadoop, es recomendable utilizar println
Frage 13
Frage
La herramienta Sqoop nos sirve para:
Antworten
-
Almacenar datos en el HDFS
-
Consultar datos de salida del MapReduce
-
Importar/exportar datos de BD relacionales al HDFS y viceversa
Frage 14
Frage
[blank_start]Oozie[blank_end] es un sistema de coordinación o flujo de trabajo que administra trabajos de Hadoop.
Frage 15
Frage
Entre las herramientas creadas por Facebook para Hadoop tenemos a [blank_start]Presto[blank_end] y [blank_start]Hive[blank_end], mientras que [blank_start]Cloudera[blank_end] nos ofrece Impala
Frage 16
Frage
Los componentes de un cluster de Storm son:
Antworten
-
DataNode
-
NameNode
-
Master Node
-
Worker Nodes
-
Zookeeper
Frage 17
Frage
[blank_start]Storm[blank_end] está orientado al procesamiento de data en tiempo real a diferencia de [blank_start]Spark y Hadoop[blank_end]
Antworten
-
Storm
-
Hive
-
Hadoop
-
Spark y Hadoop
-
Hadoop y Storm
-
Storm y Spark