Pedro J. Plasenc
Test por , creado hace más de 1 año

Test final para el curso de Hadoop

73
3
0
Pedro J. Plasenc
Creado por Pedro J. Plasenc hace más de 8 años
Cerrar

Big Data - Hadoop

Pregunta 1 de 17

1

¿Cuál de estos NO es un comando de vagrant?

Selecciona una de las siguientes respuestas posibles:

  • vagrant up

  • vagrant destroy

  • vagrant exit vm

  • vagrant halt

Explicación

Pregunta 2 de 17

1

¿Podría ser ésta una definición de big data?
En términos generales podríamos referirnos como a la tendencia en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos (estructurados, no estructurados y semi estructurados) que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis.

Selecciona uno de los siguientes:

  • VERDADERO
  • FALSO

Explicación

Pregunta 3 de 17

1

Rellena los espacios en blanco para completar el texto.

Hadoop está compuesto de tres piezas: , y Common.

Explicación

Pregunta 4 de 17

1

¿Qué factores (demonios) manejan el funcionamiento de Hadoop?

Selecciona una o más de las siguientes respuestas posibles:

  • NameNode

  • Secondary Namenode

  • DataNode

  • JobTracker

  • TaskTracker

  • Master Node

  • Slave Node

Explicación

Pregunta 5 de 17

1

Es el nodo máster encargado de gestionar el namespace del sistema de ficheros. También se encarga del mantenimiento de los metadata de todos los ficheros y directorios que forman parte del sistema HDFS.

Selecciona una de las siguientes respuestas posibles:

  • NameNode

  • Secondary Namenode

  • DataNode

Explicación

Pregunta 6 de 17

1

Rellena los espacios en blanco para completar el texto.

Las posibles implementaciones de Hadoop son: , y

Explicación

Pregunta 7 de 17

1

Los formatos de entrada y salida de Hadoop (input/output formats) son totalmente diferentes en cuanto a tipos de datos disponibles

Selecciona uno de los siguientes:

  • VERDADERO
  • FALSO

Explicación

Pregunta 8 de 17

1

¿Cuál es el formato por defecto que toma el MapReduce?

Selecciona una de las siguientes respuestas posibles:

  • TextInputFormat

  • KeyValueTextInputFormat

  • NLineInputFormat

Explicación

Pregunta 9 de 17

1

¿Qué valores puede tomar el nombre del archivo de salida del proceso MapReduce?

Selecciona una o más de las siguientes respuestas posibles:

  • m

  • r

  • x

  • 0

Explicación

Pregunta 10 de 17

1

Rellena los espacios en blanco para completar el texto.

Las tres clases básicas para programar un MapReduce en Java con Hadoop son: , y

Explicación

Pregunta 11 de 17

1

El comando $ hadoop fs nos muestra el contenido del HDFS

Selecciona uno de los siguientes:

  • VERDADERO
  • FALSO

Explicación

Pregunta 12 de 17

1

Para estrategias de loggin en Hadoop, es recomendable utilizar println

Selecciona uno de los siguientes:

  • VERDADERO
  • FALSO

Explicación

Pregunta 13 de 17

1

La herramienta Sqoop nos sirve para:

Selecciona una de las siguientes respuestas posibles:

  • Almacenar datos en el HDFS

  • Consultar datos de salida del MapReduce

  • Importar/exportar datos de BD relacionales al HDFS y viceversa

Explicación

Pregunta 14 de 17

1

Selecciona la opción correcta del menú desplegable para completar el texto.

( Oozie, Hive, Pig, Impala ) es un sistema de coordinación o flujo de trabajo que administra trabajos de Hadoop.

Explicación

Pregunta 15 de 17

1

Rellena los espacios en blanco para completar el texto.

Entre las herramientas creadas por Facebook para Hadoop tenemos a y , mientras que nos ofrece Impala

Explicación

Pregunta 16 de 17

1

Los componentes de un cluster de Storm son:

Selecciona una o más de las siguientes respuestas posibles:

  • DataNode

  • NameNode

  • Master Node

  • Worker Nodes

  • Zookeeper

Explicación

Pregunta 17 de 17

1

Selecciona la opción correcta de los menús desplegables para completar el texto.

( Storm, Hive, Hadoop ) está orientado al procesamiento de data en tiempo real a diferencia de ( Spark y Hadoop, Hadoop y Storm, Storm y Spark )

Explicación