MAPA MENTAL SOBRE: SISTEMAS DE COMPUTO PARALELO Y DISTRIBUIDOS
Enlace del video dirigido por Fabián Garcia, que expone el tema de "cómputo de alto rendimiento y su relación con Big-Data".
https://www.youtube.com/watch?time_continue=1&v=8n6lfB6G6mU
Conferencista: Fabian Garcia Nocetti, IIMAS-UNAM, Expone el tema de computo de alto rendimiento y su relacion con Ving-Data y presenta un estudio de caso en ingenieria petrolera Demetrio.
Autor del mapa: Adriana Santiago del Angel.
Grupo S5A
De la Carrera de Ing. En Sistemas Computaciones del I.T.S.Ta.
https://www.youtube.com/watch?time_continue=1&v=8n6lfB6G6mU
Computo de alto rendimiento(HPC)
Es el uso de procesamiento paralelo para
ejecutar aplicaciones avanzadas de manera
eficiente confiable y rapido.
Se aplica para sistemas que
operan en arriba de un
teraflops
Los usuarios frecuentes HPC son:
investigadores cientificos, ingenieros,
instituciones academicas entre otros.
Las aplicaiones de la HPC son:
-Simulacion de terremotos
-modelado del clima
-modelado de prototipos
-manufactura digital -Big
Data
Beneficios en la innovacion usando HPC:
-Reduccion de tiempo
-prototipos virtuales
-mejoras en diseño y la
ingenieria
Big Data
Es un conjunto de datos cuyo tamaño esta
mas alla de la capasidad de las herramientas
de software de bases de datos tipicos para
capturar, alamacenar, gestionar y analizar
informacion.
Se origina por la explosion en la cantidad y
diversidad de datos digitales generados en
tiempo real como resultado del rol cada vez
mas mayor de la tecnologia en las actividades
diarias.
Sirve para generar
informacion y conocimiento
con base en informacion
completa en tiempo real.
Tipos de datos:
-Compras y transacciones
-datos de gestion expresarial
-busquedas -sociales
Big Data para la creacion de valor
-Desarrolo de nuevos productos
-nuevos modelos de servicio
-transparencia y eficiencia por
compartir datos
Fases de Big Data
Descubrimiento de grandes
datos, extraccion y limpieza de
grandes volumes de datos
Analytics
se refiere a las herramientas y
metodologias para transformar
cantidades masivas de datos brutos
en ¨datos sobre datos¨ como
propositos analiticos.
Se origino en las areas de
biologia intensiva en computo,
ingenieria biomedica, medicina
y electronica.
Utiliza algoritmos para detectar
patrones, tendencias y
correlaciones.
Ocupa tecnicas avanzadas;
datos que hacen sentido.
HADOOP: proyecto que combina analisis y Big
Data para llevar el procesamiento de archivos
a otro nivel
HDFS: Sistema de archivos
distribuidos, escalable y portatil
MapReduce: modelo de
programacion utilizado por google
para dar soporte a la
computacion paralela.
Caracteristicas: distribucion y
paralelizacion, tolerancia a fallas y a
redondancias, transparencia,
localizacion de datos.