Zusammenfassung der Ressource
Sistemas de Computo
Paralelo y Distribuidos
Anmerkungen:
- Conferencista: Fabian Garcia Nocetti, IIMAS-UNAM, Expone el tema de computo de alto rendimiento y su relacion con Ving-Data y presenta un estudio de caso en ingenieria petrolera Demetrio.
Autor del mapa: Adriana Santiago del Angel.
Grupo S5A
De la Carrera de Ing. En Sistemas Computaciones del I.T.S.Ta.
https://www.youtube.com/watch?time_continue=1&v=8n6lfB6G6mU
- Computo de alto rendimiento(HPC)
- Es el uso de procesamiento paralelo para
ejecutar aplicaciones avanzadas de manera
eficiente confiable y rapido.
- Se aplica para sistemas que
operan en arriba de un
teraflops
- Los usuarios frecuentes HPC son:
investigadores cientificos, ingenieros,
instituciones academicas entre otros.
- Las aplicaiones de la HPC son:
- -Simulacion de terremotos
-modelado del clima
-modelado de prototipos
-manufactura digital -Big
Data
- Beneficios en la innovacion usando HPC:
- -Reduccion de tiempo
-prototipos virtuales
-mejoras en diseño y la
ingenieria
- Big Data
- Es un conjunto de datos cuyo tamaño esta
mas alla de la capasidad de las herramientas
de software de bases de datos tipicos para
capturar, alamacenar, gestionar y analizar
informacion.
- Se origina por la explosion en la cantidad y
diversidad de datos digitales generados en
tiempo real como resultado del rol cada vez
mas mayor de la tecnologia en las actividades
diarias.
- Sirve para generar
informacion y conocimiento
con base en informacion
completa en tiempo real.
- Tipos de datos:
- -Compras y transacciones
-datos de gestion expresarial
-busquedas -sociales
- Big Data para la creacion de valor
- -Desarrolo de nuevos productos
-nuevos modelos de servicio
-transparencia y eficiencia por
compartir datos
- Fases de Big Data
- Descubrimiento de grandes
datos, extraccion y limpieza de
grandes volumes de datos
- Analytics
- se refiere a las herramientas y
metodologias para transformar
cantidades masivas de datos brutos
en ¨datos sobre datos¨ como
propositos analiticos.
- Se origino en las areas de
biologia intensiva en computo,
ingenieria biomedica, medicina
y electronica.
- Utiliza algoritmos para detectar
patrones, tendencias y
correlaciones.
- Ocupa tecnicas avanzadas;
datos que hacen sentido.
- HADOOP: proyecto que combina analisis y Big
Data para llevar el procesamiento de archivos
a otro nivel
- HDFS: Sistema de archivos
distribuidos, escalable y portatil
- MapReduce: modelo de
programacion utilizado por google
para dar soporte a la
computacion paralela.
- Caracteristicas: distribucion y
paralelizacion, tolerancia a fallas y a
redondancias, transparencia,
localizacion de datos.