Zusammenfassung der Ressource
Procesos Estocásticos
- ¿Qué son?
- Estudio Probabilístico
- Construye modelos
- Obtiene conclusiones del Sistema Real
- Cadenas de Markov
- ¿Qué son?
- Proceso Estocástico discreto
- La ocurrencia de un evento
- Depende del evento anterior únicamente
- Clasificación de Estados
- Accesible
- Estados con probabilidad de acceso
- Irreducible
- Cadena con todos sus estados accesibles
- Recurrente
- Estado al que se vuelve en un momento del tiempo
- Matriz de transición de Markov
- Describe transiciones
- Mediante sumas probabilísticas
- Sus columnas o filas suman 1
- Se derivan en 3 tipos
- Izquierdas
- Cuadradas
- Derechas
- Probabilidades
- Transición
- Probabilidad de que un estado pase a otro en el momento N+1
- Condicionales
- Probabilidad de un evento A
- Siempre y cuando se haya dado el Evento B
- Propiedad de Markov
- Solo existe desplazamiento entre estados adyacentes
- ¿Variables de estado?
- Representan conjuntos de entrada y salida
- Para posterior simulación