Zusammenfassung der Ressource
CADENAS DE MARKOV
- ELEMENTOS
- 1. Un conjunto
finito de M
estados,
exhaustivos y
mutuamente
excluyentes
(ejemplo:
estados de la
enfermedad)
- 2. Ciclo de
Markov (“paso”) :
periodo de
tiempo que sirve
de base para
examinar las
transiciones
entre estados
(ejemplo, un
mes)
- 3. Probabilidades
de transición
entre estados, en
un ciclo (matriz P)
- 4. Distribución
inicial del
sistema entre
los M estados
posibles.
- PROPIEDADES
- Propiedad Markoviana
- Las probabilidades son estacionarias
- Conjunto de probabilidades iniciales
- Matriz de transición
- TIPOS DE ESTADOS
- Irreducible
- Una Cadena de Markov donde
todos sus estados son accesibles
entre sí y por tanto se comunican
se dice que es irreducible, es decir,
que existe una única clase de
estados.
- Absorbentes
- Existen 2 clases o más estados la cadena ya no es
irreducible. Si tenemos 2 estados que no se
comunican (esto porque no son accesibles
viceversa) estos estados pertenecerán a distintas
clases de estados.
- DEFINICIÓN
- Las cadenas de
Markov son modelos
probabilísticos que se
usan para predecir la
evolución y el
comportamiento a
corto y largo plazo de
determinados
sistemas.
- Proceso estocástico con un
número finito de estados
con probabilidades de
transición estacionarias,
es decir, si se conoce la
historia del sistema hasta
su instante actual, su
estado presente resume
toda la información
relevante para describir en
probabilidad su estado
futuro.
- Autor: JESÚS NORBEY CHAMORRO