1. Un conjunto
finito de M
estados,
exhaustivos y
mutuamente
excluyentes
(ejemplo: estados
de la enfermedad)
2. Ciclo de Markov
(“paso”) : periodo de
tiempo que sirve de
base para examinar
las transiciones
entre estados
(ejemplo, un mes)
3. Probabilidades
de transición entre
estados, en un ciclo
(matriz P)
4. Distribución
inicial del
sistema entre los
M estados
posibles.
PROPIEDADES
Propiedad Markoviana
Las probabilidades son estacionarias
Conjunto de probabilidades iniciales
Matriz de transición
TIPOS DE ESTADOS
Irreducible
Una Cadena de Markov donde todos
sus estados son accesibles entre sí y
por tanto se comunican se dice que es
irreducible, es decir, que existe una
única clase de estados.
Absorbentes
Existen 2 clases o más estados la cadena ya no es
irreducible. Si tenemos 2 estados que no se comunican
(esto porque no son accesibles viceversa) estos estados
pertenecerán a distintas clases de estados.
DEFINICIÓN
Las cadenas de Markov
son modelos
probabilísticos que se
usan para predecir la
evolución y el
comportamiento a corto
y largo plazo de
determinados sistemas.
Proceso estocástico con un
número finito de estados con
probabilidades de transición
estacionarias, es decir, si se
conoce la historia del sistema
hasta su instante actual, su
estado presente resume toda
la información relevante para
describir en probabilidad su
estado futuro.