Su objetivo es emplear
distintos panoramas y poder
seleccionar uno bajo números y
propuestas objetivas, evitando
la combinación de emociones.
Definición
Modelo de predicción que construye
diagramas que sirven para
representar y categorizar condiciones
que ocurren de forma sucesiva, para
la resolución de un problema.
Técnica que permite analizar
decisiones secuenciales basada
en el uso de resultados y
probabilidades asociadas
Utilidad
Resolución de problemas de
gran incertidumbre clínica
Documento basado
en evidencias para
protección legal
Técnica que obliga a:
Identificar y delimitar problema
Buscar información adicional
Mostrar alternativas de acción
Estimar probabilidades
Tomar decisiones
Análisis de Markov
Definición
El análisis parte de un
sujeto sano que puede hacer
una transición a enfermar;
una vez ahí, puede regresar
a ser sano o fallecer (estado
absorbedor)
Este proceso se repite en cada
ciclo y el individuo puede
permanecer sano o enfermar,
mientras que los casos de muerte
se van acumulando
Condiciones
Eventos repentinos, irreversibles y de larga duración
Solo transiciones entre estados previamente establecidos
Duración de los ciclos arbitraria pero constante
Cada paciente solo una transición en cada ciclo
Todos los pacientes mismas probabilidades de transición
Tipos
Cadenas de Markov
Posibilidades de
transición permanecen
constantes en todos los
ciclos
Procesos de Markov
Posibilidades de
transición
cambian con el
tiempo
Equipo 3: González Prieto Luis Enrique;
González Vázquez Jocelyn Nicole;
Pastrana Evangelista Aurora Jacqueline