Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
Introducción
Una cadena de Markov, también conocida como proceso de Markov o modelo de
Markov, es un concepto fundamental en la teoría de la probabilidad y en la
estadística.
1.Conjunto Finito o Numerable: Los estados discretos pueden ser finitos, lo que significa
que hay un número finito de estados posibles, o numerables, lo que implica que hay un
número infinito pero contable de estados posibles.
Concepto matemático que sirve para usar magnitudes aleatorias que varían con el tiempo o para
caracterizar una sucesión de variables aleatorias que evolucionan en función de otra variable
(tiempo)
Sea Χ 𝑡 una variable aleatoria que caracteriza el estado del sistema en puntos discretos en el
tiempo 𝑡 = 1,2, …
La familia de variables aleatorias {Χ 𝑡 } forma un proceso estocástico con una cantidad finita
de estados
EJEMPLO 1: PROCESO ESTOCÁSTICO – MANTENIMIENTO
PREVENTIVO
Las condiciones de una máquina en el momento de mantenimiento preventivo mensual son
mala, regular o buena.
0, 𝑠𝑖 𝑙𝑎 𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 𝑒𝑠 𝑚𝑎𝑙𝑎
Χ𝑡 = * 1, 𝑠𝑖 𝑙𝑎 𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 𝑒𝑠 𝑟𝑒𝑔𝑢𝑙𝑎𝑟
2, 𝑠𝑖 𝑙𝑎 𝑐𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 𝑒𝑠 𝑏𝑢𝑒𝑛𝑎
La variable aleatoria Xt es finita porque representa tres estados: malo (0), regular (1) y bueno
(2).
EJEMPLO 2: PROCESO ESTOCÁSTICO – EVOLUCIÓN DEL CLIMA
El clima en la ciudad de David puede cambiar con rapidez de un día a otro. Sin
embargo, las posibilidades de tener clima seco (sin lluvia) mañana es de alguna
forma mayor si hoy está seco, es decir, si no llueve. En particular, la probabilidad
de que mañana esté seco es de 0.8 si hoy está seco, pero es de sólo 0.6 si hoy
llueve. Estas probabilidades no cambian si se considera la información acerca del
clima en los días anteriores a hoy.
Χ 𝑡 = 𝑐𝑙𝑖𝑚𝑎 𝑑𝑒 𝑙𝑎 𝑐𝑖𝑢𝑑𝑎𝑑
𝐷𝑡 = número de cámaras que se venderían en la semana t si el inventario no se agota (este número incluye
las ventas perdidas cuando se agota el inventario)
Proceso estocástico Χ 𝑡 = Χ 0 + Χ1 + Χ $ , …
Las variables aleatorias se pueden evaluar en forma iteractiva por medio de la expresión
𝑚á𝑥 3 − 𝐷𝑡 %1 , 0 , 𝑠𝑖 Χ 𝑡 = 0
Χ𝑡 1 = ? 𝑚á𝑥 Χ −𝐷
𝑡 𝑡 %1 , 0 𝑠𝑖 Χ 𝑡 ≥ 1
,
PROPIEDAD DE MARKOV
Proceso estocástico variables aleatorias que evolucionan a través del tiempo
Un proceso estocástico es un proceso de Markov si un estado futuro depende sólo del estado
inmediatamente anterior
Propiedad de Markov
𝑝 i j = 𝑃{𝑋 𝑡$1 = 𝑗| 𝑋𝑡 = 𝑖}
CLASIFICACIÓN DE LOS ESTADOS DE UNA CADENA
DE MARKOV
2. Un estado 𝑗 es transitorio si puede llegar a otro estado pero no puede regresar desde
otro estado.
3. Un estado 𝑗 es recurrente si la probabilidad de ser revisitado desde otros estados es 1.
Esto puede suceder si, y solo si, el estado no es transitorio
4. Un estado 𝑗 es periódico con periodo 𝑡 > 1 si es posible un
retorno sólo en 𝑡, 2𝑡, 3𝑡,…pasos
CLASIFICACIÓN DE LOS ESTADOS DE UNA CADENA DE MARKOV
- Irreducible
1 2 3
- Todos los estados son recurrentes
1 2 3
- Reducible (se pueden pensar como dos
cadenas separadas)
4 5 6
- Irreducible
1 - Irreducible
0 1 2 3 - Estado absorbente
3 2
MATRIZ DE PROBABILIDADES DE TRANSICIÓN
La información de probabilidad de transición para una cadena de Markov de tiempo
discreto se resume en forma de matriz
La matriz de probabilidades de transición nos permite ir de un estado actual a un estado futuro
…
p11 p12 p13 p1n
…
P=
p21 p22 … p23
…
…
p2n
pm1 pmn
n = número de estados
1, 2, … , n = probabilidad de estar en el estado 1, estado 2, …, estado n
ESTADOS Y PROBABILIDADES DE
ESTADO
En algunos casos, es posible saber con total certidumbre en qué estado se encuentra el artículo:
(1) = (1, 0)
donde
30,000
Estado 3, Atlas Foods
= 0.30 → 30%
10,000
EJEMPLO 5: TIENDA DE
ABARROTES
Estas probabilidades se colocan en el vector de probabilidades de estado como
donde (0) = vector de probabilidades de estado para las tres tiendas en el periodo inicial
Se determinó que 80% de los clientes que compran en American Food en un mes volverán a la
tienda el mes siguiente. El restante 20% de los clientes pasarán 10% a Food Mart y 10% a Atlas
Foods en su próxima compra.
De los clientes que compren en Food Mart 70% regresarán, 10% pasará a American Food y 20%
pasará a Atlas Foods
De los clientes que compren en Atlas Foods, el 60% regresará mientras que 20% se irá a
American Food y el restante 20% hacia Food Mart.
0.8
Un estudio determinó qué tan leales
#1 0.32 = 0.4(0.8)
son los clientes.
American Food #1 0.1
#2 0.04 = 0.4(0.1) Se determinó que 80% de
0.4 0.1 clientes
los que compran en American Food
#3 0.04 = 0.4(0.1) en un mes volverán a la tienda el mes
siguiente. El restante 20% de los clientes
0.1 #1 0.03 pasarán 10% a Food Mart y 10% a
Atlas Foods en su próxima compra.
Food Mart #2 0.7
#2 0.21
0.3 0.2 De los clientes que compren
#3 0.06 Fooden Mart 70%
pasará regresarán, 10% a
0.2 #1 0.06 pasará a Atlas Foods American Food
De los clientes que compren
y 20%
en Atlas
Atlas Foods #3 0.2
0.3
#2 0.06 Foods, el 60% regresará
0.6
mientras
#3 0.18
que 20% se irá a American Food y el
restante 20% hacia Food Mart.
EJEMPLO 5: DIAGRAMA TRANSICIÓN DE PROBABILIDADES PARA
LAS TRES TIENDAS
Un estudio determinó qué tan leales son
los clientes.
Se determinó que 80% de los clientes
0.2 que compran en American Food en un
mes volverán a la tienda
el mes siguiente. El restante 20% de los
0.8 0.1 0.7 0.2 clientes pasarán 10% a Food Mart y
0.6 10% a Atlas Foods en su próxima
compra.
1 2 3 De los clientes que compren en
Food Mart 70%
pasará regresarán, 10% a
0.1 0.2 pasará a Atlas Foods American Food
De los clientes que compren
y 20%
en Atlas
Foods, el 60% regresará
mientras
0.1 que 20% se irá a American Food y el
restante 20% hacia Food Mart.
EJEMPLO 5: MATRIZ DE PROBABILIDADES DE TRANSICIÓN PARA LAS
TRES TIENDAS
Usamos los datos históricos para desarrollar la siguiente matriz:
(1) = (0)P
Para cualquier periodo n calculamos las probabilidades de estado del periodo n + 1 como sigue:
(n + 1) = (n)P
EJEMPLO 5: PREDICCIÓN DE LA PARTICIPACIÓN FUTURA
EN EL MERCADO
Los cálculos para la participación en el mercado del periodo siguiente son:
(1) = (0)P
0.8 0.2
P= 0.1 0.9
donde
P11 = 0.8 = probabilidad de que la máquina funcione correctamente este mes, dado que funcionaba correctamente el mes pasado
P12 = 0.2 = probabilidad de que la máquina no funcione correctamente este mes, dado que funcionaba correctamente el mes pasado P21 = 0.1 =
probabilidad de que la máquina funcione correctamente este mes, dado que no funcionaba correctamente el mes pasado P22 = 0.9 = probabilidad de
que la máquina no funcione correctamente este mes, dado que no funcionaba correctamente el mes pasado
EJEMPLO 6: OPERACIONES DE MAQUINARIA
(1) = (0)P
0.8 0.2
= (1, 0)
0.1 0.9
(2) = (1)P
0.8 0.2
= (0.8, 0.2)
0.1 0.9
Es fácil pensar que con el paso del tiempo todas las participaciones de mercado serán 0 o 1.
Las condiciones de estado estable existen si las probabilidades de estado no cambian después
de un número grande de periodos.
CONDICIONES DE EQUILIBRIO
0.8 0.2
(1, 2) = (1, 2) 0.1 0.9
1 = 0.81 + 0.12
2 = 0.21 + 0.92
Para la máquina :
1 + 2 = 1
2 = 0.21 + 0.92
1 + 2 = 1
0.12 = 0.21
2 = 21
1 + 2 = 1
1 + 21 = 1
31 = 1
Χ 𝑡 = 𝑐𝑙𝑖𝑚𝑎 𝑑𝑒 𝑙𝑎 𝑐𝑖𝑢𝑑𝑎𝑑
0, 𝑑í𝑎 𝑡 𝑒𝑠 𝑠𝑒𝑐𝑜
Χ𝑡 = ?
1, 𝑑í𝑎 𝑡 𝑒𝑠 𝑙𝑙𝑢𝑣𝑖𝑜𝑠𝑜
𝑝OO + 𝑝O1 = 1
𝑝1O + 𝑝11 = 1
𝑝O1 = 0.8
𝑃= 𝑝11 0.2
𝑝1O
𝑝OO 0.6
0.4
ECUACIONES CHAPMAN-KOLGOMOROV
Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular
probabilidades de transición de 𝑛 pasos
Estas ecuaciones simplemente señalan que al ir del estado 𝑖 al estado 𝑗 en 𝑛 pasos, el proceso
estará en algún estado 𝑘 después de exactamente 𝑚 (menor que 𝑛) pasos. Así,
es sólo la probabilidad condicional de que, si comienza en el estado 𝑖, el proceso vaya
al estado 𝑘 después de 𝑚 pasos y después al estado 𝑗 en 𝑛 – 𝑚 pasos. Por lo tanto, al resumir
estas probabilidades condicionales sobre todos los estados posibles 𝑘 se debe obtener .
La matriz de probabilidades de transición de 𝑛 pasos se puede obtener al calcular la
𝑛 − é𝑠𝑖𝑚𝑎 potencia de la matriz de transición de un paso 𝑃.
EJEMPLO 2: MATRIZ DE TRANSICIÓN DE N PASOS – EVOLUCIÓN
DEL CLIMA
Éstas son las mismas probabilidades que las que se obtuvieron en cada renglón de la matriz de cinco pasos que se
calculó previamente, debido a que cinco transiciones probaron ser suficientes para que las probabilidades de
estado sean en esencia independientes del estado inicial.
Estados absorbentes y matriz
fundamental
ESTADOS ABSORBENTES Y MATRIZ FUNDAMENTAL
0 1 2 3
ESTADOS ABSORBENTES Y MATRIZ FUNDAMENTAL
0 1 2 3
Estados absorbentes:
• Los estados absorbentes son aquellos en los que una vez que un sistema entra
en uno de ellos, ya no puede salir.
• En otras palabras, una vez que el sistema llega a un estado absorbente,
permanecerá allí de forma permanente.
• Los estados absorbentes son útiles para modelar situaciones en las que el
sistema alcanza un estado final y no puede retroceder.
Por ejemplo, en un modelo de atención médica, un estado absorbente podría
representar la recuperación de un paciente.
ESTADOS ABSORBENTES Y MATRIZ FUNDAMENTAL
Matriz fundamental
• La matriz fundamental (también conocida como matriz de tiempo de primera
pasada o matriz de probabilidad de absorción) se utiliza para calcular la
probabilidad de absorción en los estados absorbentes en una cadena de Markov.
• Esta matriz se construye a partir de la matriz de transición de la cadena de Markov
y se utiliza para calcular la probabilidad de llegar a un estado absorbente partiendo
desde cualquier estado inicial en un número finito de pasos.
• Esto es útil para calcular métricas importantes, como el tiempo esperado para
absorber el sistema en un estado absorbente, la probabilidad de absorción en un
estado específico y otras medidas de interés.
ESTADOS ABSORBENTES Y MATRIZ FUNDAMENTAL
Por lo tanto:
1 0 0 0
0 1 0 0
P= 0.6 0 0.2 0.2
0.4 0.1 0.3 0.2
EJEMPLO: ESTADOS ABSORBENTES Y MATRIZ FUNDAMENTAL
1 0 0 0 1 0 0 0
I= 0=
0 1 0 0 0 1 0 0
P= 0.6 0 0.2 0.2
0.6 0 0.2 0.2
0.4 0.1 0.3 0.2 A= B=
0.4 0.1 0.3 0.2
A B
donde
I = matriz identidad
0 = matriz solo con ceros
EJEMPLO: ESTADOS ABSORBENTES Y MATRIZ FUNDAMENTAL
La matriz fundamental se calcula como:
F = (I – B)–1
–1
1 0 0.2 0.2
F= 0 1– 0.3 0.2
–1
0.8 –
F=
0.2
–0.3 0.8
d –b
a b a b –1 r
El inverso de la matriz
c d es c d = r a
–c
r r
donde
r = ad –
bc
EJEMPLO: ESTADOS ABSORBENTES Y MATRIZ
FUNDAMENTAL
Para obtener la matriz F calculamos:
0.8 –(–0.2)
–1 0.58 0.58
0.8 – 1.38 0.34
F= = –(–0.3) 0.8 = 0.52 1.38
0.2
–0.3 0.8 0.58 0.58
EJEMPLO: ESTADOS ABSORBENTES Y MATRIZ FUNDAMENTAL
Para determinar la cantidad de dinero de deudas incobrables que se esperaría en el largo
plazo se multiplica la matriz fundamental por la matriz A
1.38 0.34 0.6 0
F A=
0.52 1.38 X 0.4 0.1
0.97 0.03
F A=
0.86 0.14
Podemos usar la matriz FA para contestar preguntas como cuánto de la deuda en la categoría de
menos de un mes se pagará, y cuánto se convertirá en deuda incobrable:
donde
n = número de estados no
absorbentes
M1 = cantidad en el primer estado o
categoría M2 = cantidad en el segundo estado o
categoría Mn = cantidad en el n-ésimo estado o
categoría
EJEMPLO: ESTADOS ABSORBENTES Y MATRIZ
FUNDAMENTAL
M = (2,000, 5,000)
Cantidad pagada y
cantidad de deuda = MFA
incobrable 0.97 0.03
= (2,000, 5,000) 0.86 0.14
= (6,240, 760)
Entonces, del total de $7,000, $6,240 se pagarán al final y $760 terminarán como
deuda incobrable.