Probabilidad de Transición - Cadena de Markov
Probabilidad de Transición - Cadena de Markov
Probabilidad de Transición - Cadena de Markov
17.514
Comisin E- Grupo 7
Si el sistema se mueve del estado i durante un perodo al estado j durante el siguiente perodo, se
dice que ocurri una transicin de i a j.
Se define para cada par de estados (i, j) que se alcanzan en dos pasos consecutivos de n y n+1
una probabilidad condicional denominada probabilidad de transicin pij.
P (Xn+1 = j / Xn = i) = pij
(suposicin estacionaria)
Supongamos que las probabilidades de transicin de un paso son estacionarias, es decir, que no
cambian con el tiempo. Las probabilidades de transicin del estado X i al estado Xj estructuradas en
forma matricial da lugar a lo que se denomina matriz de transicin:
Dicha matriz relaciona los estados de la variable en dos pasos consecutivos a travs de sus
probabilidades de transicin.
Una matriz de transicin para una cadena de Markov de n estados es una matriz de n x n con
todos los registros no negativos y con la propiedad adicional de que la suma de los registros de
cada fila es 1.
Definicin:
Consideremos un proceso de Markov en que el sistema posee n estados posibles, dados
por los nmeros 1, 2, 3, , n. Denotemos pij a la probabilidad de que el sistema pase al
estado j despus de cualquier ensayo en donde su estado era i. Los nmeros pij se
denominan probabilidades de transicin y la matriz nxn P = (pij ) se conoce como matriz de
transicin del sistema.
Observaciones:
Las probabilidades pij deben satisfacer las condiciones:
1)
La suma pi1 + pi2 + + pin = 1 . Esta suma representa la probabilidad de que el sistema
pase a uno de los estados 1, 2, ., n dado que empieza en el estado i. Ya que el sistema ha de
estar en uno de estos n estados, la suma de probabilidades debe ser igual a 1. Esto significa
que los elementos en cualquier rengln de la matriz de transicin deben sumar 1.
2)
Cada elemento pij 0.
Ejemplos sencillos:
EJEMPLO 1: En un pueblo, al 90% de los das soleados le siguen das soleados, y al 80% de los
das nublados le siguen das nublados. Con esta informacin modelar el clima del pueblo como una
cadena de Markov.
Se trata de una cadena de Markov con dos estados {Soleado, Nublado} que para abreviar
representaremos por {S, N}, siendo la matriz de probabilidades de transicin:
S
0,9 0,1 S
P=
0,2 0,8 N
EJEMPLO 2: El clima en la Tierra de Oz. Segn el cuento, en la Tierra de Oz nunca hay dos das
buenos en sucesin. Despus de un da con buen tiempo, le sigue (con igual probabilidad) un da
con lluvia o nieve. Del mismo modo, si nieva (o llueve), el da siguiente nevar (o llover) con
probabilidad 1/2, pero si cambia el tiempo slo la mitad de las veces ser un lindo da.
Para estudiar este problema primeramente encontramos las probabilidades de transicin, es
decir las probabilidades de que teniendo cierto clima un da, al da siguiente se tenga otro clima.
As, si indicamos con b a un da bueno, con l a uno lluvioso y n si nieva, tendremos:
pbb = 0
pbl =
pbn =
pll =
plb =
pln =
pnn =
pnl =
pnb =
P=
donde las filas indican el clima en el da, las columnas el clima en el da siguiente, y las entradas
son las probabilidades de cambio o transicin. No es sorprendente que la matriz se llame matriz
de transicin (o transiciones).
Observamos que en esta matriz no slo los coeficientes son no-negativos, sino que al sumarlos por
filas obtenemos 1, indicando que alguna de las posibilidades, en este caso b, l o n, debe
necesariamente suceder.
En cambio, al sumar por columnas, a veces obtenemos menos de 1, a veces ms, y habr casos
donde dar 1.
El ejemplo del clima en la Tierra de Oz es un ejemplo tpico de cadena de Markov:
1)
2)
3)
4)
5)