Tipos de Cadenas de Markov
Tipos de Cadenas de Markov
Tipos de Cadenas de Markov
Se define como el tiempo medio de recurrencia de un estado recurrente j a partir del estado i como
la esperanza de
Esta esperanza representa el número de pasos promedio que a la cadena le toma regresar al estado
recurrente j.
DISTRIBUCIONES ESTACIONARIAS
πi ≥ 0
∑ π i =1
i
se dice que una distribución de probabilidad π=( π 0 , π 1 , …) es estacionaria para una cadena de
Markov con matriz de probabilidades de transición P=( p¿¿ ij)¿ si
π j=¿ ∑ π p ¿
i ij
i ϵS
En forma matricula lo anterior es equivalente a π=π P y significa que si una variable aleatoria inicial
X n también es π ,es decir esta distribución no cambia con el paso del tiempo.
Para encontrar una posible distribución estacionaria de una cadena con matriz P, un método consiste
en resolver el sistema de ecuaciones.
π=π P
Sujeto a:
∑ π j=1
j ϵS
πj≥0
EXISTENCIA Y UNICIDAD
Si una cadena de Márkov es irreducible y recurrente positiva entonces tiene una única distribución
estacionaria y está dada por
1
π j=
µj
Irreducible
Aperiódica
Con distribución estacionaria π
lim pij ( n) =¿ π ¿ j
n→∞
Irreducible
Recurrente positiva
Aperiódica
π j =lim p ij (n )
n →∞
1
π j=
µj
π=π P
Sujeto a:
∑ π j=1
jϵS
πj≥0
TIPOS DE CADENAS DE MARKOV.
Una cadena de Márkov se dice irreducible si se cumple cualquiera de las siguientes condiciones
(equivalentes entre sí):
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de
Márkov irreducibles.
Una cadena de Márkov se dice recurrente positiva si todos sus estados son recurrentes positivos. Si la
cadena es de además irreducible es posible demostrar que existe un único vector de probabilidad
invariante y está dado por:
1
π j=
μj
CADENAS REGULARES:
Una cadena de Márkov se dice regula (también primitiva o ergódica) si existe alguna potencia
positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.
lim ( P )n=W
n →1
Dónde W es una matriz con todas sus regiones iguales a un mismo vector de probabilidad w, que
resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas regulares, este
vector invariante es único.
CADENAS ABSORBENTES:
Una cadena de Márkov con espacio de estados finito se dice absorbente si se cumplen las dos
condiciones siguientes:
Para una cadena de Márkov continúa con un número finito de estados puede definirse una
matriz estocástica dada por:
La cadena se denomina homogénea si P(( t 1 , t 2 )=P(( t 2−t 1 ). Para una cadena de Márkov en tiempo
continuo homogénea y con un numero finito de estados puede definirse el llamado generador
infinitesimal como:
Q= lim ¿
P ( h) − I
+¿
h→ 0 ¿
h