Clase8y9 (202215)
Clase8y9 (202215)
Clase8y9 (202215)
Procesos Estocásticos
Un proceso estocástico es una colección o familia de variables aleatorias 𝑋𝑡, 𝑐𝑜𝑛 𝑡 ∈ 𝑇 , ordenadas
según el subíndice t que en general se suele identificar con el tiempo.
Por tanto, para cada instante t tendremos una variable aleatoria distinta representada por 𝑋𝑡, con lo que
un proceso estocástico puede interpretarse como una sucesión de variables aleatorias cuyas
características pueden variar a lo largo del tiempo.
Procesos markovianos en tiempo discreto
Procesos Estocásticos
• Una Cadena es un proceso estocástico en el cual el tiempo se mueve en forma discreta y la variable
aleatoria sólo toma valores discretos en el espacio de estados.
• Un Proceso de Saltos Puros es un proceso estocástico en el cual los cambios de estados ocurren en
forma aislada y aleatoria pero la variable aleatoria sólo toma valores discretos en el espacio de
estados.
• En un Proceso Continuo los cambios de estado se producen en cualquier instante y hacia cualquier
estado dentro de un espacio continuo de estados. Un proceso continuo en tiempo discreto es un
proceso estocastico que puede tomar cualquier valor en un intervalo de tiempo.
Procesos markovianos en tiempo discreto
Procesos Estocásticos
Procesos Estocásticos
Procesos Estocásticos
Procesos Estocásticos
Procesos Estocásticos
Cadenas de Markov
Procesos markovianos en tiempo discreto
Cadenas de Markov
• Las cadenas de Markov de utilización más general disponen de espacios de estados S discretos y
conjuntos de instantes de tiempo T también discretos, T={t0, t1, t2,…}
• Una cadena de Markov (CM) es una sucesión de variables aleatorias Xi, i∈N, tal que su probabilidad
está definida por:
Esta expresión algebraica representa la propiedad de Markov para instantes de tiempo discreto.
Procesos markovianos en tiempo discreto
Probabilidades de transición
Las cadenas de Markov están completamente caracterizadas por las probabilidades de transición en una
etapa.
Donde qij se llama probabilidad de transición en una etapa desde el estado i hasta el estado j.
Procesos markovianos en tiempo discreto
Matriz de transición
Por ser 1 la probabilidad del suceso seguro, cada fila ha de sumar 1, es decir:
Una matriz que cumpla estas dos propiedades se llama matriz estocástica.
Procesos markovianos en tiempo discreto
0,1
0,9 0 1 0,7
0,3
Procesos markovianos en tiempo discreto
Ejemplo:Formulación del ejemplo del efecto del clima con Cadena de Markov.
El clima en el pueblo de Timotes puede cambiar con rapidez de un día a otro. Sin embargo, las
posibilidades de tener clima seco (sin lluvia) mañana es de alguna forma mayor si hoy está seco, es decir,
si no llueve. En particular, la probabilidad de que mañana esté seco es de 0.8 si hoy está seco, pero es de
sólo 0.6 si hoy llueve.
La evolución del clima día tras día en Timotes se formula como un proceso estocástico {𝑋𝑡} (𝑡 =
0, 1, 2, … ) donde:
Procesos markovianos en tiempo discreto
Ejemplo:
Aún más, como estas probabilidades no cambian si también se toma en cuenta la información del clima
antes del día de hoy (día t)
𝑃 𝑋!"# = 0 𝑋$ = 𝑘$ , 𝑋# = 𝑘# , … , 𝑋!%# = 𝑘!%# , 𝑋! = 0 = 𝑃{𝑋!"# = 0|𝑋! = 0}
𝑃{𝑋!"# = 0|𝑋$ = 𝑘$ , 𝑋# = 𝑘# , … , 𝑋!%# = 𝑘!%# , 𝑋! = 1} = 𝑃 𝑋!"# = 0|𝑋! = 1
Procesos markovianos en tiempo discreto
Ejemplo:
Ejemplo:
Las probabilidades indicadas en el enunciado no cambian si se considera la información acerca del clima en
los días anteriores a hoy.
Si se comienza en algún día inicial (etiquetado como día 0), el clima se observa cada día t, para t = 0, 1, 2, . . .
Ejemplo:
El proceso estocástico {𝑋𝑡} = {𝑋0, 𝑋1, 𝑋2, . . . } proporciona una representación matemática de la forma
en que evoluciona el clima en Timotes a través del tiempo.
Procesos markovianos en tiempo discreto
Ejemplo:
Formulación del ejemplo del efecto del clima con Cadena de Markov.
Sabiendo que la sumatoria de las probabilidades (en un paso) de que la variable pase desde un estado i
hasta un estado j debe ser igual 1, se tiene:
Como se mencionó anteriormente, las probabilidades suministradas como dato (para este caso) son
estacionarias, la matriz de transición queda de la siguiente manera:
Seco
t-1 Lluvioso
Diagrama de transición
Procesos markovianos en tiempo discreto
Ecuaciones de Chapman-Kolmogorov
Ahora veremos dos métodos para la obtención de las probabilidades de estado estable, las
cuales permiten prever el comportamiento a largo plazo de un proceso estocástico
estudiado, favoreciendo la toma de decisiones.
Además, aspectos como la comunicación y período de los estados de la cadena de Markov,
así como un ejemplo de aplicación utilizándo las probabilidades de estado estable.
Ecuaciones de Chapman-Kolmogorov
Anteriormente se introdujo la probabilidad de transición de n pasos p . Las
(n)
ij
y cualquier m = 1, 2, …, n-1,
n = m+1, m+2, …, n
Estas ecuaciones simplemente señalan que al ir del estado i al estado j en n
pasos, el proceso estará en algún estado k después de exactamente m (menor
que n) pasos.
Ecuaciones de Chapman-Kolmogorov
Así, p p es sólo la probabilidad condicional de que, si comienza en el estado i,
(m) ( n-m )
ik ki
ij
Ecuaciones de Chapman-Kolmogorov
Teorema: las probabilidades de transición en n etapas vienen dadas por la matriz Qn:
Por este teorema sabemos que la probabilidad de transitar de i hasta j en n pasos es el elemento (i,j) de Qn.
Matrices de transición para el ejemplo del clima
Ahora se usarán las fórmulas anteriores para calcular las diferentes matrices de
transición de n pasos a partir de la matriz de transición P (de un paso) que se
obtuvo en anteriormente. La matriz de transición de dos pasos es:
Renglones
idénticos
Probabilidades de Estado Estable
Renglones
idénticos
Ello refleja el hecho de que la probabilidad del clima que está en un estado
particular es en esencia independiente del estado del clima cinco días antes.
Por lo tanto, las probabilidades de cualquier renglón de esta matriz de
transición de cinco pasos se denominan probabilidades del estado estable de
la cadena de Markov.
Propiedades a Largo Plazo de Una Cadena de Markov
Probabilidades de estado estable
Mientras se calculaban las matrices de transición de n pasos del ejemplo del clima, se observó una
característica interesante de estas matrices. Si n es lo suficientemente grande (n = 5 en el ejemplo del
clima), todos los renglones de la matriz tienen elementos idénticos, lo que significa que la probabilidad de
que el sistema esté en cada estado j ya no depende del estado inicial del sistema.
En otras palabras, parece que existe una probabilidad límite de que el sistema se encuentre en el estado j
después de un número grande de transiciones, y que esta probabilidad es independiente del estado inicial.
Es importante observar que la probabilidad de estado estable no significa que el proceso se establezca
en un estado. Por el contrario, el proceso continúa haciendo transiciones de un estado a otro y en
cualquier paso n la probabilidad de transición del estado i al estado j es todavía pij.
j
j =0
Probabilidades de estado estable. Aplicación al ejemplo del clima.
Al resolver el sistema de ecuaciones se tiene que:
Exactamente los mismos valores que los obtenidos en la matriz de transición de 5 pasos.
Comunicación
Sea {Xt} una cadena de Markov y sean i y j dos de sus estados:
a) j es accesible desde i si existe n ≥ 0 tal que Pij(n) > 0. Se denota como (i→j)
b) i y j son comunicantes si i→j, j→i Se denota como i↔j
La comunicación induce una partición del espacio en estados en clases comunicantes.
Las clases comunicantes son subconjuntos de estados en los que todos ellos se comunican.
c(i) = clase de comunicación del estado i
Una cadena de Markov es irreducible si todos sus estados se comunican entre si.
Comunicación
0 1 2 3
De forma gráfica:
0 1 0 0 0 0 1
1 ½ 0 ½ 0
2 0 ½ ½ 0
3 ½ 0 ½ 0 3 2
No se
comunica 0 1
se comunican
Pertenecen a la
No se 3 2 misma clase
comunica
Clases de comunicación
C(0)
C(3)
C(1) = 1,2 C(1) = C(2)
Período
El período se define como un número que se calcula para cada estado de una cadena de Markov.
d(3) = m.c.d Ø
d(3) = 0
Clasificación de los Estados en una
Cadena de Markov
Los estados de una cadena de Markov se clasifican con base en la probabilidad de transición pij de P.
Se dice que i es :
a) Recurrente si P(Xn= i para alguna n≥ 1 / Xo=i) = 1
b) Transitorio si P(Xn= i para alguna n≥ 1 / Xo=i) < 1
Se dice que una cadena de Markov es ergódica si todos los estados son recurrentes y
aperiódica (período = 1).
Se utilizará la siguiente matriz de transición para ilustrar la mayoría de las definiciones que
se darán:
Cada estado tiene periodo 3. Por ejemplo, si comenzamos en el estado 1, la única forma de volver
al estado 1 es seguir la trayectoria 1-2-3-1 para cierto número de veces (por ejemplo, “m”). Por
consiguiente, cualquier retorno al estado 1 tendrá 3m transiciones, así que el estado 1 tiene
periodo 3. Sin importar donde estemos, se tiene la seguridad de volver tres períodos después.
Definición:
Si los estados en una cadena son recurrentes, aperiódicos y se comunican entre sí, se dice que
la cadena es ergódica 1 1
0 0
2 2
1 1
0 0
Ergódica 𝑃& = 2 2 No ergódica Ergódica
2 1
0 0 3 3
0 0 1 3
4 4
Ejemplo : Cadenas absorbentes
La situación de deudas activas de una empresa se modela como una cadena de Markov absorvente.
Suponga que una empresa asume que una cuenta es incobrable si tiene mas de tres meses de atraso.
Entonces, al comienzo de cada mes, cada cuenta se puede clasificar en uno de os siguientes estados:
Suponga que los datos históricos indican que la siguiente cadena de Markov describe como
cambia el estado de una cuanta al mes siguiente:
Por ejemplo; si una cuenta tiene dos meses de atraso al comienzo del mes, hay 40% de
probabilidades de que al comienzo del siguiente mes no se pague la cuenta ( y, por consiguiente
tres meses de atraso) y 60% de probabilidades de que se pague la cuenta.
Para simplificar el ejemplo suponga que después de tres meses se cobra la deuda o se borra como
deuda incobrable.
Una vez que se paga la deuda o se borra como deuda incobrable, se cierra la cuanta y ya no ocurren
mas transacciones. Por lo tanto, las deudas pagadas e incobrables son estado absorbentes.
Los otros estados son estados estacionarios.
Para responder las preguntas, es necesario escribir la matriz de transición con los estado listados en
el siguiente orden: primero los estados transitorios, luego los estados absorbentes.
Para garantizar la concreción, supóngase que hay (s-m) estados transitorios (t1, t2, t3,….,ts-m )
Por lo tanto hay m estado absorbentes (a1, a2, a3,….,am)
Entonces la matriz de transición para la cadena absorbente se podrá escribir como sigue:
En este formato, los renglones y las columnas de P corresponden (en orden) a los estados
(t1,t2,t3,…,ts-m, a1,a2,a3,…,am)
I corresponde a la matriz identidad de m x m, que refleja el hecho de que nunca se puede dejar un estado
absorbente.
Q es una matriz de (s - m) x (s - m) que representan las transiciones entre los estados transitorios.
R es una matriz de (s – m) x m que representa transiciones de estados transitorios a estados absorbentes.
0 es una matriz de m x (s – m) que consiste por completo de ceros. Esto refleja el hecho de que es imposible ir de un
estado absorbente a un estado transitorio.
Luego, Las matrices Q y R son
t1 = Nuevo
t2 = 1 mes
t3 = 2 meses
t4 = 3 meses
a1 = Pagada
a2 = deuda incobrable
En este ejemplo, s = 6 y m = 2
Analizaremos algunos hechos de las cadenas absorbentes.
Procesos markovianos en tiempo discreto
Bibliografía
Hillier, F., Lieberman, G. (2010). Introducción a la Investigación de operaciones. (9ª
Render, B., Stair, R., Hanna, M. (2012). Métodos cuantitativos para los negocios. (11ª