2 2 Cadenas Markov Procesos Discretos
2 2 Cadenas Markov Procesos Discretos
2 2 Cadenas Markov Procesos Discretos
2
Cadenas de Markov discretas
Conceptos básicos
3
Cadenas de Markov discretas
DIAGRAMA DE TRANSICION DE ESTADOS
Representación gráfica:
Es posible representar una cadena de Markov por un grafo.
Cada nodo representa a un valor posible de la v.a., estado
Cada arco dirigido representa a la probabilidad de transición
pij ( desde i a j) asociada al par de estados que conecta (i , j)
p11
p10 1 p21
P00 P01 P0 K
pij
Desde el P10 P11
estado i
P
P PKK
K0
5
Representación Matricial
O equivalentemente, el diagrama de estados puede
representarse en forma matricial de la siguiente
manera:
1 2 3 4 5
1
P= 2
3
4
5
6
Cadenas de Markov discretas
Conceptos básicos
Matriz de Probabilidad de Transición:
7
Cadenas de Markov discretas
Conceptos básicos
Matriz de Probabilidad de Transición:
2. p
j 0
ij 1 ; para i 0 ,1, 2 , ....
1
1/4
3/4
3/4
0 3 / 4 1/ 4
1/4
0 1/4 P 1 / 4 0 3 / 4
2 1/2
1 / 4 1 / 4 1 / 2
1/4
9
1. Representación Gráfica
El diagrama de estados puede representarse en forma de
tabla de la siguiente manera:
– En la posición (i,j) de la matriz se coloca la probabilidad de
transitar desde el estado i al estado j
0.97 i 1 2 3 4 5
1 2 0.97 0.03
1
0.0
3 2
4
P= 3
4
5
10
j
1. Representación Gráfica
El diagrama transición de estados :
0.97 0.95
1 2 3
0.05 0.93
0. 0 7
3 0.0
4 5
1 2 3 4 5
1 0 0.97 0 0.03 0
2 0 0 0.95 0.05 0
P= 3 0 0 0 0.07 0.93
4 0 0 0 1 0
5 0 0 0 0 1
11
Cadenas de Markov discretas
12
Cadenas de Markov discretas
13
EJEMPLOS
14
1-Ruina de un jugador
15
2-Urnas de Ehrenfest
16
Ejemplo 3: caminata aleatoria con
barreras absorbentes
En el tiempo 0 tengo $ 2 y en los tiempos 1,2,3,...
participo en un juego en el que apuesto $1. Gano
el juego (y gano $1) con probabilidad p y lo pierdo
(perdiendo lo apostado) con probabilidad 1-p. Mi
meta es aumentar mi capital hasta $4 y tan pronto
lo logre me salgo del juego. También salgo
cuando me arruine (capital $0).
Ejemplo 3 (cont)
p p
n
if
n 1
ik p kf n, k 0
k
i, k , f
Pero lo que se está buscando es una forma más general de
expresar esta probabilidad.
19
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
n-1 pasos 1 pa
E1 so
n-1 pasos
E3
1 paso
n-1 a so
p p
aso 1
s
El
20
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
P X b f | X a i
( a ,b )
pif
21
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
pif
a ,b
P Xb f Xq k | Xa i
k
22
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
E1
E2
i f
E3
El
a q b
23
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
pif
a ,b
P Xq k | Xa i P Xb f | Xa i Xq k
k
24
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
pif
( a ,b )
P Xq k | Xa i P Xb f | Xq k
k
a ,q q ,b
pik
( a ,b )
pif p kf
k
25
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
i, k , f
26
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
E1
E2
i
f
E3
El
a q b
m n
27
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
28
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
Considerando que en el primer paso se efectuó la
transición desde el estado k al estado f, tenemos
la siguiente forma para la ecuación de Chapman-
Kolmogorov:
pik p kf
m 1 1 m
pi f
k
29
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
Descomponiendo:
M
pi f pie2 p e2 f
2 1 1
e2 1
2
pi f pi1 p1 f pi 2 p 2 f .... piM p Mf
30
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
31
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
p11 .. .. p p1M p11 .. .. p p1M
. p22 . . p22 .
P (2) P2
. .. . . .. .
p1M .. .. pMM p1M .. .. pMM
P ( 2 ) { p ( 2) if }
P ( 2)
P 2
32
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
Para el caso de n+m = 3 y siguiendo con el caso en que el
estado intermedio e2 se alcanza en un paso, para ir de un
estado i cualquiera a j tenemos que la ecuación de Ch-K nos
queda:
M
pi f pie2 p e2 f
3 n m
e2 1
e2 1
33
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
Utilizando el resultado obtenido anteriormente podemos escribir
la ecuación:
p1 f
..
M
Pi f pie2 pe2 1 .. ..
3
pe 2 M
e2 1
..
p
Mf
Desarrollando la expresión resulta:
p1 f p1 f
.. ..
Pi f pi1 p11 .. .. p1M ... p p pMM
3
.. ..
.. iM M1
..
pMf pMf
34
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
Se puede ver que es equivalente a:
p(3)if = *
35
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
Por lo tanto podemos obtener la matriz de transición de 3 pasos,
es decir:
P ( 3) P P ( 2 ) P P 2
Que entrega las
P ( 3)
{ p if }
( 3) probabilidades p(3)if de ir de
i a f en tres pasos
P ( 3)
P 3
36
Cadenas de Markov discretas
Ecuaciones de Chapman-Kolmogorov
Generalizando este resultado para n pasos, vemos que
resolver la ecuación de Chapman-Kolmogorov es
equivalente a encontrar la matriz de transiciones de n
pasos P(n):
P ( n)
P n
37
Cadenas de Markov discretas
Notación
(n)
e P[ X n e], e
Se define el vector al que se asocia la probabilidad de estar en
cualquiera de los estados existentes en la cadena en el n-ésimo,
y se anota:
(n )
1
(n )
...... E( n )
38
Cadenas de Markov discretas
Notación
(0)
1
(0)
...... E( 0 )
39
Cadenas de Markov discretas
Análisis Transiente
Ejemplo:
Ahora se puede generalizar la expresión a:
( n ) ( n 1) P
( n ) (0) P ( n )
Este vector indica la probabilidad de estar en
cualquiera de los estados de la cadena después
de n pasos, con la condición inicial (0) ( que
define el estado en el cual se inicia el proceso).
40
Cadenas de Markov discretas
Análisis Transiente
41
Cadenas de Markov discretas
Análisis Transiente
( n ) ( n 1) P (3)
( n ) (0) P ( n ) (4)
42
Cadenas de Markov discretas
Clasificación de Estados
Cadenas de Markov discretas
Clasificación de Estados
1.- Estado Alcanzable (accesible):
IPD-436 44
Cadenas de Markov discretas
Clasificación de Estados
2.- Comunicación de Estados:
IPD-436 45
Cadenas de Markov discretas
Clasificación de Estados
P00
3.- Estado Absorbente:
0
Un estado i es
absorbente cuando no
es posible a alcanzar
otro estado excepto a
sí mismo.
P10
pii 1
Estado
Absorbente p11=1
1
IPD-436 46
Cadenas de Markov discretas
Clasificación de Estados
4.- Probabilidad de Retorno
Esto es:
f i n P X n i, X k i para k 1, 2 , ..., n 1 | X 0 i
que representa la probabilidad del primer retorno a
i en n pasos.
IPD-436 47
Cadenas de Markov discretas
Clasificación de Estados
Se define:
fi 0 1
que representa la probabilidad de estar en el mismo estado
después de 0 transiciones.
Esta expresión
IPD-436 48
Cadenas de Markov discretas
Clasificación de Estados
5.- Estado Recurrente:
Propiedades:
– Un estado i es recurrente si el número esperado de visitas al
estado i es infinito
p
n 1
n
ii
i n fi n equivale al número de transiciones
n 1 esperadas para volver a i
Propiedades de
1
j j lim n P n
j ij
IPD-436 51
Cadenas de Markov discretas
Clasificación de Estados
6.- Estado Transiente (Transitorio):
Se cumple que:
p
n 1
n
ii
IPD-436 52
Cadenas de Markov discretas
Clasificación de Estados
7.- Periodicidad:
Un estado i es periódico de periodo d si:
piin 0 n d , 2d , 3d .....
a b a b c
IPD-436 53
Cadenas de Markov discretas
Clasificación de Estados
8.- Clases de Estados:
pij
i j
Dos estados que se comunican
pertenecen a la misma clase. pki
pik pjk
El concepto de comunicación k
divide el espacio de estados en
un número de clases disjuntas
pkl
Ejemplo gráfico: 2 clases l
plm pnl
pml
m n
IPD-436
pmn 54
Cadenas de Markov discretas
Clasificación de Estados
9.- Cadena Irreductible:
Pij
Es una cadena que tiene i j
una única clase. Pki
Pik Pjk
Xn es una cadena de k
Markov irreductible si
todos los estados son: Pkl Plk
– recurrentes positivos ó
l
– recurrentes nulos ó
Plm Pnl
– transientes.
Pml
m n
IPD-436
Pmn 55
Cadenas de Markov discretas
Clasificación de Estados
10.- Ergocidad:
Teorema:
IPD-436 56
CADENAS DE MARKOV
DISCRETAS (REGULARES)
ANALISIS ESTACIONARIO
CADENA DE MARKOV REGULAR
– ES IRREDUCIBLE (una sola clase de
estados)
– ES APERIODICA ( tiene periodo 1)
57
THM estacionariedad de una
Cadena Regular
Dada una cadena regular por su matriz
de transiciones instantaneas P = (pij)
Bajo condiciones de estacionariedad
se cumple:
– Limite pij(n) →πj
n→∞
– Limite Pn (πj)
58
Cadenas de Markov DISCRETAS
Análisis Estacionario
Definición:
lim e( n ) e ; e
n
es decir, la probabilidad de estar en el estado e es
independiente del tiempo (n), y es constante.
59
Cadenas de Markov discretas
Análisis Estacionario
Definición:
60
Tiempo de visitas y de primera
pasada
Dada una CMR el tiempo esperado en
que puede permanecer en un mismo
estado i sera :
– E(Sii) = 1/(1-pii)
• Dem: Sii = numero de transiciones que permanece
en i
P(Sii=n) = (1- pii) pii n -1
distribucion geométrica de media
E(Sii) = 1/(1-pii)
61
Tiempo de visitas y de primera
pasada
Dada una CMR por sus probabilidades
estacionarias πj si Tij es el número de
transiciones necesariaspara pasar por
primera vez de i a j Entonces el tiempo
esperado de la primera recurrencia es:
E(Tii) = 1/πi
62
Corolorario
63
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
Se dispone de 4 módulos de atención que
se van activando secuencialmente a
medida que la cantidad de usuarios que Central
deben ser atendidos aumenta. Telefónica
Cada módulo tiene un máximo de
usuarios a los que puede entregar
servicio.
Cuando un módulo está completamente
utilizado, entra en servicio el siguiente
módulo.
Si un módulo deja de ser utilizado, el
G1 G2 G3 G4
módulo se desactiva temporalmente,
quedando en servicio los módulos
anteriores. 64
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
Interesa conocer:
¿Cuál es la probabilidad de que Central
cada módulo esté en uso?. Telefónica
Es decir, se desea conocer,
con que probabilidad se utiliza
cada módulo, en cualquier
instante de tiempo.
G1 G2 G3 G4
65
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
66
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
Desde el 3 al 1: 0 Desde el 4 al 1: 0
Desde el 3 al 2: 0.3 Desde el 4 al 2: 0
Desde el 3 al 3: 0.1 Desde el 4 al 3: 0.5
Desee el 3 al 4: 0.6 Desee el 4 al 4: 0.5
67
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
0.2 0.1
1 2 3 4
0.4 0.3 0.5
68
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
La matriz de transición asociada al ejemplo es:
0.3 0.7 0 0
0.4 0.2 0.4 0
P
0 0.3 0.1 0.6
0 0 0.5 0.5
1 2 3 4
69
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
Considerando las ecuaciones matricial:
1 0.3 1 0.4 2
2 0.7 1 0.2 2 0.3 3
(1) P 3 0.4 2 0.1 3 0.5 4
4 0.6 3 0.5 4
En estado estacionario la
probabilidad de estar en
estado i en el paso n, es igual
a la probabilidad de estar en
estado i en el paso n+1
Condición de probabilidades totales
(2) 1 2 3 4 1
70
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
71
Cadenas de Markov discretas
Análisis Estacionario
Ejemplo 1R:
73
Cadenas de Markov: Otros
Ejemplos
74
Cadenas de Markov: Otros
Ejemplos
Predicción del Tiempo
Predicción del Tiempo
En el caso General:
1
[ 0 , 1 ] [ 0 , 1 ]
1
0 0 1
1 (1 ) 0 (1 ) 1
0 /(1 )
1 0 1
1 (1 ) /(1 )
75
Ejemplo #3R:
El clima en el pueblo de Centerville puede cambiar
con rapidez de un día a otro. sin embargo, las
posibilidades de tener clima seco (sin lluvia) mañana
es de alguna forma mayor si hoy está seco, es decir,
no llueve. En particular, la probabilidad de que
mañana esté seco es de 0.8 si hoy está seco, pero
es de sólo 0.6 si hoy llueve. Estas probabilidades no
cambian si se considera la información acerca del
clima en los días anteriores a hoy.
La evolución del clima día tras día en Centerville es
un proceso estocástico. Si se comienza en algún día
inicial, el clima se observa cada día t, para t=0,1,2,…
El estado del sistema en el día t puede ser.
Estado 0 = El día t es seco. O
Estado 1= El día t es lluvioso
La matriz P contiene los estados posibles, del
problema.
0 1 Debe leerse que la si hoy es un día seco la
0 0 . 8 0. 2 probabilidad que mañana sea seco es 0.8.
P
1 0.6 0.4 Si hoy es un seco, la probabilidad que mañana sea
lluvioso es 0.2.
Si hoy es un día lluvioso, la probabilidad que
mañana sea seco es 0.6.
Si hoy es un día lluvioso ,la probabilidad que
0 si día t es seco
Xt mañana sea lluvioso es 0.4
1 si día t es lluvioso
X t X 1 , X 2 , X 3 ,...
El proceso estocástico
proporciona una representación matemática de la
forma como evoluciona el clima Centerville a través
del tiempo.
Matrices de transición de estados en n pasos del clima:
La probabilidad del estado del clima dos, tres, cuatro, cinco días a
futuro se puede conocer a partir de las matrices de transición de
dos, tres, cuatro y cinco pasos que se calculan bajo las
ecuaciones de Chapman Kolmogorov. Partiendo de la matriz de
transición de un paso.
A la vista del
esquema podemos
pasar a construir la
matriz de
probabilidades de
transición:
0 1
0 0.80 0.20
1 0.30 0.70
Calculo
0.8 0.2
P (1) Matriz inicial
0. 3 0 .7
0.8 0.2
(C , N) 100 900 (350,650) El primer mes comprarán 350 y no
0 .3 0 . 7
comprarán 650
0.7 0.3
(C , N) 100 900 (475,525)
El segundo mes comprarán 475 y no
0 . 45 0.55 comprarán 525
Ejemplo #5
En una población de 10,000 habitantes, 5000 no fuman,
2500 fuman uno o menos de un paquete diario y 2500
fuman más de un paquete diario. En un mes hay un 5% de
probabilidad de que un no fumador comience a fumar un
paquete diario, o menos, y un 2% de que un no fumador
pase a fumar más de un paquete diario. Para los que fuman
un paquete, o menos, hay un 10% de probabilidad de que
dejen el tabaco, y un 10% de que pasen a fumar más de un
paquete diario. Entre los que fuman más de un paquete,
hay un 5% de probabilidad de que dejen el tabaco y un 10%
de que pasen a fumar un paquete, o menos. ¿Cuántos
individuos habrá de cada clase el próximo mes? ¿Y dentro
Fuman
de dos meses? No fuman 1
Población
Fuman
2
Ejemplo 5R
Ejemplo 5R
0 1 2
0 0.93 0.05 0.02
P (1)
1 0.10 0.80 0.10
2 0.05 0.10 0.85
• 4,000 no fumadores
• 3,500 fuman 1 paquete, o menos, diario
• 2,500 fuman más de un paquete diario.
A B C
A 0.346 0.385 0.269
P(21)=
B 0.346 0.385 0.269
0,05
0,90
0,8 0,15 0,90
0,04
0,06 0,06
0,04
Aplicación de resultados
anteriores
Consideremos el ejemplo 3, y supongamos que al inicio
de la investigación, el 35% de la población vivía en áreas
urbanas, el 45% en área suburbana, y el resto en área
rural.
a) Si inicialmente una familia vive en un área rural, ¿cuál es
la probabilidad de que tres años después esta familia
viva en un área urbana?
b) ¿Cual es la probabilidad de que tres años despúes de
iniciada la investigación una familia viva en el área
urbana?
Aplicación de resultados
anteriores
a t (0 , 35 0 ,45 0 , 20 )
a) 0,0967
b) 0,2691
Ejemplo (desplazamiento
poblacional: ejemplo 3)
Dado que la matriz del ejemplo 3 es
ergódica, podemos hacer:
1 2 3 1
93
continuación
Q R
P´
0 I
Concepto de cadena absorbente
forma canónica de matriz
Sea X una CM cuyos estados son todos transitorios
o absorbentes. En tal caso diremos que X es
absorbente. Al menos uno absorbente
Si X es finita y absorbente, reordenamos S poniendo
primero los estados transitorios y obtenemos:
I 0
P
R Q
Estado terminal de cadenas de
Markov absorbentes
Resultados sobre cadenas
absorbentes
Proposición: El número medio de etapas
que se estará en el estado transitorio jS
antes de la absorción, suponiendo que
empezamos en el estado transitorio iS,
viene dado por el elemento (i,j) de (I–Q)–1
Nota: La etapa inicial también se cuenta,
es decir, en la diagonal de (I–Q)–1 todos
los elementos son siempre mayores o
iguales que 1
Estado terminal de cadenas de Markov absorbentes
Estado terminal de cadenas de Markov absorbentes
Resultados sobre cadenas
absorbentes
Proposición: La probabilidad de ser
absorbido por un estado absorbente
jS, suponiendo que empezamos en el
estado transitorio iS, viene dada por el
elemento (i,j) de la matriz (I–Q’)–1 R, que
se denomina matriz fundamental de la
CM
Resultados sobre cadenas
absorbentes
Proposición: La probabilidad de ser
absorbido por un estado absorbente
jS, suponiendo que empezamos en el
estado transitorio iS, viene dada por el
elemento (i,j) de la matriz (I–Q’)–1 R, que
se denomina matriz fundamental de la
CM
Ejemplo de CM absorbente
Probabilidad de que A termine arruinándose.
– La ruina de A está representada por el estado 0, que es
el 2º estado absorbente. Como empezamos en el 3er
estado transitorio (A empieza con 3 €), debemos
consultar la 3ª fila, 2ª columna de (I–Q)–1R, que nos da
una probabilidad de 0,4 de que A empiece con 3 € y
termine en la ruina.
Probabilidad de que B termine arruinándose
– Como es el suceso contrario del apartado a), su
probabilidad será 1–0,4=0,6. También podríamos haber
consultado la 3ª fila, 1ª columna de (I–Q)–1R.
Ejemplo de CM absorbente
Número medio de tiradas que tarda en acabar el
juego
– Sumamos los números medios de etapas que se estará en
cualquier estado transitorio antes de la absorción,
suponiendo que empezamos en el 3er estado transitorio.
Dichos números medios son los que forman la 3ª fila de la
matriz (I–Q’)–1. El promedio es: 0,8+1,6+2,4+1,2=6 tiradas.
Nota: si observamos la 1ª columna de (I–Q’)–1R,
vemos que los valores van creciendo. Esto se debe
a que, cuanto más dinero tenga al principio A, más
probabilidad tiene de ganar el juego.
Resultados sobre cadenas
absorbentes
Proposición: El número medio de etapas
que se estará en el estado transitorio jS
antes de la absorción, suponiendo que
empezamos en el estado transitorio iS,
viene dado por el elemento (i,j) de (I–Q)–1
Nota: La etapa inicial también se cuenta, es
decir, en la diagonal de (I–Q)–1 todos los
elementos son siempre mayores o iguales
que 1
Resultados sobre cadenas
absorbentes
Proposición: La probabilidad de ser
absorbido por un estado absorbente
jS, suponiendo que empezamos en el
estado transitorio iS, viene dada por el
elemento (i,j) de la matriz (I–Q)–1 R, que
se denomina matriz fundamental de la
CM
Ejemplo1A: de CM absorbente
En un juego participan dos jugadores, A y B. En cada
turno, se lanza una moneda al aire. Si sale cara, A le
da 1 € a B. Si sale cruz, B le da 1 € a A. Al principio,
A tiene 3 € y B tiene 2 €. El juego continúa hasta que
alguno de los dos se arruine. Calcular:
– La probabilidad de que A termine arruinándose.
– La probabilidad de que B termine arruinándose.
– El número medio de tiradas que tarda en acabar
el juego.
Ejemplo de CM absorbente
Tendremos una CM con un estado por cada
posible estado de cuentas de A: S={1, 2, 3, 4,
5, 0}. Descomponemos Q:
0 0,5 0 0
0 0,5 0 0 0 0,5 0,5 0 0,5 0
Q
0,5 0 0,5 0 0 0 0 0,5 0 0,5
0 0,5 0 0,5 0 0 0 0,5 0
0
P´
0 0 0,5 0 0,5 0
0 0 0 0 1 0 0 0,5
0 0 0 0 0 1 0 0
R
0 0
0,5 0
Ejemplo de CM absorbente
Realizamos los cálculos necesarios:
1
1 0,5 0 0 1,6 1,2 0,8 0,4
0,5 1 0,5 0 1,2 2,4 1,6 0,8
I Q 1
0 0,5 1 0,5 0,8 1,6 2,4 1,2
0 0 0,5 1 0,4 0,8 1,2 1,6
0,2 0,8
0,4 0,6
I Q R
1
0,6 0,4
0,8 0,2
Ejemplo de CM absorbente
Probabilidad de que A termine arruinándose.
– La ruina de A está representada por el estado 0, que es
el 2º estado absorbente. Como empezamos en el 3er
estado transitorio (A empieza con 3 €), debemos
consultar la 3ª fila, 2ª columna de (I–Q’)–1R, que nos da
una probabilidad de 0,4 de que A empiece con 3 € y
termine en la ruina.
Probabilidad de que B termine arruinándose
– Como es el suceso contrario del apartado a), su
probabilidad será 1–0,4=0,6. También podríamos haber
consultado la 3ª fila, 1ª columna de (I–Q)–1R.
Ejemplo de CM absorbente
Número medio de tiradas que tarda en acabar el
juego
– Sumamos los números medios de etapas que se estará en
cualquier estado transitorio antes de la absorción,
suponiendo que empezamos en el 3er estado transitorio.
Dichos números medios son los que forman la 3ª fila de la
matriz (I–Q’)–1. El promedio es: 0,8+1,6+2,4+1,2=6 tiradas.
Nota: si observamos la 1ª columna de (I–Q)–1R,
vemos que los valores van creciendo. Esto se debe
a que, cuanto más dinero tenga al principio A, más
probabilidad tiene de ganar el juego.
Ejemplo 2A:
Alumno de Enseñanza Media
116
Preguntas
Definición de estados:
– Estado 1: Estar en primer año.
– Estado 2: Estar en segundo año.
– Estado 3: Estar en tercer año.
– Estado 4: Estar en cuarto año.
– Estado 5: Egresar del establecimiento.
– Estado 6: Retirarse del establecimiento.
119
Ejemplo 2A:
Alumno de Enseñanza Media
1 2 3 4
6 5
Ejemplo 2A:
Alumno de Enseñanza Media
0.01
6 0.03 5
1 1
Resumen sobre las Representaciones
Ejemplo 2A:
128
Problema del ratón 1E
Problema Ratón:
Un ratón cambia de habitáculo cada
minuto con igual probabilidad a las
salas adyacentes
129
1/2
S E 1/2
1/3
1/2 1/3 1/3
1/3
1/3
H C
1/3
1/2
Matriz de probabilidades de transición :
P= 1/2 0 1/2 0
1/3 1/3 0 1/3
1/2 0 1/2 0
SOLUCIONES
ESTACIONARIAS
1 2 3 4
1 0 1/3 1/3 1/3
2
1/2 0 1/2 0
3
1/3 1/3 0 1/3
4
1/2 0 1/2 0
132
Preguntas
1/3
1/3 E
S
SE 1/3
1/3
1/3 1/3
C 1/3 H
1/3
¿ Que probabilidad hay de que el sistema
sea absorbido en cada estado final ?
1. E, S y H son estados transitorios.
2. C y SE son estados recurrentes o finales.
I-Q R
Matriz de
Matriz de absorción en
prob. Entre un solo salto
transitorios
Resolvemos el sistema:
I-Q R
Matriz de
Matriz de absorción en
prob. Entre un solo salto
transitorios
Preguntas
0.748+1.498+0.748 = 2,994
Matriz NR
NR =S 0,249 0,751
H 0,249 0,751
142
EJEMPLO 2E