Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
†
Universidad Nacional del Litoral y Consejo Nacional de Investigaciones Científicas y
Técnicas, Argentina
‡
Versión original: 12 de diciembre de 2002
Índice
Índice de figuras ii
1. Introducción 1
2. Ejemplos 2
4. Usando matrices 7
6. Un caso particular 9
8. Dados y monedas 13
8.1. Repetir hasta obtener m consecutivos . . . . . . . . . . . . . . . . . . 15
8.1.1. Análisis directo . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
8.1.2. Con cadenas de Markov . . . . . . . . . . . . . . . . . . . . . 16
8.2. Repetir hasta suma prefijada . . . . . . . . . . . . . . . . . . . . . . . 17
8.3. Sumar números entre 0 y 1 hasta llegar a 1 . . . . . . . . . . . . . . 18
8.4. El problema del cumpleaños . . . . . . . . . . . . . . . . . . . . . . . 19
8.4.1. Análisis Directo . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
8.4.2. Como cadena de Markov . . . . . . . . . . . . . . . . . . . . . 20
8.5. Movimiento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9. Cadenas regulares 23
10.Comportamiento Asintótico 27
Bibliografía 35
i
ii Índice de figuras
Índice de figuras
3.1. Digrafo asociado al paseo por la peatonal. . . . . . . . . . . . . . . . 5
3.2. Árbol de posibilidades. . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.3. Árbol de posibilidades, con probabilidades en los arcos. . . . . . . 6
5.1. Un digrafo no conexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
5.2. Conjunto ergódico y estados transientes . . . . . . . . . . . . . . . . 8
7.1. Una cadena absorbente simple. . . . . . . . . . . . . . . . . . . . . . . 12
10.1.Una cadena cíclica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Cadenas de Markov 1
1. Introducción
Muchas veces nos encontramos con problemas como el del Certamen El Número
de Oro(1) para profesores del año 2002:
1.2. Problema. Hacer un programa (en Basic, Pascal, etc.) para simular tirar un
dado hasta que salga un uno m veces consecutivas, y repetir esta simulación n veces
para obtener una estimación del número de tiradas esperado. $
(1)
http://www.oma.org.ar/nacional/oro.htm
(2)
http://www.union-matematica.org.ar/
2 2. Ejemplos
2. Ejemplos
Empecemos con algunos ejemplos sencillos. El primero está tomado del libro de
Kemeny y Snell [KLS76, pág.29]:
b ` n
b 0 1/2 1/2
` 1/4 1/2 1/4
n 1/4 1/4 1/2
donde las filas indican el clima en el día, las columnas el clima en el día siguiente, y
las entradas son las probabilidades de cambio o transición. No es sorprendente que
la matriz se llame matriz de transición (o transiciones).
Observamos que en esta matriz no sólo los coeficientes son no-negativos, sino
que al sumarlos por filas obtenemos 1, indicando que alguna de las posibilidades,
en este caso b, ` o n, debe necesariamente suceder: una matriz con esta propiedad
—no-negatividad y suma 1 por filas— también se llama de probabilidad o estocástica.
En cambio, al sumar por columnas, a veces obtenemos menos de 1, a veces más, y
habrá casos donde dará 1.
El ejemplo del clima en la Tierra de Oz es un ejemplo típico de cadena de Markov:
1. tenemos ciertos estados, en este caso b, ` y n,
2. en cada momento estamos en uno de estos estados,
3. en el próximo momento (los «momentos» considerados son discretos) vol-
veremos a estar en ese u otro estado,
4. pasamos de un estado a otro con cierta probabilidad,
Cadenas de Markov 3
0 1 2 3 4 5 6
0 1 0 0 0 0 0 0
1 1/2 0 1/2 0 0 0 0
2 0 1/2 0 1/2 0 0 0
3 0 0 1/2 0 1/2 0 0
4 0 0 0 1/2 0 1/2 0
5 0 0 0 0 1/2 0 1/2
6 0 0 0 0 0 0 1
En este caso tenemos que pensar que las filas y columnas corresponden a los
estados 0, 1,. . . , 6. Sin embargo, tenemos la novedad de que al llegar al estado 0
(la esquina sur) o 6 (la esquina norte), el «juego» se termina, por lo que ponemos
un 1 en la entrada correspondiente indicando que ya nos quedamos para siempre
en esa posición.
La teoría de cadenas de Markov que veremos servirá para responder a preguntas
como: si empiezo justo en la mitad de la peatonal (la esquina 3), en promedio (si
hago el juego muchas veces) ¿cuántas cuadras caminaré hasta llegar a la esquina 0
o 6?, ¿cuántas veces pasaré por la esquina 1?
a) Ver que ahora no se forma una cadena de Markov con tres estados (b, n, `):
¿qué falla?
b) ¿Podrían considerarse más estados, de modo de que sí sea una cadena de
Markov? $
2.5. Problema. Consideramos dos estados, cara y ceca, y tiramos una moneda
repetidas veces saliendo cara o ceca con probabilidad 1/2 cada una.
a) Ver que se trata de una cadena de Markov definiendo estados apropiados, y
construir la matriz de transición correspondiente.
b) ¿Y si las probabilidades de que salga cara es 1/3 y de que salga ceca es
2/3? $
2.6. Problema (Modelo de urnas de Polya). ] Una urna contiene b bolas blancas
y r bolas rojas, y se saca una al azar. Se la reemplaza y se agregan c bolas del mismo
color que la elegida, y seguimos repitiendo el procedimiento (ahora hay b + r + c
bolas en la urna).
Si consideramos como estados a que salga una bola blanca o una roja, ¿se forma
una cadena de Markov?, ¿por qué?
Nota: Este ejemplo, tomado de [Fel57, pág.120], puede considerarse como un modelo
de dispersión de enfermedades contagiosas, donde cada ocurrencia de la enfermedad
aumenta la probabilidad de que vuelva a ocurrir. $
Figura
Figura 1: Digrafo
3.1: El digrafo asociado
asociado al paseo
al paseo peatonal.
por la peatonal.
A = {(0, 0),(1, 0), (1, 2), (2, 1), (2, 3), (3, 2),
(3, 4), (4, 3), (4, 5), (5, 4), (5, 6), (6, 6)},
que podemos representar gráficamente como en la figura 3.1, donde sobre cada
arco hemos puesto la probabilidad de transición correspondiente (observar que no
ponemos el arco si la probabilidad correspondiente es 0).
0 2 4 6
3
• Para llegar a 1 tengo que1!2llegar primero a 2 (con probabilidad 1/2) y
1!2
después llegar a 1 desde 2 (con probabilidad 1/2): en total llego con pro-
babilidad 1/4. 2 1!2 4 1!2
1!4 1!4
• Para llegar a 3 pude haber 1!4
pasado primero1!4por 2 con probabilidad 1/4 para
esos dos pasos (como
1 1!4 antes), o haber
3 1!2 pasado 5primero
1!4 por 4, también con
probabilidad1!81/4. Como pude1!4 usar cualquiera
1!8 de los dos caminos, sumo
1!8 1!4 1!8
las probabilidades, obteniendo 1/2.
0 1!8 2 3!8 4 3!8 6 1!8
Siguiendo con este procedimiento, en cada arco de la figura ponemos la
probabilidad
Figura de recorrerlo,
3.3: Árbol de como en la Figura
de posibilidades, 3 (con letras
con probabilidades en másarcos.
pequeñas y
hacia laFigura 3: Árbol
izquierda del arco),posibilidades,
de modo quecon probabilidades
la suma enlos
los arcos. de los
de las probabilidades
arcos en cada nivel debe dar 1.
•Para
Paracalcular
llegar a 1lastengo
probabilidades de llegar
que llegar primero
3 a 2a(con
un nodo en determinado
probabilidad nivel,
1/2) y después
sumamos las probabilidades de los
llegar a 1 desde 2 (con probabilidad
1!2 arcos que
1/2): en total llego con probabilidad3
llegan al nodo, que en la Figura
están1/4.
puestas con letras en negrita 1!2 algo mayores y hacia la derecha de cada
nodo. También la suma de las2 probabilidades
1!2 sobre los nodos en cada nivel debe
4 1!2
• Para llegar a 3 pude1!4haber pasado1!4 primero por 2 con probabilidad 1/4 para
dar 1.
esos dos pasos (como antes), 1!4 o haber pasado
1!4 primero por 4, también con
Ası́, para obtener la probabilidad de que empezando en 3 lleguemos a 4
probabilidad 1/4.1Como 1!4 pude usar3 1!2cualquiera5de1!4los dos caminos, sumo las
en tres pasos, miramos a las probabilidades1!8
1!8 obteniendo1!4
de los arcos que llegan al nodo 4
probabilidades, 1/2.
(ubicado en el tercer nivel)1!8 que son 1/8 1!4 y 1/4, las sumamos
1!8 y obtenemos 3/8.
0 1!8 2 3!8 4 3!8 6 1!8 ponemos la pro-
3.2Siguiendo
Problema:con esteelprocedimiento,
En Ejemplo 2.1 delenclima
cada arco
en de¿cuál
Oz, la figura
es la probabilidad de
babilidad deesrecorrerlo,
que si hoy como pasado
un dı́a bueno, en la figura 3.3 (con
mañana letraslomás
también sea?pequeñas y hacia la!
Figura
izquierda 3: Árbol
del arco), de posibilidades,
de modo que la suma decon
lasprobabilidades
probabilidades en de los arcos
arcos.en cada
nivel debe dar 1.
Para calcular las probabilidades de llegar a un nodo en determinado nivel,
Para calcular las probabilidades de llegar a un nodo en determinado nivel,
sumamos las probabilidades de los arcos que llegan al nodo, que en la figura 3.3
sumamos las probabilidades
están puestas de losalgo
con letras en negrita arcos que llegan
mayores al nodo,
y hacia que en
la derecha dela Figura
cada nodo.3
están puestas con letras en negrita algo mayores y hacia la derecha
También la suma de las probabilidades sobre los nodos en cada nivel debe dar 1. de cada
nodo. También la suma de las probabilidades sobre los nodos en cada nivel debe
dar Así,
1. para obtener la probabilidad de que empezando en 3 lleguemos a 4 en tres
Ası́,miramos
pasos, para obtener la probabilidad
a las probabilidades de arcos
de los que empezando
que llegan alen 3 lleguemos
nodo 4 (ubicadoaen4
en tres pasos,
el tercer miramos
nivel) que a las
son 1/8 probabilidades
y 1/4, las sumamosde los arcos que
y obtenemos 3/8.llegan al nodo 4
(ubicado en el tercer nivel) que son 1/8 y 1/4, las sumamos y obtenemos 3/8.
3.2 Problema:
3.2. Problema. En Enelelejemplo
Ejemplo
2.12.1
deldel clima
clima en en
Oz,Oz, ¿cuál
¿cuál es laesprobabilidad
la probabilidad de
de que
que si hoy es un dı́a bueno, pasado mañana también
si hoy es un día bueno, pasado mañana también lo sea? lo sea? !
$
Cadenas de Markov 7
4. Usando matrices
Podemos repensar la idea de que estando en un estado i lleguemos en dos pasos
al estado j: obviamente en el primer paso estaremos en algún estado intermedio
k (que puede ser i o j) y después pasar de k a j. En cada camino multiplicamos
(2)
las probabilidades, y después sumamos los caminos. Si indicamos con pi j a esta
probabilidad, tendremos
(2)
X
pi j = pik pk j .
k
De esta forma fabricamos una nueva matriz, P (2) , que reconocemos como el
producto matricial de P consigo misma,
P (2) = P × P.
ya que, por ejemplo por inducción, para hacer r pasos tendremos que hacer r − 1
pasos primero y luego otro más, i.e., P (r) = P (r−1) × P, y si suponemos que P (r−1) =
P r−1 , llegamos a la ecuación anterior.
Nos va a resultar conveniente poner P (0) = P 0 = I —la matriz identidad— y
P = P, con las correspondientes definiciones para p(0) y p(1) . Así, tendremos (por
(1)
definición), ¨
(0) 1 si i = j,
pi j = δi j =
0 si i 6= j.
4 5
Pág.
8 8 3 2 Cadenas
5. Clasificación deyMarkov
de estados cadenas
4 5
En fin, lo más común es que haya una mezcla, en las que algunos estados
forman un conjunto ergódico,
3 de modo2 que si llego a él no puedo salir —no hay
flechas que salgan— pero puedo seguir recorriendo indefinidamente todos los
estados
Figura 4:deUn
Figura 5.1: este conjunto
Undigrafo
digrafo“no
(2)
«no , como elLos
conexo”.
conexo». conjunto
Los nodos formado
nodos 1, por los una
1, 22 yy 3 forman estados 1 y 2 en
componente
la Figura
conexa, 5.
yy los
losnodos
nodos43yy54forman
formanotra.
otra.
1 2
En fin, lo más común es que haya una mezcla, en las que algunos estados
forman un conjunto ergódico, de modo que si llego a él no puedo salir —no hay
flechas que salgan— pero puedo seguir recorriendo indefinidamente todos los
estados de este conjunto(2) , como4 el conjunto3 formado por los estados 1 y 2 en
la Figura 5.
Figura 5.2:
Figura Losestados
5: Los estados11yy 22 forman
forman un
un conjunto
conjunto ergódico,
ergódico, 33 yy 44 son
son estados
estados
transientes.
transientes. 1 2
Cadenas
Cadenas
Los estados(ergódicas)
absorbentes: regulares:
donde
que no están enhay solo
ningúnenestados
las quetransientes
conjunto elergódico
total forma un conjunto
yseabsorbentes
llaman (losergó-
con-
transientes,
como dicojuntos ergódicos
los estados tienen
y existe3 ky ∈4 Nental un único
la Figura (k) estado).
que pij 5.> 0 para cualquier par de estados i, j . (3)
Cadenas
del clima en absorbentes:
Oz es una cadena donderegular,
hay solo estados
pues transientes
tomando y absorbentes (los
k = 2 tenemos
conjuntos ergódicos tienenun único estado).
Así, el ejemplo 2.2 de la peatonal 1/4es una cadena
3/8 3/8absorbente, pues los estados 0
yCadenas (ergódicas) regulares:
6 son absorbentes y los restantes
P = 3/16
2 son en las que el3/8
transientes.
7/16 total
Porotroforma
lado,un conjunto2.1
el ejemplo ergó-
del
clima dico
en Ozy es una cadena regular, (k) tomando k = 2 tenemos
pues
existe k ∈ N tal que p3/16 ij > 03/8 para 7/16
cualquier par de estados i, j . (3)
queAsı́,
tiene el sólo entradas
Ejemplo 2.2 depositivas.
la peatonal1/4 es una 3/8 cadena
3/8 absorbente, pues los estados
0 (2)
y 6 son absorbentes y losPrestantes2
= 3/16 son 7/16
transientes.
3/8 Por
, otro lado, el Ejemplo 2.1
Ası́, un estado absorbente forma un conjunto ergódico.
del
(3) clima en Oz es(k) una cadena regular,
3/16 pues 3/8 tomando
7/16 k = 2 tenemos
La condición pij > 0 para todo i, j implica que el conjunto de estados es ergódico.
que tiene sólo entradas positivas. 1/4 3/8 3/8
P 2 = 3/16 7/16 3/8
3/16 3/8 7/16
5.1. Problema. Clasificar las cadenas (absorbente, regular, o ninguna de las dos)
de los
que problemas
tiene 2.3 y 2.5.
sólo entradas positivas. $
(2)
(3) Ası́,ununestado
estado absorbente forma un conjunto ergódico.
Así, absorbente forma un conjunto ergódico.
(3)
(4) (k)(k)
Lacondición
La condiciónpi jpij> 0>para
0 para
todotodo i, j implica
i, j implica que el que el conjunto
conjunto de es
de estados estados es ergódico.
ergódico.
Cadenas de Markov 9
6. Un caso particular
Antes de pasar a estudiar los resultados teóricos sobre cadenas absorbentes, será
conveniente estudiar un caso particular, similar al problema 1.2, que nos ayudará a
entender los argumentos teóricos.
6.1. Problema. Si en un experimento la probabilidad de obtener un resultado
favorable es p, 0 < p < 1, ¿cuántos experimentos sucesivos habrá que hacer (en
promedio) hasta obtener un resultado favorable?(5) $
Para ejemplificar, si estamos tirando dados y el resultado favorable es que salga 1,
tendremos p = 1/6; en cambio, si estamos tirando monedas y el resultado favorable
es que salga cara, tendremos p = 1/2.
Como la solución al problema no es intuitiva (al menos para mí), es interesante
hacer un programa para simular en la computadora. Por ejemplo, usando el progra-
ma C.1 (pág. 33), tomando p = 0.16666 (el caso de los dados), m = 1 y haciendo
n = 1000 experimentos, hemos obtenido que el número de veces en promedio
es 5.917 (los resultados varían cada vez que se corre el programa), lo cual hace
sospechar que el resultado teórico debe ser 6 en este caso.
Para resolver el problema, usaremos dos técnicas que nos servirán para entender
los resultados teóricos de las secciones siguientes.
Variante I : Llamando q = 1 − p a la probabilidad de obtener un resultado desfavo-
rable y como suponemos que los experimentos son independientes, la probabilidad
de no haber obtenido un resultado favorable en n experimentos es
qn = q n ,
pn = p qn−1 = p q n−1 ,
y la esperanza es entonces
∞
X ∞
X
E= n pn = p n q n−1 .
n=1 n=1
y por lo tanto
1 1
E = p f 0 (q) = p = . ,
p2 p
Por ejemplo, en promedio esperamos tirar 6 veces un dado hasta que aparezca el
primer 1, y si tiramos monedas, esperamos tirar (en promedio) dos monedas hasta
que aparezca la primer cara.
Veamos otra forma de resolver el problema:
Variante II : Si E la cantidad de pasos que espero hacer hasta llegar a un caso
favorable, tengo probabilidad p de hacerlo en un solo paso, pero si fallo en ese
primer paso, habré «gastado» un paso y estaré como al principio, por lo que tardaré
1 + E pasos.
Entonces
E = p + (1 − p)(1 + E) = 1 + (1 − p) E,
y despejando E, queda E = 1/p como ya sabíamos. ,
Más adelante veremos otras variantes (problema 8.1) y cómo usar los resultados
de cadenas de Markov para su resolución.
absorbentes transientes
z }| { z }| {
absorbentes {
I 0
(7.2)
transientes { R Q
7.3. Teorema. En una cadena de Markov absorbente cuya matriz canónica tiene la
forma de la ecuación (7.2),
a) Q r → 0 (la matriz con todos 0’s) cuando r → ∞,
b) si I es la matriz identidad en R(n−m)×(n−m) , entonces I − Q es inversible y
∞
X
(I − Q)−1 = Qr .
r=0
La última parte del teorema anterior sigue las ideas de la demostración de que
∞
1 X
= x k,
1− x k=0
cuando x es un número real con |x| < 1, y no la hacemos, pero observamos desde
ya la relación con la variante I de la pág. 9.
Claro que si tenemos un estado transiente u ∈ T , en la forma canónica de la
matriz P tiene asociado un índice (digamos i), pero en la matriz Q tiene asociado
otro índice (i − m). En lo que sigue, para no complicar las notaciones supondremos
implícitamente que no tenemos esta ambigüedad y hacemos un corrimiento de
índices cuando apropiado.
Poniendo
N = (I − Q)−1 , (7.4)
a veces llamada matriz fundamental de la cadena absorbente, tenemos el siguiente:
Demostración: Pongamos
¨
1 si la cadena está en el estado u j en el paso s,
δ( j, s) =
0 en otro caso,
de interpretación. Tomemos por ejemplo la cadena absorbente de la Figura 6
donde hay dos estados. El estado 1 es absorbente, mientras que el estado 2 es
transiente pero la probabilidad de pasar al estado 1 en un paso es 1. La matriz
Q en este caso se reduce a Q = [0], de modo que N = (I − Q)−1 = [1]. Es
decir, seguro que empezando desde 2 en un paso llegamos al estado 1, ası́ que
esperamos llegar a 1 en un paso y permanecer 0 pasos en el estado 2. Esta
aparente contradicción resulta de haber considerado el término s = 0 en la
(0)
12 demostración del teorema, y como 7. = 1, elabsorbentes:
piiCadenas paso 0 siempre se cuenta
resultados en el
teóricos
teorema.
1
1 1 2
Figura7.1:
Figura 6: Una
Unacadena
cadena absorbente simple.
absorbente simple.
y para cualquier
Tomando sea Ei (x) el debidas,
las xprecauciones valor esperado deentonces
tenemos x si el proceso empieza
el siguiente en el
corolario
estado u .
que usaremos
i Entonces si e es
con frecuencia
ij la esperanza buscada,
en las aplicaciones:
7.6 Corolario.X∞ El número X ∞esperado de pasos ∞ hasta la absorción (sin ∞ contar el
(s) (s) (s)
X X
j = dado
pasoei 0), Ei δ( el
que = comienza
j, s)proceso Ei (δ( j, s))en
= el estado
(1 − pno-absorbente
ij ) 0 + p ij 1 =
u i es lai j suma
p ,
de las entradass=0 de la fila i-ésima
s=0 de N . s=0 s=0
dondeVeamos
la sumaunempieza desde s = antes
último resultado 0 puesdenopasar la posibilidad i = j.
a las aplicaciones.
eliminamos
(s)
Recordando que pi j es la entrada i j-ésima de Qs (después de un corrimiento
7.7 Teorema. Consideremos una cadena absorbente,Pcon ∞
matriz canónica en
de índices),
la forma de vemos que ei(7.2).
la ecuación j es laSea
entrada j-ésima de de
bij la i probabilidad Qs , empezando
s=0que que es N por
en el
el
teorema 7.3.
estado transiente ui se termine en el estado absorbente uj , y formemos la matriz ,
B ∈EnRel teoremacon
(n−m)×m
estos coeficientes.
no excluimos la condición i = j, lo cual trae algunos problemas de
Entonces Tomemos por ejemplo la cadena absorbente de la figura 7.1 donde
interpretación.
hay dos estados. El estado 1 es absorbente,B = N R, mientras que el estado 2 es transiente
dondela R
pero es como endelapasar
probabilidad ecuación (7.2)1 yenNunespaso
al estado la matriz
es 1. Lafundamental
matriz Q ende la
este
ecuación (7.4).
caso se reduce a Q = [0], de modo que N = (I − Q)−1
= [1]. Es decir, seguro que
empezando desde 2 en un paso llegamos al estado 1, así que esperamos llegar a 1
en un paso y permanecer 0 pasos en el estado 2. Esta aparente contradicción resulta
de haber considerado el término s = 0 en la demostración del teorema, y como
(0)
pii = 1, el paso 0 siempre se cuenta en el teorema.
Tomando las precauciones debidas, tenemos entonces el siguiente corolario que
usaremos con frecuencia en las aplicaciones:
7.6. Corolario. El número esperado de pasos hasta la absorción (sin contar el paso 0),
dado que el proceso comienza en el estado no-absorbente ui es la suma de las entradas
de la fila i-ésima de N .
Veamos un último resultado antes de pasar a las aplicaciones.
7.7. Teorema. Consideremos una cadena absorbente, con matriz canónica en la forma
de la ecuación (7.2). Sea bi j la probabilidad de que empezando en el estado transiente
ui se termine en el estado absorbente u j , y formemos la matriz B ∈ R(n−m)×m con estos
coeficientes.
Entonces
B = N R,
donde R es como en la ecuación (7.2) y N es la matriz fundamental de la ecuación (7.4).
Demostración: Buscamos una relación de recurrencia para los coeficientes bi j . Si
empezamos en el estado ui , en el próximo paso podemos ir al estado absorbente
u j con probabilidad pi j , o a otro estado absorbente uk , k 6= j, con probabilidad
pik , o ir a otro estado transiente u` con probabilidad pi` . La probabilidad de que
estando en estos estados, u j , uk o u` , terminemos en el estado absorbente u j es,
respectivamente, 1, 0 y b` j , de modo que
X
bi j = pi j + pi` b` j .
` : u` ∈T
Cadenas de Markov 13
B = R + QB o (I − Q) B = R,
Sin usar estos resultados, verificar directamente a partir de las definiciones que las
sumas de las filas de N R es siempre 1.(7) $
8.6. Problema.
a) Dos jugadores, A y B, juegan el siguiente juego: tiran una moneda hasta que
salgan dos caras seguidas, en cuyo caso A gana, o bien hasta que salga una
cara seguida de una cruz, en cuyo caso gana B. Probar que ambos tienen
iguales oportunidades de ganar.
b) Ahora deciden jugar el mismo juego, pero de la siguiente forma: A tira una
moneda hasta que salgan dos caras seguidas, y anota cuántas tiradas necesitó.
Luego, B tira una moneda hasta que salga una cara seguida de una cruz, y
anota cuántas tiradas necesitó. Comparan los dos números, y el que tiene el
número más bajo gana. Probar que en esta versión, B tiene ventaja sobre A.
c) Explicar la aparente contradicción entre la parte a) y la b).
d) Observar que si juegan la versión del juego en b), el jugador C tiene las
mismas posibilidades que B, y por lo tanto tiene ventaja sobre A.
e) Suponer en cambio que juegan la versión a). Si C y B juegan solos, probar
que ambos tienen las mismas oportunidades de ganar. En cambio si C y A
juegan solos, probar que C tiene muchas más oportunidades de ganar que A.
f ) Explicar la aparente contradicción entre los puntos e) y a).
g) Si A, B y C juegan los tres juntos la versión de a), probar que A y B cada uno
ganará un juego de cada 4 y C uno de cada 2. $
pk,k+1 = p si 0 ≤ k < m,
pk,0 = q para k = 0, 1, . . . , m − 1,
pm,m = 1,
pi, j = 0 en cualquier otro caso.
En el problema 8.2 donde continuamos hasta que la suma supere un valor prefi-
jado m, consideramos la suma s que inicialmente está en 0 y se va incrementando
a medida que se tiran los dados. Los estados son los valores que puede tomar s,
0, 1, . . . , m, donde en el estado m ponemos la condición s ≥ m.
Cadenas de Markov 15
E = p2 2 + pq (2 + E) + q (1 + E).
Despejando E, obtenemos
1 1
E= + . (8.7)
p p2
1 1 1
E = a0 + a1 + · · · + am−2 + am−1 = + + ··· + .
p p2 pm
donde las filas tienen seis p consecutivos (excepto en las últimas) que se van
corriendo hacia la derecha a medida que descendemos.
La matriz I − Q es
1 −p −p . . . −p 0 . . . 0
0 1 −p . . . −p −p . . . 0
.
. ,
.
0 ... 1 −p
0 ... 0 1
pero la matriz N o su primer fila, no tiene una forma explícita sencilla en general.(10)
Un caso particular sencillo es m = 7. En este caso toda la parte triangular
superior de Q tiene p’s, la primer fila de N = (I − Q)−1 es
y la esperanza es
1 + p (1 + p) + (1 + p)2 + · · · + (1 + p)5 =
(1 + p)6 − 1
=1+p = (1 + p)6 = (1 + 1/6)6 .
p
(9)
Una solución posible está en el apéndice A.2
(10)
Pero resolver el sistema numéricamente es sencillo por ser I − Q triangular.
18 8.3. Sumar números entre 0 y 1 hasta llegar a 1
El lector recordará que estamos frente a uno de los «límites notables»: cuando
n → ∞, i.e., en el caso continuo, la esperanza es e ≈ 2.718.
8.14. Problema. Con una tabla de números aleatorios, o con una computadora,
hacer experimentos numéricos para ver esta forma de aproximar e.(12) $
(11)
Algunas soluciones posibles se muestran en el apéndice A.3
(12)
Ver el programa C.3.
Cadenas de Markov 19
Recordemos que en este problema estamos suponiendo que todos los años tienen
365 días, y que es igualmente probable nacer en cualquier día del año. Podemos
pensar que tenemos un dado con 365 caras, y es razonable pensar que el problema
admite un análisis directo como los que hicimos en las secciones anteriores, sin
apelar a la potencia de la teoría de cadenas de Markov.
Nuestra primera preocupación para estudiar el problema es calcular la probabili-
dad de que haya n personas, todas con distinto día de cumpleaños.
Considerando casos favorables sobre casos posibles, si hay n − 1 personas, todas
con distinto día de cumpleaños, y entra la persona n-ésima, la probabilidad de que
ésta no tenga el mismo día de cumpleaños que alguna de las ya presentes es
365 − (n − 1)
.
365
Por lo tanto, la probabilidad de que entre n personas no haya dos con el mismo
cumpleaños es
Observar que por el principio del palomar, qn = 0 para n = 366, lo que se refleja
en la última forma (pero no mucho en otras).
Del mismo modo, la probabilidad de que recién al entrar la n-ésima haya dos
con el mismo cumpleaños es
n−1
pn = qn−1 ,
365
con p367 = 0 pero p366 > 0, siendo p1 = 0.
Por lo tanto la esperanza es
Haciendo los cálculos —tal vez con un buen software— se puede ver que
E ≈ 24.6166,
366 365
X X i (i + 1) · · · 365
pn = (366 − i) = 1,
n=1 i=1 365367−i
∗
365 − i
pi,i+1 = , para i = 0, 1, . . . , 364,
365
∗ ∗
i
pi,final = 1 − pi,i+1 = para i = 0, 1, . . . , 365,
365
∗
pfinal,final = 1,
pi,∗ j = 0 en otro caso.
La matriz Q es de la forma
0 1 0 0 ... 0 0
0
1 0 0 364/365 0 ... 0 0
2 0 0 0 363/365 ... 0 0
,
.. ..
.
.
364 0 ... 0 1/365
365 0 ... 0 0
Cadenas de Markov 21
y la matriz I − Q es de la forma
1 −1 0 0 ... 0 0
0
1 −364/365 0 ... 0 0
0 0 1 −363/365 ... 0 0
.
..
.
0 0 ... 1 −1/365
0 0 ... 0 1
1 0 0 ... 0 0 1
a0
−1 1 0 ... 0 0
a1 0
0
−364/365 1 ... 0 a2 0
0
0 0 −363/365 ... 0 0 a3
= 0 ,
.. .. ..
. . .
0 0 ... 1 0 a364 0
0 0 ... −1/365 1 a365 0
de modo que a0 = 1 y
366 − i
ai = ai−1 para i = 1, · · · , 365,
365
o, en forma explícita,
(366 − 1) · · · (366 − i)
ai = para i = 1, 2, · · · , 365.
365i
Por lo tanto, la esperanza es
365 365
X (366 − 1) · · · (366 − i) X k(k + 1) · · · 365
1+ =1+ =
i=1 365i k=1 365366−k
(8.18)
365
365! X 365k
= .
365365 k=0
k!
Pn
nuestra posición después de k pasos será k=1 ak , donde ak = ±1 dependiendo de
si fuimos hacia la derecha o hacia la izquierda, de modo que vemos la relación con
el problema de la suma que vimos en la sección 8.2. Sin embargo ahora tenemos
dos estados absorbentes.
Para fijar ideas, pensemos que sólo hacemos n movimientos (pasos) y tenemos
«barreras absorbentes» en −n − 1 y en n + 1. Entonces podemos poner
1 0 0 0 0 ... 0 0 −n−1
q
0 p 0 0 ... 0 0
−n
0 q 0 p 0 ... 0 0
−n+1
P = 0 0 q 0 p ... 0 0
−n+2
.. ..
. .
0 ... q 0 p n
0 ... 0 0 1 n+1
(n)
donde pi j son las entradas de la matriz P n .
En el caso sencillo p = q = 1/2, la matriz es simétrica en el sentido que
pi, j = p−i,− j , y esta propiedad se conserva para las potencias,
(n) (n)
En particular, p0 j = p0,− j , de modo que:
E = 0.
Este resultado también puede verse de forma intuitiva: hay tanta probabili-
dad de hacer un camino (x 0 = 0, x 1 , x 2 , . . . , x n ) como de hacer el camino (x 0 =
0, −x 1 , . . . , −x n ), y el promedio de estos caminos es 0.
En el caso p = 1/2, la matriz I − Q es
1 −1/2 0 0 ... 0 0
−n
−n+1
−1/2 1 −1/2 0 ... 0 0
−n+2 0 −1/2 1 −1/2 ... 0 0
, (8.20)
.. ..
.
.
n−1 0 ... −1/2 1 −1/2
n 0 ... 0 −1/2 1
donde b = 1/(n + 1) (por la simetría, la última fila es b (1, 2, 3, . . . )), y la fila del
medio (i = 0) de N es
(1, 2, 3, . . . , n, n + 1, n, . . . , 3, 2, 1).
2 (1 + 2 + · · · + n) + n + 1 = n(n + 1) + n + 1 = (n + 1)2
−u00 = f ,
9. Cadenas regulares
Pasemos ahora a ver algunos resultados de otras cadenas «simples» como son
las cadenas ergódicas regulares. Recordemos que estas cadenas están caracterizadas
porque existe k ∈ N tal que P k = P (k) tiene todas sus entradas positivas.
24 9. Cadenas regulares
d) lı́ms→∞ P s = W ,
e) W P = PW = W .
Observemos que siempre el vector v = (1, 1, . . . , 1) es un autovector para cual-
quier matriz de probabilidad, pues si x = P v,
n
X
xi = pi j 1 = 1,
j=1
Así, vemos que en el caso del clima de Oz, «a la larga» habrá 1 de cada 5 días de
tiempo bueno, 2 de cada 5 serán lluviosos y en 2 de cada 5 nevará.
El teorema 9.1 nos dice que en las cadenas regulares siempre tendremos com-
portamientos similares. El proceso después de un número grande de iteraciones se
asemeja a un «dado» con n caras, en el que cada estado (cara del «dado») tiene
probabilidad w i de aparecer. De «yapa», el teorema nos da una forma de calcular
el vector w sin necesidad de hacer iteraciones (aunque la convergencia es bastante
rápida en todo caso).
9.2. Problema. En el pueblo hay dos supermercados, Mejor Valor y LucSil, cuyos
clientes son bastante leales, pero cada semana 10 % de los clientes de Mejor Valor
cambian por LucSil, y 20 % de los clientes de LucSil cambian por Mejor Valor. Una
compañía de marketing elige al azar un residente local y le pregunta (al mismo
residente) cada semana en que super compró.
a) Ver que se trata de una cadena de Markov y encontrar la matriz de transición.
b) Ver que la cadena es ergódica regular y encontrar el vector w mencionado en
el teorema 9.1.
c) Si en el pueblo están sólo estos dos supermercados, de acá a unos años
¿qué cantidad de clientes tendrá aproximadamente cada supermercado (en
términos de porcentaje de la población)? $
9.3. Problema. Consideremos la siguiente variante del paseo por la peatonal (ejem-
plo 2.2) pero ahora con 4 cuadras(14) donde usamos las siguientes reglas:
regla 1: Tiro una moneda. Si sale cara me quedo en la esquina por 2 minutos y
vuelvo a usar la regla 1, si sale ceca voy a la regla 2.
regla 2: Si estoy en la esquina norte camino una cuadra hacia el sur, si estoy en
la esquina sur camino una cuadra hacia el norte, en otro caso tiro de nuevo
la moneda y voy una cuadra hacia el sur si es cara o una hacia el norte si es
ceca. Luego vuelvo a la regla 1.
a) Ver que se forma una cadena de Markov y encontrar la matriz de transición P.
b) Encontrar k ∈ N tal que P k tenga todas sus entradas positivas (y que por lo
tanto se trata de una cadena ergódica regular).
(14)
Para hacer más fáciles las cuentas nos vamos a otro pueblo.
26 9. Cadenas regulares
c) Pensar cuál podría ser un valor «razonable» para el vector w (sin calcularlo).
d) Encontrar el vector w del teorema 9.1. ¿Concuerda con lo pensado en el
inciso anterior? $
Otro resultado de interés para cadenas regulares es el siguiente:
9.4. Teorema. En una cadena regular, con las notaciones del teorema 9.1, el número
de pasos esperado para retornar al estado ui (habiendo empezado en ui ) es
ei = 1/w i .
(15)
¡y son personas pacientes!
Cadenas de Markov 27
para alguna constante apropiada ", 0 < " < 1. Después de s pasos, siempre supo-
niendo que las entradas de P son positivas, llegamos a
de donde se deduce el resultado para este caso especial. Puede suceder que algunas
de las entradas de P sean nulas, y allí es donde se usa la hipótesis de regularidad de
la cadena.(16)
Demostración del teorema 9.1: Tomando x = ei , el vector i-ésimo de la base canónica
de Rn , en el lema, P s ei converge a un vector de la forma αi (1, 1, . . . , 1), y por lo
tanto P s converge a una matriz cuya i-ésima columna tiene siempre el coeficiente
αi : la entrada w i , que será positiva.
Es claro que como P s → W , entonces
W P = lı́m P s P = lı́m P s P = W,
s→∞ s→∞
w 0 = w 0 P = (w 0 )P = (w 0 P)P = w 0 (P 2 ) = (w 0 P)(P 2 ) = w 0 P 3 = · · · ,
3 2
Figura10.1:
Figura 7: Una
Unacadena
cadenacı́clica.
cíclica.
lo que N R ∈ R (m−n)×m 0 1 0
. Llamando n a las entradas de N y r a las entradas
ij ij
de R, debemos tomar un estado transiente ui y evaluar la suma
por lo que
!
0 1 0s = n r , 1 0 0 (A.1)
ik kj
P 2 = 0 0 1 j,ky P 3 = 0 1 0 ,
1 0 0 0 0 1
donde la suma es sobre todos los ı́ndices k correspondientes a estados transientes
yy entonces 4
= P y jsecorrespondientes
todos losPı́ndices repite cíclicamente cada 3 iteraciones.
a estados absorbentes.
Puede demostrarse que esencialmente este es el único comportamiento posible.
Como la matriz P original es de probabilidad, sabemos que para todo ı́ndice
Para hacer este estudio primero se piensa en una cadena auxiliar, donde los conjuntos
!, debe ser
ergódicos se «colapsan» a estados absorbentes,
n quedando una cadena absorbente, y
!
luego se hace el estudio, ya como cadena ergódica,
p!h = 1, de cada uno de los conjuntos
ergódicos originales. Para un estudio h=1más detallado ver, por ejemplo, el libro de
Kemeny y Snell [KLS76].
de modo que podemos reagrupar los términos en la ecuación (A.1) para obtener
! ! ! " ! #
Apéndice A. s =Algunas
nik kj = nik 1 −
rsoluciones pk! ,
k j k !
de modo que podemos reagrupar los términos en la ecuación (A.1) para obtener
X X X X
s= nik rk j = nik 1 − pk` ,
k j k `
donde ahora los índices ` corresponden a estados transientes, es decir pk` = qk` —la
entrada k` de Q— por lo que
X X X X
s= nik 1 − qk` = nik − nik qk` . (A.2)
k ` k k,`
es decir, X X
nik qk` = −δi` + nik δk` = −δi` + ni` .
k k
1
ai = para i = 0, 1, . . . , m − 1,
p m−i
entonces
(a0 , a1 , . . . , am−2 , am−1 ) · (I − Q) = (1, 0, . . . , 0).
30 A.3. Problema 8.12
1 q (1/p)m−1 − 1
= − = 1.
p m−1 p 1/p − 1
y
j
(−p, −p, . . . , −p, 1, 0, . . . , 0),
de modo que la entrada es 0 si i > j, 1 si i = j, y
j−1
X
−p + p (1 + p)k−i−1 (−p) + p (1 + p) j−i−1 =
k=i+1
j−i−2
X
= −p − p2 (1 + p)k + p (1 + p) j−i−1 =
k=0
(1 + p) j−i−1 − 1
= −p − p2 + p (1 + p) j−i−1 =
(1 + p) − 1
= −p − p (1 + p) j−i−1 − 1 + p (1 + p) j−i−1 = 0,
Cadenas de Markov 31
a0 = 1, y ak = p sk−1 para k = 1, . . . , n − 1,
Pk
donde sk = j=0 a j . En realidad es más fácil determinar primero sk pues s0 = 1 y
Observemos que
ϕ(0, x) = 1 (B.1)
y
Z ∞ Z ∞
n −t
∞
ϕ(n, x) = e x
dt = e x
−t n e−t x +n t n−1 e−t d t =
t e
x x (B.2)
= x + n ϕ(n − 1, x).
n
Así, ϕ(n, x) puede considerarse como una notación para el último término: lo
importante es la relación de recurrencia (B.2) junto con la condición inicial (B.1).
Para x, y ∈ R, usando (B.3) y (B.2),
n n n n n−1 k
X xk X xk X xk X xk X x
( y − k) =y − k =y −x =
k=0
k! k=0
k! k=1 k! k=0
k! k=0
k!
ϕ(n, x) ϕ(n − 1, x)
=y −x =
n! (n − 1)! (B.4)
ϕ(n, x) 1 ϕ(n, x) − x n
=y −x =
n! (n − 1)! n
y−x x n+1
= ϕ(n, x) + .
n! n!
En el caso particular x = y = n queda
n n−1
X nk X nk nn+1
(n − k) = (n − k) = ,
k=0
k! k=0 k! n!
ϕ(2, 2) 5
E= = = 2.5,
22 2
mientras que la esperanza de tirar dados hasta que alguno se repita es
ϕ(6, 6) 1223
E= = ≈ 3.77469.
66 324
veces := 0;
for i := 1 to n do begin
contador := 0;
repeat
veces := veces + 1;
if (aleatorio < p) then contador := contador + 1
else contador := 0
until (contador = m)
end;
C.2. (Programa para el problema 8.2 de sumar hasta una cifra dada). Acá
suponemos que sacamos números enteros entre 1 y k (k = 6 para dados).
m, entero: el objetivo al cual debe llegar la suma.
suma, real: la suma de los números obtenidos. La tomamos como real pues puede
ser muy grande.
veces := 0;
for i := 1 to n do begin
suma := 0;
repeat veces := veces + 1; suma := suma + aleatorio(k)
until (suma >= m)
end;
C.3. (Programa para el problema 8.3 de sumar hasta 1). Es una variante del
anterior, donde ahora m = 1, y los números aleatorios están entre 0 y 1:
veces := 0;
for i := 1 to n do begin
suma := 0;
repeat veces := veces + 1; suma := suma + aleatorio
until (suma >= 1)
end;
veces := 0;
for i := 1 to n do begin
for j := 1 to m do a[j] := false;
seguir := true;
repeat
veces := veces + 1;
j := aleatorio(m);
if (a[j]) then seguir := false else a[j] := true
until (not seguir)
end;
Cadenas de Markov 35
C.5. (Programa para el problema 8.5 del paseo). En este caso ponemos:
inic, entero: la posición (esquina) inicial.
pos, entero: la posición (esquina) en la que estamos.
veces := 0;
for i := 1 to n do begin
pos := inic;
repeat
veces := veces + 1;
if (aleatorio > .5) then pos := pos - 1
else pos := pos + 1
until ((pos = 0) or (pos = m))
end;
Bibliografía
[Fel57] W. FELLER: An Introduction to Probability Theory and its Applications, vol.
1, 3.a ed. J. Wiley & Sons, 1957. (págs. 1 y 4)