Probabilidad de Transición - Cadena de Markov

Descargar como doc, pdf o txt
Descargar como doc, pdf o txt
Está en la página 1de 3

Nuccelli Nadia Alejandra Leg.

17.514
Comisin E- Grupo 7

Probabilidad de transicin aplicada al pronstico del tiempo: cadenas de Markov


Algunas veces se est interesado en cmo cambia una variable aleatoria con el tiempo. El estudio
de una variable aleatoria con el tiempo incluye procesos estocsticos.
Un proceso o sucesin de eventos que se desarrolla en el tiempo en el cual el resultado en
cualquier etapa contiene algn elemento que depende del azar se denomina proceso aleatorio o
proceso estocstico. Por ejemplo, la sucesin podra ser las condiciones del tiempo en un
determinado lugar en una serie de das consecutivos: el tiempo cambia da a da de una manera
que en apariencia es algo aleatoria. El meteorlogo seguramente consulta las imgenes satelitales;
pero tambin sabe que el clima en un da del ao corresponde de alguna manera a un fenmeno
aleatorio, es as como hoy puede ser soleado, ser lluvioso o fresco sin lluvia, y que el clima estara
en una y solo una de estas tres posibilidades y que la ocurrencia de una de ellas excluye a las
dems. Tambin es fcil ver que la probabilidad de que en un da especfico llueva, o sea soleado o
fresco sin lluvia, est muy relacionada con lo ocurrido al clima el da anterior.
En la mayora de los procesos estocsticos, cada resultado depende de lo que sucedi en etapas
anteriores del proceso. Por ejemplo, el tiempo en un da determinado no es aleatorio por completo,
sino que es afectado en cierto grado por el tiempo de das previos.
Los procesos estocsticos se pueden clasificar atendiendo a dos aspectos: si el espacio de
estados posibles de la variable aleatoria contiene valores discretos o continuos y de si los valores
del tiempo son discretos o continuos.
El caso ms simple de un proceso estocstico en que los resultados dependen de otros, ocurre
cuando el resultado en cada etapa slo depende del resultado de la etapa anterior y no de
cualquiera de los resultados previos. Tal proceso se denomina proceso de Markov o cadena de
Markov (una cadena de eventos, cada evento ligado al precedente) y reciben su nombre del
matemtico ruso Andrei Andreevitch Markov (1856-1922).
La cadena de Markov se ha aplicado a reas como educacin, comercializacin, servicios de
salud, finanzas, contabilidad y produccin. Es un tipo especial de proceso discreto en el tiempo, es
decir, es un proceso estocstico en el que los valores del tiempo son discretos y los estados
posibles de la variable aleatoria contiene valores discretos.
Estas cadenas tienen memoria, recuerdan el ltimo evento y eso condiciona las posibilidades de
los eventos futuros, es por ello que con las cadenas de Markov podremos hacer predicciones de
comportamientos futuros como las que se observaron en las situaciones anteriores.
As, si llamamos estados a cada una de estas posibilidades que se pueden presentar en un
experimento o situacin especifica, entonces podemos visualizar en las Cadenas de Markov una
herramienta que nos permitira conocer a corto y largo plazo los estados en que se encontraran en
periodos o tiempos futuros.
Definicin
Una cadena de Markov es una sucesin de ensayos similares u observaciones en la cual
cada ensayo tiene el mismo nmero finito de resultados posibles y en donde la probabilidad
de cada resultado para un ensayo dado depende slo del resultado del ensayo
inmediatamente precedente y no de cualquier resultado previo.
Propiedad de Markov: Dada una secuencia de variables aleatorias {Xn, n: 0,1, 2...}, tales que el
valor de Xn es el estado del proceso en el tiempo n, que cumplen la probabilidad de alcanzar
cualquier estado j de la variable que depende exclusivamente del estado i alcanzado en el instante
de tiempo anterior, entonces:
P(X n+1 = j / X n = i, X n-1= i1,...X0=in) = P( X n+1 = j / X n = i)
Esta identidad es la denominada propiedad de Markov.

Nuccelli Nadia Alejandra Leg.


17.514
Comisin E- Grupo 7

Si el sistema se mueve del estado i durante un perodo al estado j durante el siguiente perodo, se
dice que ocurri una transicin de i a j.
Se define para cada par de estados (i, j) que se alcanzan en dos pasos consecutivos de n y n+1
una probabilidad condicional denominada probabilidad de transicin pij.
P (Xn+1 = j / Xn = i) = pij

(suposicin estacionaria)

Supongamos que las probabilidades de transicin de un paso son estacionarias, es decir, que no
cambian con el tiempo. Las probabilidades de transicin del estado X i al estado Xj estructuradas en
forma matricial da lugar a lo que se denomina matriz de transicin:

Dicha matriz relaciona los estados de la variable en dos pasos consecutivos a travs de sus
probabilidades de transicin.
Una matriz de transicin para una cadena de Markov de n estados es una matriz de n x n con
todos los registros no negativos y con la propiedad adicional de que la suma de los registros de
cada fila es 1.
Definicin:
Consideremos un proceso de Markov en que el sistema posee n estados posibles, dados
por los nmeros 1, 2, 3, , n. Denotemos pij a la probabilidad de que el sistema pase al
estado j despus de cualquier ensayo en donde su estado era i. Los nmeros pij se
denominan probabilidades de transicin y la matriz nxn P = (pij ) se conoce como matriz de
transicin del sistema.
Observaciones:
Las probabilidades pij deben satisfacer las condiciones:
1)
La suma pi1 + pi2 + + pin = 1 . Esta suma representa la probabilidad de que el sistema
pase a uno de los estados 1, 2, ., n dado que empieza en el estado i. Ya que el sistema ha de
estar en uno de estos n estados, la suma de probabilidades debe ser igual a 1. Esto significa
que los elementos en cualquier rengln de la matriz de transicin deben sumar 1.
2)
Cada elemento pij 0.
Ejemplos sencillos:
EJEMPLO 1: En un pueblo, al 90% de los das soleados le siguen das soleados, y al 80% de los
das nublados le siguen das nublados. Con esta informacin modelar el clima del pueblo como una
cadena de Markov.
Se trata de una cadena de Markov con dos estados {Soleado, Nublado} que para abreviar
representaremos por {S, N}, siendo la matriz de probabilidades de transicin:
S

0,9 0,1 S
P=
0,2 0,8 N

Nuccelli Nadia Alejandra Leg.


17.514
Comisin E- Grupo 7

EJEMPLO 2: El clima en la Tierra de Oz. Segn el cuento, en la Tierra de Oz nunca hay dos das
buenos en sucesin. Despus de un da con buen tiempo, le sigue (con igual probabilidad) un da
con lluvia o nieve. Del mismo modo, si nieva (o llueve), el da siguiente nevar (o llover) con
probabilidad 1/2, pero si cambia el tiempo slo la mitad de las veces ser un lindo da.
Para estudiar este problema primeramente encontramos las probabilidades de transicin, es
decir las probabilidades de que teniendo cierto clima un da, al da siguiente se tenga otro clima.
As, si indicamos con b a un da bueno, con l a uno lluvioso y n si nieva, tendremos:
pbb = 0
pbl =
pbn =
pll =
plb =
pln =
pnn =
pnl =
pnb =

de un buen da a un buen da,


de un buen da a un da lluvioso,
de un buen da a un da con nieve,
de un da lluvioso a un da lluvioso,
de un da lluvioso a un buen da,
de un da lluvioso a un da con nieve,
de un da con nieve a un buen da,
de un da con nieve a un da con lluvia,
de un da con nieve a un buen da.

Es conveniente ordenar estos datos en una matriz:

P=

donde las filas indican el clima en el da, las columnas el clima en el da siguiente, y las entradas
son las probabilidades de cambio o transicin. No es sorprendente que la matriz se llame matriz
de transicin (o transiciones).
Observamos que en esta matriz no slo los coeficientes son no-negativos, sino que al sumarlos por
filas obtenemos 1, indicando que alguna de las posibilidades, en este caso b, l o n, debe
necesariamente suceder.
En cambio, al sumar por columnas, a veces obtenemos menos de 1, a veces ms, y habr casos
donde dar 1.
El ejemplo del clima en la Tierra de Oz es un ejemplo tpico de cadena de Markov:
1)
2)
3)
4)
5)

Tenemos ciertos estados, en este caso b, l y n.


En cada momento estamos en uno de estos estados.
En el prximo momento volveremos a estar en ese u otro estado.
Pasamos de un estado a otro con cierta probabilidad que slo puede depender del
estado inmediatamente anterior.
Esta probabilidad no cambia con el transcurso del tiempo.

También podría gustarte