Procesos Estocásticos
Procesos Estocásticos
Procesos Estocásticos
1. Procesos Estocásticos
• Cada una de las variables aleatorias del proceso tiene su propia función de
distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no.
Los siguientes son ejemplos dentro del amplio grupo de las series temporales :
• Señales de telecomunicación
• Señales biomédicas (electrocardiograma, encefalograma, etc.)
• Señales sísmicas
• El número de manchas solares año tras año
• El índice de la bolsa segundo a segundo
• La evolución de la población de un municipio año tras año
• El tiempo de espera en cola de cada uno de los usuarios que van llegando a
una ventanilla
• El clima es un gigantesco cúmulo de procesos estocásticos
interrelacionados (velocidad del viento, humedad del aire, etc) que
evolucionan en el espacio y en el tiempo.
El índice de la bolsa es un ejemplo de proceso estocástico de tipo no estacionario
(por eso no se puede predecir).
1.3 Cadenas de Markov (2):
• Una cadena de Markov es una secuencia X1, X2, X3,... de variables (eventos)
aleatorias.
Considérese una fuente de Markov de segundo orden con un alfabeto binario M=(0,1).
Supóngase que las probabilidades condicionales son las indicadas a continuación.
Haga una representación del diagrama de estado de esta fuente:
Solución:
Solución:
Combinación X Combinación X
CCCC 0 ECCC 1
CCCE 1 ECCE 2
CCEC 1 ECEC 2
CCEE 2 ECEE 3
CECC 1 EECC 2
CECE 2 EECE 3
CEEC 2 EEEC 3
CEEE 3 EEEE 4
• El evento en que X=2 (dos bits con error), esta formado por 6 resultados:
• Entonces tomemos cualquiera de los 6 eventos ( grupos de 4 bits con dos bits
errados): EECC, su probabilidad es:
Una fuente de información dispone de cuatro mensajes diferentes que puede generar
(entregar) durante un determinado tiempo. Estos mensajes pueden sufrir errores que
requieren ser reparados. Supóngase que cada mensaje que sale tiene,
independientemente de los otros, una probabilidad 0.1 de sufrir un error, de tal forma que
el número de mensajes a ser reparados fuera del tiempo de generación, sigue una
distribución binomial. La fuente sólo puede hacer las reparaciones durante el tiempo de no
generación , las cuales requieren de todo un tiempo igual a la de generación , por mensaje
errado. Además la demanda (solicitud) de mensajes es siempre suficiente para que
puedan entregarse los mensajes disponibles durante el tiempo de generación establecido.
Determinar la matriz de probabilidades de transición de la cadena de Markov. Los tiempos
de generación y reparación son iguales y sucesivos.
Solución:
p i j P X n 1 j / X n i , i, j 1, 2, 3, 4
• Sea, Yn la variable aleatoria que indica el número de mensajes con error durante el
n-ésimo periodo de generación . Entonces:
Yn B i; 0,1
:
• Donde i representa el número de mensajes disponibles , durante al comienzo
del tiempo de Generación (entrega o envío). En esta forma, para las tres primeras filas
de la matriz, tenemos:
pi j P Yn i 1 j , i 1, 2, 3; j 1, , i 1
p4 j P Yn 5 j , j 1, 2, 3 y p4 4 PYn 1
• Por lo tanto la matriz de transferencia de la cadena de Markov, es:
0.1000 0.9000 0 0
0.0100 0.1800 0.8100 0
P
0.0010 0.0270 0.2430 0.7290
0.0001 0.0036 0.0486 0.9477
Ejercicio
Considérese una cadena de Markov con el espacio de los estados S=(0,1.2, 3,4,5,6) y con
una matriz de probabilidades de transición, indicada a continuación. Determinar el
diagrama de estados correspondiente.
Solución:
1.5 Definición de Información (3) , (5)
Solución:
Ejercicio
I(E) = log2 (1/P(E)) = log2 (1/ 1/ 10300.000)) = log2 ( 10300.000) = 300.000 log2 10 = 104 bits
• Es aquella fuente donde sus símbolos emitidos : S (S1, S2, ….. ) son
estadísticamente independientes:
1
H ( s) P( si ) I ( si ) P( si ) log 2 bits
s s P( si )
Determinar la cantidad de entropía H(s), dada por la fuente S (S1, S2, S3 ) con P(s1) =
1/2 y P(s2) = P(s3) = 1/4.
Solución:
Solución:
1 1
H ( w) w log 2 (1 w) log 2
w 1 w
Sí w 0 H ( w) 0 : entonces la fuente no suministra ninguna información
(solo existe la probabilidad absoluta que salga un 1)
P ( si / s j1 , s j2 , , s jn )
• La información suministrada si : s i se presenta cuando estamos en el
estado ( s i / s j , s j , , s jn ) es:
1 2
1
I ( si / s j1 , s j2 , , s jn ) log 2
P( si / s j1 , s j2 , , s jn )
1
H ( s ) P( s j1 , s j2 , , s jn , si ) log 2
m 1 P( si / s j1 , s j2 , , s jn )
Ejercicio
Determinar la cantidad media de información (entropía) de la fuente de Markov,
cuyo diagrama de estados se indica en la figura No. 2.4.
Solución:
Teníamos: P(0/00) = P(1/11) = 0.8; P(1/00) = P(0/11) = 0.2
P(0/01) = P(0/10) = P(1/01) = P(1/10) = 0.5
1
Entonces: H ( s ) P( s
s
j , s k , s i ) log 2
P( si / s j , s k )
1 1
P (000) log 2 P (001) log 2
P (0 / 00) P (1 / 00)
1 1
P (010) log 2 P (011) log 2
P (0 / 01) P (1 / 01)
1 1
P (100) log 2 P (101) log 2
P (0 / 10) P (1 / 10)
1 1
P (110 ) log 2 P (111 ) log 2
P (0 / 11) P (1 / 11)
Reemplazando valores:
1 1
H ( s ) 0.8 log 2 0.2 log 2
0.8 0.2
1 1
0.5 log 2 0.5 log 2
0.5 0. 5
1 1
0.5 log 2 0.5 log 2
0.5 0. 5
1 1
0.2 log 2 0.8 log 2
0.2 0.8
Factorizando:
1 1 1
H ( s ) 2 0.8 log 2 2 0.2 log 2 4 0.5 log 2
0.8 0.2 0. 5
Aplicando: log10 x
log 2 x 3.32 log 10 x
log10 2
Tenemos:
H ( s ) 0.514 0.928 1.999 3.44 bits
1.10 Canales de información (3), (6)
•
Un conjunto de símbolos de salida B b j , j 1, 2, , s
•
Un conjunto de probabilidades condicionales P b j / a i
P b j / ai es la probabilidad de recibir a la salida el símbolo b j cuando
se envía el símbolo de entrada a
i
a1 b1
a b
A Pb j / ai 2 B
2
ar bs
• La descripción del canal se hace de forma más conveniente disponiendo
las probabilidades condicionales, como se indica a continuación, teniendo
en cuenta que: P (b j / ai ) Pi j
• Cada fila de la matriz corresponde a una entrada del canal y cada columna
a una salida.
P
0 0
P
P
1
1
P
• Tenemos que: P 1 P
p p
P
p p
P( B) P( B A) P( B A ) P( B / A) P ( A) P( B / A ) P( A )
• En la siguiente figura se hace una representación de un evento en dos
subconjuntos mutuamente excluyentes:
Ejercicio
Supongamos:
B: el evento donde el envío falle
A: el evento donde el envío esta expuesto a alto grado de congestión
A : el evento donde el envío no esta expuesto a alto grado de congestión
Entonces:
P ( B ) P ( B / A) P ( A) P ( B / A ) P ( A )
P( A B) P( A / B ) P ( B ) P ( B A) P( B / A) P( A)
P ( B / A) P ( A)
P( A / B)
P( B)
Solución:
P( A / B)
Se desea conocer:
P( B / A) P ( A) (0.10)( 0.20)
P( A / B) 0.0833 (8.33%)
Entonces: P( B) 0.024
Preguntas y ejercicios
10. ¿Qué se entiende por un canal binario simétrico (BSC: Binary Symmetric Channel)?.
¿Cuál es de gran importancia teórica que este canal tiene?.
14. ¿Cuál es la información que esencialmente nos representa la aplicación del teorema
de Bayes?
16. Una fuente de información dispone de cuatro mensajes diferentes que puede
generar (entregar) durante un determinado tiempo. Estos mensajes pueden sufrir
errores que requieren ser reparados. Supóngase que cada mensaje que sale tiene,
independientemente de los otros, una probabilidad 0.08 de sufrir un error, de tal
forma que el número de mensajes a ser reparados fuera del tiempo de generación,
sigue una distribución binomial. La fuente sólo puede hacer las reparaciones durante
el tiempo de no generación , las cuales requieren de todo un tiempo igual a la de
generación , por mensaje errado. Además la demanda (solicitud) de mensajes es
siempre suficiente para que puedan entregarse los mensajes disponibles durante el
tiempo de generación establecido. Determinar la matriz de probabilidades de
transición de la cadena de Markov. Los tiempos de generación y reparación son
iguales y sucesivos.
Referencia Bibliográfica:
(1) http://es.wikipedia.org/wiki/Proceso_estocástico
(2) http://es.wikipedia.org/wiki/Cadena_de_Markov
(5) Kijima, Masaaki, “Markov Processes for Stochastic Modeling “ (1st edición).
Cambridge: Chapman & Hall. ISBN 0 412 60660 7.
(6) Fink, A. Gernot, “Markov Models for Pattern Recognition , fromTheory to Apllications
“, Springer, 2011, ISBN 978-3-540-71770-6
(9) Chirikjian, Greory,S., “ Stochastic Models, Information Theory, and Lie Grups” ,
Birkhauser, ISBN 978-0-8176-4802-2