Onésimo - Probabilidad y Procesos Estocásticos I
Onésimo - Probabilidad y Procesos Estocásticos I
Onésimo - Probabilidad y Procesos Estocásticos I
Notas de clase
PROBABILIDAD Y PROCESOS
ESTOCASTICOS
Onesimo HernandezLerma
Parte I. Probabilidad
1. Espacios de medida
2. Espacios discretos y continuos
3. Probabilidad condicional e independencia
4. Variables aleatorias
5. Vectores aleatorios
6. Esperanza de vv.aa. discretas y continuas
7. La integral de Lebesgue
8. Esperanza e independencia
9. Convergencia de vv.aa.
10. Funciones caractersticas y el Teorema Lmite Central
11. Esperanza condicional
12. Martingalas
Parte II. Procesos estocasticos
13. Cadenas de Markov: conceptos basicos
de estados de una CM
14. Clasificacion
lmite de una CM
15. Distribucion
Bibliografa de Probabilidad
R.B. Ash (1970). Basic Probability Theory. Wiley.
R.B. Ash (1972). Real Analysis and Probability, Academic Press. Se (2000): Probability and Measure Theory.
gunda edicion
L. Breiman (1968). Probability, AddisonWesley. (Second edition,
SIAM, 1992.)
R.M. Dudley (2003). Real Analysis and Probability, Second Edition,
Cambridge University Press.
P.G. Hoel, S.C. Port, C.J. Stone (1972). Introduction to Stochastic Processes, Houghton Mifflin.
O. Kallenberg (2002). Foundations of Modern Probability, Second Edition, SpringerVerlag.
J. Jacod, P. Protter (2003).
Springer.
Espacios de medida
Probabilidad
ejemplo, supongase
que A consiste de un unico
conjunto B , es decir,
A = {B}. Entonces {A} = {B, B c , , }. 2
Un caso especial muy importante del Ejemplo 1.4(d) es el siguiente.
1.5 Definicion.
Sea = IR y sea A la familia de todos los intervalos abiertos (a, b) IR. Entonces la algebra {A} generada por A se llama la
algebra de Borel de IR y se denota por B(IR). Si B B(IR) se dice que
B es un conjunto de Borel de IR.
numerUn conjunto abierto en IR se puede expresar como una union
able de intervalos abiertos. Por lo tanto, por las Definiciones 1.5 y 1.1(c),
cualquier conjunto abierto en IR es un conjunto de Borel. Luego, por
1.1(b), tambien cualquier conjunto cerrado en IR es un conjunto de Borel.
Asimismo, los intervalos de la forma (a, b] o [a, b) son conjuntos de Borel.
Por ejemplo,
(a, b] = (, b] (a, ) B(IR).
1. Espacios de medida
n=1
An ) =
(An ).
(1)
n=1
Probabilidad
n
si #(A) = n < ,
+ en c.c. (caso contrario).
k
[
Ii ) := `(I1 ) + + `(Ik ).
(2)
i=1
1. Espacios de medida
Probabilidad
(e) Si A1 , . . . , An estan en F,
P(
n
[
i=1
Ai )
n
X
P(Ai ).
i=1
1.10 Definicion.
(Sucesiones monotonas
S
An . (En forma abreviada escribimos An A+ .)
n=1
T
An . (En forma abreviada: An A .)
n=1
[
X
P(
An )
P(An ).
n=1
n=1
1.13 Observacion:
1. Espacios de medida
Conjuntos
Enunciado probabilstico
AB
AB
Ac
A no ocurre
AB =
A B = A Bc
A ocurre y B no ocurre
AB
No ocurren A ni B
1.15 Observacion.
Si {xn } es una sucesion
reales, definimos
lim sup xn := inf sup xk ,
n1 kn
Probabilidad
[
X
(
An ) =
(An ).
n=1
n=1
1. Espacios de medida
(3)
10
Probabilidad
y N B
para algun
B F con (B) = 0}.
Ejercicios 1
T
S
(b) ( Ai )c = Aci
i
1. Espacios de medida
11
es un espacio medible.
12
Probabilidad
Ak
n=1 k=n
y
lim inf An :=
Ak .
n=1 k=n
An A o An A , respectivamente, en donde A+ := An y
A := An .
En los incisos siguientes suponga que (, F) es un espacio medible.
en F, entonces lim inf An y lim sup An estan en
(c) Si {An } es una sucesion
F. Ademas,
P(lim inf An ) lim inf P(An ) lim sup P(An ) P(lim sup An ). ()
(Sugerencia: para demostrar la primera desigualdad en (*) primero note
1. Espacios de medida
13
Demuestre que es una medida sobre F y que (A) = supn1 n (A) para
todo A F.
1.12 Demuestre que para cualquiera n eventos A1 , . . . , An , con n 2,
P(A1 . . . An ) P(A1 ) + + P(An ) n + 1.
14
Probabilidad
T
An ) = 1.
para todo n, entonces P(
n=1
1.15 Sea C [0,1] el conjunto de Cantor que se define como sigue. Tomese el intervalo [0,1] y elimine el intervalo abierto que consiste del tercio
medio (1/3, 2/3). De cada una de las dos partes restantes [0,1/3] y [2/3,1]
se elimina el tercio medio abierto, o sea, (1/9,2/9) y (7/9,8/9). De cada
una de las cuatro partes restantes se eliminan los tercios medios abiertos
(1/27,2/27), (7/27,8/27), (19/27,20/27), y (25/27,26/27). Procediendo de
manera inductiva, de los subintervalos que quedan en la nesima etapa se
eliminan los 2n1 tercios medios abiertos, cada uno de longitud 1/3n . El
conjunto de Cantor es lo que resulta del procedimiento anterior cuando
n . Demuestre que C es un conjunto nonumerable que tiene medida
de Lebesgue cero.
15
Asimismo, si IA := IR es la funcion
indicadora del evento A, que se
define como
1 si x A,
IA (x) :=
(3)
0 si x 6 A,
vemos que (2) resulta
Pf (A) =
X
x
f (x)IA (x).
16
Probabilidad
A .
ultimo
caso, Pf (A) = 1/2 si A es cualquier subconjunto con tres elementos.
(5)
k=0
(0, 1) un numero
dado. Entonces
f (k) := p (1 p)k
para k = 0, 1, . . .
17
es la funcion
de densidad geometrica. Para verificar que f satisface (1)
use la serie geometrica
X
k=0
rk =
1
1r
si |r| < 1.
dado. La funcion
f (k) := e k /k! para k = 0, 1, . . . ,
se llama la densidad de Poisson con parametro . Para verificar (1) use la
serie exponencial
X
r
e =
rk /k! r IR.
k=0
18
Probabilidad
n!
(n k)!
para k = 1, . . . , n.
(6)
p(n, k)
n!
=
k!
k!(n k)!
es decir,
c(n, k) =
n
k
[por (6)],
.
(7)
19
Respuesta: 2n .
2.8 Ejemplo. Demuestre que si un conjunto A consiste de n elementos,
entonces A tiene 2n subconjuntos.
Solucion. El numero
de subconjuntos de A
=
n
X
(numero
de subconjuntos con k elementos)
k=0
n
X
n
=
k
(por (7))
= (1 + 1)n = 2n
(por (5)). 2
k=0
2.9 Definicion.
(9)
aditividad en la Definicion
de conjuntos ajenos en B(IR) y A = An , entonces
X
XZ
f (x)dx.
Pf (A) =
Pf (An ) =
n
An
20
Probabilidad
indicadora de
Esta igualdad se puede demostrar escribiendo la funcion
A = An como
X
IA =
IAn (pues los An son ajenos)
n
y (9) resulta
Z
"
Pf (A) =
f (x)
#
X
"
XZ
n
#
X
=
=
IAn (x) dx
f (x)IAn (x) dx
Pf (An ).
funcion
f (x) := 1/(b a) si x [a, b],
:= 0 en c.c.
2.10.
Es facil ver que f satisface la Definicion
(b) La densidad exponencial con parametro ( > 0) se define como
f (x) := ex si x 0,
:= 0 en c.c.
Notese
que f () 0 y
Z
Z
f (x)dx =
f (x)dx
Z y
lim
ex dx
0
=
=
lim (1 ey ) = 1.
21
1
.
(1 + x2 )
Z
1 dx
f (x)dx =
1 + x2
1
=
arc tan x|x=+
x=
=
[ ( )] = 1.
2
2
es la funcion
f (x) := (2 2 )1/2 e(xm)
2 /2 2
x IR.
(10)
:=
ex
2 /2
2 /2
dx.
Z
Z
2
2
=
e(x +y )/2 dx dy
Z
Z
2
er /2 r d dr
=
0
Z
2
= 2
er /2 r dr
0
r=
r2 /2
= 2 e
r=0
= 2.
22
Probabilidad
R
Luego = 2 y de aqu se sigue que (x)dx = 1. El resultado
f en (10) se obtiene usando el hecho de que
analogo para la funcion
f (x) = 1 ((x m)/).
2
ex /2 dx = 2.
(11)
(12)
x f (x).
23
(13)
f :=
x f (x)dx.
24
Probabilidad
para x > 0,
y f (x) := 0 para x 0.
de densidad de probabilidad. A f se le
Demuestre que f es una funcion
25
ley de
Contenido: Probabilidad condicional, regla de la multiplicacion,
P(A B)
.
P(B)
(1)
26
Probabilidad
tales que
P(A1 . . . An1 ) > 0.
(2)
Entonces
P(A1 A2 . . .An ) = P(A1 )P(A2 |A1 )P(A3 |A1 A2 ) P(An |A1 . . .An1 ).
(por (2)).
hay 14 computadoras de
3.3 Ejemplo. En un laboratorio de computacion
las cuales 8 son de la marca x. Se seleccionan tres computadoras al azar,
una tras otra. Cual es la probabilidad de que las tres sean de la marca x?
Solucion.
8 7 6
. 2
14 13 12
3.4 Definicion.
Una familia {Ai , i I} de eventos es una particion
de si
(a) los eventos son ajenos (es decir, Ai Aj = para i 6= j), y
(b) i Ai = .
es {A, Ac }. En este caso es
El ejemplo mas simple de una particion
evidente que para cualquier evento B se tiene
P(B) = P(A)P(B|A) + P(Ac )P(B|Ac ) (explique).
Este es un caso particular de la ley de la probabilidad total en el siguiente teorema.
de tal que P(Ai ) > 0 para
3.5 Teorema. Sea {A1 , . . . , An } una particion
i = 1, . . . , n. Entonces
27
n
X
P(Ai )P(B|Ai ).
(3)
i=1
(b) Formula
P(Ai )P(B|Ai )
P(Ai B)
=P
P(B)
P(Aj )P(B|Aj )
(4)
para i = 1, . . . , n.
En el teorema anterior las probabilidades P(Ai ) y P(Ai |B) se llaman
probabilidades a priori y a posteriori, respectivamente.
3.6 Ejemplo. En una fabrica, tres maquinas M1 , M2 y M3 elaboran, respec total. Los porcentajes
tivamente, el 30%, el 50% y el 20% de la produccion
de artculos defectuosos producidos por estas maquinas son 1%, 3% y 2%,
respectivamente. Si se selecciona un artculo al azar, calcule la probabilidad de que el artculo
(a) sea defectuoso,
(b) no sea defectuoso,
(c) haya sido producido en la maquina Mi (i = 1, 2, 3) dado que resulto
ser defectuoso.
3.7 Definicion.
(Independencia)
(a) Dos eventos A y B son independientes si
P(A B) = P(A) P(B).
Dos algebras F1 y F2 de son independientes si cualquiera dos
eventos A1 F1 y A2 F2 son independientes.
28
Probabilidad
(5)
Notese
que si P(B) > 0, entonces A y B son independientes ssi
P(A|B) = P(A).
3.8 Observacion.
Para n 3 eventos, independencia por parejas no implica independencia. Por ejemplo, sea = {a, b, c, d} un espacio muestral
equiprobable, y sean A1 = {a, b}, A2 = {b, c} y A3 = {a, c}. Entonces
A1 , A2 , A3 son independientes por parejas porque
P(Ai Aj ) = P(Ai ) P(Aj ) para i 6= j.
Sin embargo, los eventos no son independientes (en el sentido de la Defini 3.7(b)) porque
cion
1
0 = P(A1 A2 A3 ) 6= P(A1 )P(A2 )P(A3 ) = .
8
Tambien puede haber eventos A1 , . . . , An que no son independientes pero
P(A1 . . . An ) = P(A1 ) P(An ); vea el Ejercicio 2. 2
3.9 Ejemplo. Considerese un experimento de Bernoulli, es decir, un ex dos resultados posibles, e xito (1) o fracaso (0),
perimento que tiene solo
con probabilidades p y q := 1p, respectivamente, con 0 < p < 1. Suponga
que se realizan n repeticiones independientes del experimento y calcule la
probabilidad de que ocurran exactamente k e xitos (0 k n).
Solucion.
El espacio muestral consiste de todos los vectores
(x1 , x2 , . . . , xn ) con xi = 1 o xi = 0 para i = 1, . . . , n.
29
n
k
pk q nk
(6)
30
Probabilidad
el cual n=1 P(An ) < implica que P(lim sup An ) = 0. En la parte (b) del
mismo ejercicio se ve que el recproco de este resultado no se cumple. La
completa de dicho lema es como sigue.
version
de eventos.
3.11 Lema de BorelCantelli. Sea {An } una sucesion
P
(a) Si
n=1 P(An ) < , entonces P(lim sup An ) = 0.
P
(b) Si
n=1 P(An ) = y los eventos An son independientes, entonces
P(lim sup An ) = 1.
de evenEl Lema de BorelCantelli afirma que si {An } es una sucesion
tos independientes, entonces P(lim sup An ) es cero o uno. Este es un caso es
pecial de una clase de resultados llamados leyes cerouno. A continuacion
veremos el resultado mas prominente dentro de esta clase, la ley cerouno
de Kolmogorov. Esto requiere introducir el siguiente concepto.
de eventos {An }, para cada n = 1, 2, . . . , sea
Dada una sucesion
{An , An+1 , . . .} la algebra generada por {An , An+1 , . . .}. La algebra
C :=
{An , An+1 , . . .}
n=1
31
Idea de la demostracion.
Ejercicios 3
3.1.
3.1 Demuestre la Proposicion
3.2 En el lanzamiento de dos dados honestos el espacio muestral es
= {(i, j) | 1 i, j 6}.
Considere los eventos A1 = {(i, j)|j = 1, 2 o 5}, A2 = {(i, j)|j = 4, 5 o 6} y
A3 = {(i, j)|i + j = 9}. Demuestre que
P(A1 A2 A3 ) = P(A1 )P(A2 )P(A3 ),
pero los eventos no son independientes porque P(Ai Aj ) 6= P(Ai )P(Aj )
para i 6= j.
3.3 Demuestre que si A y B son eventos independientes, entonces
(a) Ac y B c son independientes,
(b) Ac y B son independientes,
(c) P(A B) = P(A) + P(B) P(Ac ).
32
Probabilidad
3.4 Demuestre: si A1 , . . . , An son eventos independientes, entonces
P(
n
[
Ai ) = 1
i=1
n
Y
P(Aci ).
i=1
3.5 Demuestre:
(a) Si A es un evento independiente de s mismo, entonces P(A) = 0 o
P(A) = 1.
(b) Si P(A) = 0 o P(A) = 1, entonces A y cualquier otro evento son independientes.
multiple
33
la condicion
total de condiciones de la forma (5) que se deben verificar para que A1 , . . . ,
An sean independientes es 2n n 1.
3.9 Demuestre que si A y B son ajenos, entonces A y B no pueden ser
independientes a menos que P(A) = 0 o P(B) = 0.
3.10 Suponga que hay una prueba para detectar cancer con la propiedad de que 90% de los individuos con cancer reaccionan positivamente,
mientras que 5% de aquellos que no tienen cancer reaccionan positiva tiene
mente. Suponga que el 1% de los individuos en una cierta poblacion
cancer. Calcule la probabilidad de que en verdad tenga cancer un paciente
y que reacciona positivamente a
seleccionado al azar de dicha poblacion
la prueba.
3.11 Demuestre el Lema 3.11(b).
34
Probabilidad
Variables aleatorias
(1)
x IR.
(2)
(Notese
que si X1 (, x] esta en F, entonces su medida (X1 (, x])
esta bien definida.) Casos especiales:
(a) Si = P es una m.p., decimos que X es una variable aleatoria (abreviado: v.a.)
(b) Si (, F) = (IR, B(IR)) y X = IR IR es B(IR)medible, decimos que X
es una funcion
de Borel o Borelmedible.
Es importante notar lo siguiente: para verificar que X es Fmedible,
en (2) podemos sustituir (, x] por cualquier otro intervalo en IR, es decir, de la forma (, x) o (x, ) o [x, ) o [x, y) o (x, y] o (x, y) o [x, y].
4. Variables aleatorias
35
(3)
x IR.
(4)
Por el parrafo anterior, (a) implica que X1 (x, ) esta en F. Por lo tanto,
en vista de (4), para demostrar (c) basta ver que X1 (, y) esta en F, lo
cual se obtiene notando que
(, y) =
[
n=1
(, y 1/n]
36
Probabilidad
X1 (, y 1/n] F.
n=1
numeros
enteros i, j entre 1 y 6. Algunos ejemplos de vv.aa. son:
X(i, j) := i + j = suma de los resultados de ambos dados;
Y (i, j) := i = resultado del primer dado;
Z(i, j) := min(i, j) = mnimo de los resultados de ambos dados. 2
La probabilidad del evento X1 (, x] en (2), para todo x IR, se
llama la funcion de distribucion de la v.a. X. Para introducir formalmente
este concepto usaremos la siguiente notacion:
{X x} := X1 (, x] = { | X() x}
para x IR.
(5)
4. Variables aleatorias
37
4.4 Definicion.
Sea X una v.a. La funcion
de distribucion
(abreviado: f.d.)
FX : IR [0, 1] dada por
de X es la funcion
FX (x) := P{X x}
x IR.
(6)
B B(IR).
(7)
Notese
que PX (B) = P[X1 (B)]. Ademas, la f.d. de X y la m.p. inducida por X estan relacionadas como
FX (x) = PX (, x].
(8)
38
Probabilidad
Notese
que
{IA x} = si x < 0,
= Ac si 0 x < 1,
= si x 1.
Ademas, P{IA = 1} = P(A) y P{IA = 0} = 1 P{IA = 1} = P(Ac ). 2
4.6 Proposicion.
(Propiedades de FX ) Si X es una v.a., su f.d. FX satisface
que
(a) FX es nodecreciente, es decir si x < y entonces FX (x) FX (y);
(b) FX (+) := lim FX (x) = 1 y FX () := lim FX (x) = 0;
x
4. Variables aleatorias
39
distribucion
de probabilidad (abreviado: f.d.p.)
4.6 la f.d. de una v.a. X es una
4.9 Observaciones. (a) Por la Proposicion
f.d.p. El recproco tambien es cierto, en el siguiente sentido: Si F : IR
[0, 1] es una f.d.p., entonces existe un espacio de probabilidad (, F, P) y
(9)
(10)
40
Probabilidad
b a. Para mas detalles vea, por ejemplo, el libro de Ash (1972), Teorema
1.4.4.) A F se le llama la m.p. inducida por F .
4.11 Proposicion.
Si F es una f.d.p., entonces existe un espacio de probabilidad (, F, P) y una v.a. X sobre cuya f.d. FX coincide con F , es decir,
FX (x) = F (x) para todo x X.
Demostracion.
Sea (, F) := (IR, B(IR)) y sea P la medida de LS definida
(o inducida) por F sobre B(IR), es decir, como en (10). Finalmente, sea X
la v.a. sobre = IR definida como X() := para todo IR. Entonces
FX (x) := P{X x} = F (x) para todo x IR. 2
4.12 Definicion.
Se dice que una v.a. X es discreta si existe un conjunto
(b) (Recuerdese la densidad geometrica en el Ejemplo 2.2(c).) Supongase que el experimento en el inciso (a) se repite hasta que ocurre el primer
k = 0, 1, . . . .
4. Variables aleatorias
41
1
ba
si x [a, b]
42
Probabilidad
que
Z
f (y)dy = 0 si x < a,
FX (x) =
xa
ba
si a x < b,
(12)
= 1 si x b.
Entonces se tiene que FX0 (x) = f (x) para todo x IR excepto en el conjunto
A = {a, b}, el cual tiene medida de Lebesgue (A) = 0. (Del Ejemplo
1.8(d), recuerde que (B) = 0 si B es un conjunto numerable.)
Otro ejemplo: si X Exp(), entonces
FX (x) = 1 ex si x 0,
= 0 si x < 0,
de modo que la derivada FX0 (x) = f (x) = la densidad exponencial para
todo x IR, excepto en x = 0. Es decir, FX0 = f c.d.q.
Definion.
Sea F una f.d.p. y F la medida de LS inducida por F . Se dice
que F es continua singular si
(a) F es continua y
(b) existe un conjunto de Borel S IR que tiene medida de Lebesgue
(S) = 0, pero F (S) = 1.
(b) dice que F esta concentrada en un
En otras palabras, la condicion
conjunto nulo con respecto a .
Ejemplo. (La distribucion
de Cantor.) Sea C1 := [0, 1/3] [2/3, 1]. Sea f1
de densidad uniforme sobre C1 y F1 su f.d., es decir,
la funcion
f1 (x) =
c1 si x C1 ,
0 en c.c.,
4. Variables aleatorias
43
con c1 = 3/2, y
Z x
(3/2)x
1/2
F1 (x) :=
f1 (y)dy =
(3/2)x 1/2
si
si
si
si
si
x < 0,
0 x < 1/3,
1/3 x < 2/3,
2/3 x < 1,
x 1.
Analogamente, sean C2 := [0, 1/9] [2/9, 1/3] [2/3, 7/9] [8/9, 1], f1 la
densidad uniforme sobre C2 , y F2 su correspondiente f.d.p.
de los 2n intervalos ajenos de
En general, para n 2, sea Cn la union
longitud (1/3)n que se obtienen al eliminar los tercios medios de los 2n1
intervalos ajenos de longitud (1/3)n1 en Cn1 .
Sea
fn (x) :=
cn si x Cn ,
0 en c.c.,
con cn = (3/2)n , y
Z
Fn (x) :=
fn (y)dy.
44
Probabilidad
4.19 Observacion.
En Analisis Real, una funcion
un numero
finito de valores (como la v.a. discreta en la segunda parte de
simple.
4.18) se dice que es una funcion
4.20 Proposicion.
Si X es una v.a. no negativa, entonces existe una suce {Xn } de vv.aa. discretas con un numero
sion
finito de valores tales que
Xn X.
{Xn } en 4.20 se puede construir explcitamente. Vease, por
La sucesion
ejemplo, el libro de Ash (1972), Teorema 1.5.5, o el libro de R.G. Bartle
(1995), The Elements of Integration and Lebesgue Measure, Lema 2.11.
Funciones medibles: caso general
B F0 .
(14)
4. Variables aleatorias
45
46
Probabilidad
4. Variables aleatorias
47
1 |x|
e
2
x IR.
4.12 Supongase
que X Exp() y sea c > 0 una constante dada. Calcule
48
Probabilidad
la densidad de Y := cX.
4.13 Sea X una v.a. con f.d.
FX (x) =
=
=
=
0
x/3
x/2
1
si
si
si
si
x < 0,
0 x < 1,
1 x < 2,
x 2.
()
5. Vectores aleatorios
49
Vectores aleatorios
n
\
(1)
{Xi xi }.
i=1
50
Probabilidad
(2)
(3)
x2
Analogamente,
x1
(4)
se llama la funcion
de densidad del vector X, o tambien se dice que f es
la densidad conjunta de las vv.aa. X1 , . . . , Xn . Algunas veces escribimos
5. Vectores aleatorios
51
f2 (y) =
f (x, y) y Y.
(6)
f2 (y) =
f (x, y)dx
y IR.
(9)
Por ultimo,
una f.d.p. F : IR IR se dice que es continua singular si
es continua y, ademas, existe un conjunto de Borel S IRn tal que F (S) =
1, pero (S) = 0, donde es la medida de Lebesgue.
Independencia
En 3.7 definimos el concepto de independencia de eventos y de algebras. En particular, podemos recordar lo siguiente.
Sea (, F) un espacio medible e I un conjunto arbitrario de ndices. Para
cada i I, sea Fi una subalgebra de F. Decimos que las algebras
52
Probabilidad
5. Vectores aleatorios
53
Para vv.aa. discretas o continuas el concepto de independencia se puede expresar usando densidades. El resultado preciso es el siguiente, cuya
se puede ver, por ejemplo, en el libro de Ash (Teorema 5.8.4).
demostracion
5.3 Teorema. Sean X1 , . . . , Xn vv.aa. discretas o continuas con densidad
conjunta f (x1 , . . . , xn ) y, para cada i = 1, . . . , n, sea fi la densidad marginal de Xi . Entonces X1 , . . . , Xn son independientes ssi
f (x1 , . . . , xn ) = f1 (x1 ) fn (xn ) (x1 , . . . , xn ) IRn .
(10)
5.4 Ejemplo. Sean X y Y vv.aa. discretas con valores en {1, 2} y {1, 2, 3, 4},
respectivamente. Suponga que la densidad conjunta esta dada como en la
siguiente tabla.
1
1/4
1/8
1/16
1/16
1/16 1/16
1/4
P
1/8
De aqu se sigue que X y Y no son independientes porque no se satisface (10). Por ejemplo, f (1, 1) = 1/4 pero f1 (1) f2 (1) = (1/2)(5/16) 6=
f (1, 1). 2
54
Probabilidad
(x, y) IR2 .
(11)
(a) Primero observe que completando cuadrados el numerador del exponente en (11) se puede escribir como
x2 2xy + y 2 = (x y)2 + y 2 (1 2 ) = (x y)2 + y 2 r2 .
(12)
1 (xy)2 /2r2 y2 /2
e
e
.
2r
(13)
Notese
tambien que por el Ejemplo 2.10(c), la densidad normal N (y, r2 )
tiene densidad
2
2
g(x) = (2r2 )1/2 e(xy) /2r
(14)
R
de modo que, como g(x)dx = 1, tenemos
Z
e(xy)
2 /2r 2
dx = (2r2 )1/2 .
Luego, por (9), integrando ambos lados de (13) con respecto a x obtenemos
la densidad marginal de Y :
Z
2
f (x, y)dx = (2)1/2 ey /2 y IR,
f2 (y) =
5. Vectores aleatorios
55
(x, y) IR2 .
2 /2 2
se le llama distribucion
normal (o gausssi 2 > 0. A esta distribucion
normal multivariada
siana) univariada para distinguirla de la distribucion
(En particular, vea el caso bivariado en
que consideramos a continuacion.
el ejemplo anterior.)
5.7 Definicion.
Un vector aleatorio (X1 , . . . , Xn ) se dice que es gaussiano,
56
Probabilidad
i.e.
Ejercicios 5
5.1 Demuestre que si X1 , . . . , Xn son vv.aa. independientes, entonces
tambien lo son X1 , . . . , Xk para k < n. (De hecho, se puede ver que cual Xi1 , . . . , Xik de X1 , . . . , Xn son independientes.)
quier subcoleccion
5.2 Sean h1 , . . . , hn : IR IR funciones de Borel. Demuestre que si
X1 , . . . , Xn son vv.aa. independientes, entonces tambien lo son las vv.aa.
h1 (X1 ), . . . , hn (Xn ).
5.3 Sea (X, Y ) un vector aleatorio que tiene densidad uniforme sobre
el disco unitario D := {(x, y) IR2 |x2 + y 2 1}, es decir, la densidad
conjunta de X y Y es
f (x, y) = 1/
si (x, y) D,
y f (x, y) = 0 si (x, y) 6 D.
5. Vectores aleatorios
57
58
Probabilidad
(2)
(3)
(4)
1
(1 + x2 )
x IR.
59
(explique).
u=1
Es decir, (3) no se cumple de modo que la v.a. X no esta en L1 . 2
de Borel tal que h(X) esta en
Sea X una v.a. y h : IR IR una funcion
L1 ; es decir
Z
X
|h(xi )| fX (xi ) < o
|h(x)| fX (x)dx <
(5)
Eh(X) :=
h(x)fX (x)dx
si X
es continua.
k > 0, a la esperanza
6.3 Casos especiales. (a) Si h(x) = xk para algun
k
Eh(X) = E(X ) se le llama el momento de orden k de X. Ademas, en
lugar de decir que Xk esta en L1 frecuentemente diremos que X esta en
Lk Lk (, F, P). Para k = 1, el momento de orden 1 de X coincide con la
esperanza de X.
(b) Sea mX := EX y sea h(x) := (x mX )k . Entonces, suponiendo que
(5) se cumple,
Eh(X) := E(X mX )k
se llama el momento central de orden k de la v.a. X. En particular, para
k = 2 el momento central de orden 2 se llama la varianza de X y se denota
por Var(X) o X2 , es decir
Var(X) X2 = E(X mX )2 .
(6)
60
Probabilidad
Notese
que (X mX )2 = X2 + m2X 2mX X de modo que
Var(X) X2 = E(X2 ) m2X
(7)
y E(cY ) = c EY.
(Explique.)
casi seguramente.
Var(X) =
1 2
(n 1).
12
1
k(k+1)
61
Solucion.
(a) Usando la formula
n
X
1
k = n(n + 1)
2
k=1
vemos que (2) resulta
n
n
X
1
1X
k = (n + 1).
EX =
kfX (k) =
n k=1
2
k=1
Para calcular la varianza de X, primero calcularemos el segundo momento
E(X2 ) de X y despues usaremos (7) con mX := EX. Para calcular E(X2 )
recuerdese que
n
X
1
k 2 = n(n + 1)(2n + 1).
6
k=1
Por lo tanto,
n
X
1X 2 1
k fX (k) =
k = (n + 1)(2n + 1).
E(X ) =
n k=1
6
k=1
2
As pues, de (7),
1
1
1
Var(X) = (n + 1)(2n + 1) (n + 1)2 = (n2 1).
6
4
12
(b) Esto se sigue del hecho de que la serie
EX =
kfX (k) =
k=1
X
k=1
X1
1
=
k + 1 k=2 k
k=1
6.5 Problema. En cada uno de los siguientes casos verifique que se cumple
el valor dado de EX y Var(X).
(a) Distribucion
binomial: X Bin(n, p), f (k) :=
n
k
pk q nk para
62
Probabilidad
k = 0, 1, . . . , n, con q := 1 p.
EX = np
Var(X) = npq.
(b) Distribucion
geometrica: X Geo(p), f (k) := pq k para k = 0, 1, . . . ,
con q := 1 p.
EX = q/p y Var(X) = q/p2 .
(c) Distribucion
de Poisson: X Poi(), f (k) := e k /k! para k =
0, 1, . . ..
EX = Var(X) = .
6.6 Problema. Repita el problema anterior para cada una de las siguientes
distribuciones continuas.
(a) Distribucion
uniforme: X Uni[a, b], f (x) := 1/(ba) para a x b.
EX =
a+b
2
Var(X) =
(b a)2
.
12
(b) Distribucion
exponencial: X Exp(), f (x) := ex para x 0.
EX = 1/ y
Var(X) = 1/2 .
(c) Distribucion
normal: X N (m, 2 ), f (x) := (2 2 )1/2 e(xm)
para todo x IR.
EX = m y Var(X) = 2 .
2 /2 2
(d) Distribucion
gama: X (p, ), f (x) := p xp1 ex /(p) para x > 0 y
f (x) := 0 para x 0 (p y son parametros positivos; vea el Ejercicio 2.6).
EX = p/
Var(X) = p/2 .
numeros
reales y X1 , . . . , Xn estan en Lk , entonces
a1 X1 + + an Xn Lk .
63
Demostracion.
(8)
si X1 , X2 L1
(explique),
6.8 Teorema. (Desigualdad de Chebyshev.) Sea X L1 una v.a. no ne no decreciente, con g(x) > 0 si
gativa, y g : [0, ) [0, ) una funcion
x > 0, y tal que g(X) L1 . Entonces para cada > 0
P{X } Eg(X)/g().
(9)
(10)
64
Probabilidad
o equivalentemente
P{|X mX | < } 1 X2 /2 .
(11)
Demostracion.
Considere la v.a. discreta
Y
:= 0
si X < ,
:= g() si X .
> 0.
(12)
P{X mX + 4 o X mX 4}
P{X 6}
1 FX (6)
e3 = 0.0494 << 0.25.
65
66
Probabilidad
P{X n}.
n=1
R
0
67
68
Probabilidad
La integral de Lebesgue
(1)
te un numero
finito de valores (distintos) x1 , . . . , xn en IR. Sea
Ai := { | X() = xi } i = 1, . . . , n,
de modo que podemos escribir X en la forma
X=
n
X
xi IAi .
i=1
n
X
xi (Ai ).
(2)
i=1
Z
X d := sup{ h d | h es simple y 0 h X}.
(3)
7. La integral de Lebesgue
69
Notese
que este supremo siempre existe pero puede ser +.
medible arbitraria y considerese su parte posAhora sea X una funcion
itiva
X+ () := max{X(), 0}
y su parte negativa
X () := min{X(), 0} = max{X(), 0}
Notese
que X = X+ X y |X| = X+ + X , y que ambas funciones X+ y X
son no negativas. Por lo tanto, por (3), sus integrales
Z
Z
+
X d y
X d
estan bien definidas. Si, ademas, ambas integrales son finitas, entonces
decimos que X es integrable con respecto a y su integral es
Z
Z
Z
+
X d :=
X d X d.
(4)
7.1 Definicion.
Supongase
que P es una m.p. Entonces X es una v.a.
y su integral con respecto a P se llama la esperanza de X y escribimos
Z
EX :=
X dP.
(5)
70
Probabilidad
n
X
i=1
xi P{X = xi }
i=1
n
X
xi fX (xi ),
i=1
de distribucion
de probabilidad (f.d.p.) y sea F la
Sea F una funcion
de
correspondiente medida de LS; vea (4.10). Si h : IR IR es una funcion
Borel integrable con respecto a F , escribimos
Z
Z
h(x) dF (x) :=
h dF
(6)
IR
IR
y decimos que (6) es la integral de LS de h con respecto a F (o con respecto a F ). En particular, si F FX es la f.d. de una v.a. X, se puede
demostrar que la esperanza de h(X) existe ssi
Z
|h(x)|dFX (x) < ,
IR
en cuyo caso
Z
Eh(X) :=
Z
h(X)dP =
(7)
IR
7. La integral de Lebesgue
71
(8)
IR
(Recuerde que el lado izquierdo de (8) coincide con Eh(X); vea (7).)
indicadora de
Demostracion.
Supongase
primero que h = IB , la funcion
un conjunto de Borel B. Entonces, como
IB (X()) = 1 ssi X1 (B),
el lado izquierdo de (8) resulta
Z
Z
1
IB (X())P(d) = P(X (B)) = PX (B) =
IB (x)PX (dx).
(9)
IR
funcion
nodecreciente de funciones simples hn tal que hn h. Por lo tanto, por el
72
Probabilidad
7.5 Observacion.
Si (, F, ) es un espacio de medida arbitraria y k 1, la
familia de funciones Fmedibles X : IR tales que
Z
|X|k d <
IR
Ejercicios 7
7.1 Sea (, F, ) un espacio de probabilidad en donde x es la medida de Dirac concentrada en el punto x . Demuestre que si X : IR
7. La integral de Lebesgue
73
R
X d = X(x).
X d = 0.
Ademas, definiendo
Z
Z
X d :=
X IA d A F,
X d|
|X|d.
74
Probabilidad
7.7 Sea X 0 una v.a. sobre (, F, P) con EX = 1. Defina
Q(A) := E(XIA ) A F.
Demuestre:
(a) Q es una m.p. sobre (, F).
(b) Si P(A) = 0 entonces Q(A) = 0. De un ejemplo mostrando que el
recproco es falso en general, es decir, Q(A) = 0 no implica P(A) = 0.
(c) Si P(X > 0) = 1, entonces la esperanza con respecto a Q, que denotamos por EQ (), satisface que EQ (Y ) = EP (Y X), i.e.
Z
Z
Y dQ = Y X dP.
Ademas, la m.p. R definida como R(A) := EQ (IA /X) para A F
coincide con P, i.e. R() = P().
7.8 Demuestre el Teorema de Convergencia Monotona:
g()f ()(d),
8. Esperanza e independencia
75
Esperanza e independencia
numeros.
5 estudiamos el concepto de independencia de vv.aa.
En la Seccion
se muestra que la esperanza del producto de
En la siguiente proposicion
vv.aa. independientes tiene una forma particularmente simple.
8.1 Proposicion.
Sean X1 , . . . , Xn vv.aa. independientes.
(a) Si ademas las vv.aa. X1 , . . . , Xn estan en L1 , entonces su producto
X1 Xn tambien esta en L1 y
E(X1 Xn ) = (EX1 ) (EXn ).
(1)
Demostracion.
76
Probabilidad
kf (k) = c
k=1
k 2 < ,
k=1
X
k=1
k 2 f (k) = c
k 1 6< .
k=1
(2)
en donde mX := EX y mY := EY . Notese
que Cov(X, X) = Var(X) y, por
otra parte,
Cov(X, Y ) = E(XY ) mX mY .
(3)
8. Esperanza e independencia
77
si (x, y) D,
2
1 x2
si
1 x 1,
EX = 0
78
Probabilidad
Cov(Xi , Xj ) = 0 para i 6= j.
8.5 Proposicion.
Sean X1 , . . . , Xn vv.aa. en L2 . Entonces
Var(X1 + + Xn ) =
n
X
Var(Xk ) + 2
k=1
Cov(Xk , Xj ).
(4)
k<j
n
X
Var(Xk ).
(5)
k=1
Notese
que (6) se cumple, en particular, si X1 , . . . , Xn son i.i.d. con varianza
2.
comun
Demostracion.
Sea S := X1 + + Xn y mk := EXk la media de Xk (k =
1, . . . , n). Entonces
ES = m1 + + mn
(7)
y
n
X
Var(S) = E(S ES) = E[ (Xk mk )]2 .
2
k=1
(x1 + + xn ) =
n
X
k=1
para numeros
reales x1 , . . . , xn .
x2k + 2
xk xj .
k<j
8. Esperanza e independencia
79
S n :=
Demuestre que cuando n
Var(S n ) 0
(8)
(9)
Demostracion.
Por (7) y (6), ESn = n y Var(Sn ) = n 2 . Por lo tanto,
ES n =
1
ESn =
n
Var(S n ) =
1
1
Var(Sn ) = 2 .
2
n
n
(10)
en probabilidad.
(11)
(12)
Los resultados en (11) y (12) se conocen como leyes debiles de los grandes
numeros
80
Probabilidad
Ejercicios 8
8.1 Sea = {1, 2, 3} un espacio equiprobable, i.e. P() = 1/3 para
= 1, 2, 3. Sean X y Y las vv.aa.
X() = 1
= 0
= 1
Y () = 0 si = 1 o 3,
= 1 si = 2.
si = 1,
si = 2,
si = 3,
n
X
a2k Var(Xk ) + 2
k=1
ak aj Cov(Xk , Xj ).
k<j
8.3 Sean X y Y vv.aa. en L2 con desviaciones estandar X y Y , respectivamente. Definimos el coeficiente de correlacion
de X y Y como
(X, Y ) :=
Cov(X, Y )
.
X Y
8. Esperanza e independencia
81
82
Probabilidad
9. Convergencia de vv.aa.
83
Convergencia de vv.aa.
cion,
teoremas de convergencia monotona,
convergencia dominada,
(1)
extendido.
(2)
84
Probabilidad
Y d > , y Xn X, entonces se
R
(b) Si Xn Y para todo n, en donde Y d < , y Xn X, entonces
Z
Z
Xn d X d.
R
R
Demostracion.
(a) Si Y d = +, entonces Xn d = + para Rtodo n y
por lo tanto (2) se cumple trivialmente. Supongamos ahora que Y d <
, en cuyo caso |Y | < c.d.q. Redefinimos Y como Y () := 0 si
Y () = . Entonces
0 Xn Y X Y
R
R
9.2) que (Xn Y ) (X Y ),
y se sigue del Ejercicio 7.8 (=Proposicion
lo cual implica (2).
Xn Y. 2
El inciso (b) se demuestra aplicando (a) a la sucesion
Como aplicaciones de 9.2 y 9.3 tenemos lo siguiente.
9.4 Ejemplo. Demuestre que si Xn 0 para todo n, entonces
Z X !
XZ
Xn d.
Xn d =
n
(3)
si Xn 0 n.
Solucion.
Para cada k = 1, 2, . . . , sea Yk :=
k
P
n=1
{Yk } es nodecreciente y Yk Y :=
ciones Xn son nonegativas, la sucesion
P
Xn . Por lo tanto (3) se sigue de (2). (Explique.)
2
n=1
nonegativa y defnase
9.5 Ejemplo. Sea X L1 (, F, ) una funcion
Z
Z
(A) :=
X d =
X IA d A F.
A
(4)
9. Convergencia de vv.aa.
85
X 0. Entonces la
(Supongase
que X L1 , pero no satisface la condicion
() en (4) es una medida con signo.)
funcion
Solucion.
Es evidente que satisface las condiciones (a) y (b) de la Defi 1.7, i.e. () = 0 y (A) 0 para todo A F. Para demostrar la
nicion
de aditividad en 1.7(c), considere una sucesion
{An } F de
condicion
S
conjuntos ajenos, y sea A :=
An . Deseamos probar que
n=1
(A) =
(5)
(An ).
n=1
indicadora de An (n = 1, 2, . . .) y notese
X
IA =
IAn (explique).
n=1
Por lo tanto
X IA =
X IAn
n=1
X IA d =
Z
X
X IAn d =
n=1
Por ultimo,
notese
que es finita porque () =
(An ).
n=1
X d < . 2
86
Probabilidad
Demostracion.
Por el Lema de Fatou,
Z
Z
Z
Z
(lim inf Xn ) lim inf Xn lim sup Xn (lim sup Xn ).
Esto implica (6) porque Xn X, es decir, lim inf Xn = lim sup Xn = X. 2
9.8 Definicion.
(7)
(8)
(9)
9. Convergencia de vv.aa.
87
Distribucion
Lk
de las implicaciones c.s. Prob. Distribucion
se
La demostracion
9.18. La demostracion
de
puede ver en el Corolario 9.17 y la Proposicion
Lk Prob. se sigue de la desigualdad de Chebyshev (6.9) sustituyendo
X y g(x) por |Xn X| y g(x) = xk , lo cual da
P{|Xn X| } E|Xn X|k /k .
De esta desigualdad se ve que (10) (9).
Un hecho importante es que, en general, los recprocos de las implicaciones en 9.10 no se cumplen, como se muestra en el siguiente ejemplo.
9.11 Ejemplo. Sea (, F, P) = ([0, 1], B[0, 1], ), con restringida al inter-
88
Probabilidad
Notese,
ademas, que Xn X c.s., as que convergencia c.s. no implica
convergencia en Lk .
(b) Sea X 0 y sea Xn = IAn en donde A1 := [0, 1/2] y A2 := (1/2, 1];
A3 := [0, 1/4], A4 := (1/4, 1/2], A5 := (1/2, 3/4], A6 := (3/4, 1]; etc. Entonces
Xn () 6 X() ,
pero Xn X en probabilidad porque P{|Xn | } 0 para cualquier
0 < < 1. Es decir, convergencia en probabilidad no implica convergencia
c.s.
(c) Primero definiremos dos vv.aa. X y Y que no coinciden en ningun
(11)
en distribucion.
9. Convergencia de vv.aa.
89
y S n :=
1
Sn .
n
en L2
en C y sea n0 el numero
de puntos que estan en S. Afirmamos que
n0 /n := a rea de S
(12)
90
Probabilidad
Notese
que las Xk son vv.aa. Bernoulli con parametro , pues
P{Xk = 1} = P{| S} = (S) = .
Luego, EXk = y 2 :=Var(Xk ) = (1 ); ademas, de 9.12:
1
(X1 + + Xn )
n
c.s.,
se
que es el enunciado preciso de (12). Ademas, el error de la estimacion
puede precisar usando la desigualdad de Chebyshev:
)
( n
1 X
2
P
Xk 2 > 0, n = 1, 2, . . . 2
n
n
k=1
Para tal fin, considerese una v.a. X arbitraria pero con densidad fX () > 0
sobre [a, b] y sea Y := g(X)/fX (X). Luego,
Z b
EY =
a
Z b
g(x)
fX (x)dx =
g(x)dx = I.
fX (x)
a
Por lo tanto, para calcular I consideremos vv.aa. X1 , X2 , . . . i.i.d. con den fX , de modo que las vv.aa. Yk := g(Xk )/fX (Xk ) son i.i.d. con
sidad comun
media finita EY = I. Luego, por 9.12,
n
1X
Yk I
n k=1
c.p.1.
(13)
9. Convergencia de vv.aa.
91
=
a
g 2 (x)
dx I 2 ,
fX (x)
(14)
Z
|u(x)v(x)|dx
b
2
u (x)dx
a
v 2 (x)dx
(15)
p
p
con u(x) := g(x)/ fX (x) y v(x) := fX (x). Entonces (15) resulta
Z
2
|g(x)|dx
a
Z b
g 2 (x)
dx
fX (x)dx
a fX (x)
a
= 2 + I 2 [por (14)],
Z
y por lo tanto
2
Z
2
|g(x)|dx
I 2.
(16)
Rb
a
|g(x)|dx, vemos
(18)
92
Probabilidad
(21)
pk = nk pk /nk ,
C(n) := (1 p) /(1 p) e
porque (1 p)n = (1 np/n)n e (por (20) y (17)) y (1 p)k 1 (pues
p = p(n) 0). Combinando estos resultados se obtiene (21).
2
El lmite en (21) se usa para aproximar b(k; n, p) cuando n es grande
y el parametro p es pequeno,
tomando np, i.e.
b(k; n, p) enp (np)k /k!
(22)
9. Convergencia de vv.aa.
93
Por ejemplo, suponga que la v.a. X Bin(n, p), con n = 103 y p = 104 ,
representa el numero
de accidentes automovilsticos en una cierta inter de calles, durante algun
perodo dado de tiempo (e.g. entre 4 y
seccion
6 p.m.) Se desea calcular la probabilidad de que ocurran dos o mas acci binomial obtenemos
dentes. Usando directamente la distribucion
P{X 2} = 1 P{X < 2}
= 1 [P{X = 0} + P{X = 1}]
= 1 (q n + npq n1 )
con n = 103 , p = 104 y q = 1 p = 0.9999. Por otra parte, si usamos (22)
con = np = 103 104 = 0.1 tenemos
P{X = k} e k /k! = e0.1 (0.1)k /k! k = 0, 1, . . . .
Luego,
P{X 2} = 1 [P{X = 0} + P{X = 1}]
1 e0.1 (1 + 0.1) = 0.0045
para verificar convergencia c.s.; vea,
El siguiente resultado es muy util
por ejemplo el Ejercicio 5.
9.16 Proposicion.
Xn X c.s. ssi para cada > 0
"
#
[
P(lim sup{|Xn X| }) = lim P
{|Xk X| } = 0.
n
k=n
Demostracion.
Sea B() := lim sup Bn (), en donde
Bn () := {|Xn X| } {| |Xn () X()| }.
Notese
que
{|Xn () 6 X()} =
=
B()
>0
[
m=1
B(1/m)
94
Probabilidad
c.s.
distribucion.
Demostracion.
Supongase
que Xn X en probabilidad, es decir, para
cada > 0,
P(|Xn X| ) 0.
Sea An := {Xn x} y B := {X x}. Entonces, usando F y Fn para
de X y de Xn , respectivamente,
denotar la distribucion
|Fn (x) F (x)| = |P(An ) P(B)|
P(An B)
= P(An B c ) + P(B Acn ).
(23)
Supongase
que x esta en C(F ). Deseamos demostrar que cada termino en
9. Convergencia de vv.aa.
95
n,
Convergencia debil
Sean y n (n = 1, 2, . . .) medidas de probabilidad sobre (IR, B(IR)), y
sea Cb (IR) Cb el conjunto de las funciones continuas y acotadas de IR en
s mismo.
{n } converge debilmente a si
9.19 Definicion.
La sucesion
Z
Z
h dn
IR
h d
IR
h Cb .
96
Probabilidad
Supongase
que y n es la m.p. inducida por X y Xn , respectivamente,
demostraremos, en particular, lo siguiente:
n = 1, 2, . . .. A continuacion
9.20 Teorema. Las siguientes condiciones son equivalentes:
(a) n debilmente.
(b) Xn X en distribucion.
h Cb .
(c) Eh(Xn ) Eh(X) para toda funcion
La equivalencia de (a) y (c) se obtiene observando que
Z
Z
h(Xn )dP =
h(x)n (dx).
Eh(Xn ) =
(25)
IR
9. Convergencia de vv.aa.
97
(a) n debilmente.
(b) n (A) (A) para todo conjunto de Borel A IR con (A) = 0.
(c) n ((, x]) ((, x]) para todo x IR tal que ({x}) = 0.
espacio de probabili(d) Existen vv.aa. Y, Y1 , Y2 , . . . definidas sobre algun
dad, con Y y Yn n para todo n, y tales que Yn Y c.s.
La equivalencia de los incisos (a) y (d) se conoce como Teorema de Skorokhod.
Demostracion.
(b) (c): Esto es obvio porque la frontera de (, x] es
{x}.
in Cb
(a) (c): Fjese x IR y > 0 arbitrarios, y sea f la funcion
definida como
si t < x,
1
0
si t > x + ,
f (t) :=
1 (t x)/ si x t x + .
Entonces, como I(,x] f I(,x+] ,
Z
lim sup n ((, x]) lim sup
Z
f dn =
f d ((, x + ]);
es decir, lim sup n ((, x]) ((, x]) porque > 0 era arbitrario.
definida como
Analogamente, sea g Cb la funcion
si t < x ,
1
0
si t > x,
g(t) :=
1 (t x + )/ si x t x.
Entonces, como I(,x] g I(,x] , se sigue que
Z
lim inf n ((, x]) lim inf
Z
g dn =
g d ((, x ]);
98
Probabilidad
Yn () := inf{x|Fn (x) }
Notese
que las graficas de las funciones Yn y Y son las inversas de
9. Convergencia de vv.aa.
99
Ejercicios 9
de vv.aa. que converge uniformemente de X,
9.1 Sea {Xn } una sucesion
i.e. sup |Xn () X()| 0 cuando n . Demuestre que EXn EX.
9.2 Sea (, F, ) = (IR, B(IR), ) en donde es la medida de Lebesgue.
Ademas, para cada n = 1, 2, . . . , sea Xn := n1 I[0,n] y X 0. Demuestre que
(a) Xn X uniformemente y
(b) 0 Xn 1 para todo n, pero
R
R
al Teorema 9.6 o al
(c) Xn d 6 X d. Es e sto una contradiccion
Ejercicio 1?
9.3 Sea (, F, ) como en el Ejercicio 2, y sean Xn := I[n,) y X 0.
Demuestre:
(a) Xn X, y
(b) 0 Xn 1 para todo n, pero
R
R
a los Teoremas 9.2 o 9.6?
(c) Xn d 6 Xd. Es e sto una contradiccion
9.4 Sean X1 , X2 , . . . vv.aa. independientes en L2 , con E(Xj ) = mj y
Var(Xj ) = j2 . Supongase
que existe una constante M tal que j2 M para
todo j. Sea
n
X
Yn :=
(Xj mj ).
j=1
Demuestre que
100
Probabilidad
(a) Var(Yn ) nM ,
(b)
1
Y
n n
(Al resultado en (b) se le conoce como ley debil de los grandes numeros
de
Chebyshev.)
9.5 Demuestre que si
n=1
9.16.)
Xn X c.s. (Sugerencia: use la Proposicion
9.6 Demuestre:
(a) Si X, Xn (n = 1, 2, . . .) son vv.aa. en L2 tales que
n=1
9. Convergencia de vv.aa.
101
x
1+x
para
9.11 Si Xn X en Lp o en probabilidad, entonces existe una sub nk tal que Xnk X c.s. cuando k .
sucesion
9.12 Extension
del Teorema de Convergencia Dominada. Supongase
que Xn X en probabilidad y que existe Y Lp tal que |Xn | Y para
todo n. Entonces X esta en Lp y Xn X en Lp .
continua. Si Xn X c.s. o en probabilidad,
9.13 Sea f una funcion
entonces f (Xn ) f (X) c.s. o en probabilidad, respectivamente.
9.14 Sea la medida de Lebesgue sobre el intervalo unitario, y sea n
la medida uniforme sobre {0, 1, . . . , n}, es decir ({i/n}) = 1/(n + 1) para
n {0, 1, . . . , n}. Demuestre que n converge debilmente a .
102
10
Probabilidad
(1)
para todo t IR para el cual la esperanza en (1) es finita. Para tales valores
de t, por (8.5) y (8.7) podemos escribir
Z
Z
tX
MX (t) =
e dP =
etx dFX (x),
(2)
IR
(4)
(5)
103
IR
CX (0) = ik E(Xk ) k = 0, 1, . . . , n.
(6)
Esta formula
se puede demostrar por induccion.
Aqu lo haremos solo
t0
IR
MX (0) = E(Xk ) k = 0, 1, . . . , n.
(7)
104
Probabilidad
generadora de momentos,
Debido a (7) es que a MX se le llama funcion
aunque de hecho la f.c. tambien genera momentos, en el sentido de (6).
10.2 Problema. En cada uno de los casos siguientes verifique que la f.g.m.
y la f.c. de X tienen el valor que se indica.
(a) X Bin(n, p), q := 1 p. Para todo t IR:
MX (t) = (pet + q)n ,
(b) X Geo(p), q := 1 p.
MX (t) = p/(1 qet ) si qet < 1,
CX (t) = p/(1 qeit ) t IR.
(c) X Poi(). Para todo t IR:
t
MX (t) = e(e 1) ,
it 1)
CX (t) = e(e
10.3 Proposicion.
(a) Si Y = aX + b, entonces
CY (t) = eibt CX (at).
(8)
(9)
(10)
(c) Propiedad de unicidad de la f.c. Dos vv.aa. tienen la misma f.d. ssi
tienen la misma f.c. En otras palabras, X Y ssi CX (t) = CY (t) para todo
t IR.
de (8)(9) es trivial, al igual que la demostracion
de
La demostracion
X Y CX () = CY ()
(11)
105
en el
en 10.3(c). El recproco de (11) se sigue de la formula
de inversion
Lema 10.13.
10.4 Problema. Repita el problema 10.2 para los casos siguientes:
(a) X Exp().
MX (t) = /( t) si t < ,
CX (t) = /( it) t IR.
(b) X N (, 2 ). Para todo t IR:
MX (t) = exp(t + 2 t2 /2),
(12)
MX (t) = et
2 /2
y CX (t) = et
t IR.
(13)
r
Y
k=1
CXk (t) =
r
Y
it 1)
ek (e
k=1
de modo que
it 1)
106
Probabilidad
9.9, Xn X en distribucion
si FXn (x) FX (x) para todo
la Definicion
x IR en el que la f.d. FX es continua. Un criterio relativamente sencillo
de usar para este tipo de convergencia es el siguiente, que ya vimos en
9.19.
ssi Eh(Xn ) Eh(X) para toda
10.6 Proposicion.
Xn X en distribucion
h : IR IR continua y acotada.
funcion
De hecho, aqu usaremos el siguiente criterio de convergencia en dis basado en funciones caractersticas. (El Teorema 10.7 se demuestribucion
tra mas adelante.)
10.7 Teorema de continuidad. Sean X y Xn (n = 1, 2, . . .) vv.aa. con f.c.s
ssi Cn (t)
CX y Cn , respectivamente. Entonces Xn X en distribucion
CX (t) para todo t en IR.
107
tambien se podra
en distribucion.
(Observe que esta ultima
conclusion
9.10.)
haber obtenido de la Proposicion
2
En 10.1(b) vimos que si E|X|n < , entonces las derivadas de CX (t)
(k)
en t = 0 satisfacen que CX (0) = ik E(Xk ) para k = 0, 1, . . . , n. Ademas,
aplicando la formula
de Taylor a CX (t) se puede ver que
CX (t) =
n
X
k=0
(14)
y S n :=
1
Sn .
n
Sn ESn
Sn n
;
Yn := p
=
n
Var(Sn )
(15)
notese
que
Yn =
Sn
.
/ n
Entonces
Yn Z
en distribucion,
(16)
108
Probabilidad
(17)
Demostracion.
Sea Cn (t) la f.c. de Yn . Por el Teorema de Continuidad 10.7,
para demostrar (16) basta verificar que
2 /2
Cn (t) CZ (t) = et
t IR.
(18)
n
X
Xk / n,
(19)
k=1
109
n
X
Zn,k
k=1
P{Xk = 0} = 1 p =: q.
(20)
notacion),
es decir Yn := Sn / n, y supongase
que
Yn X
en probabilidad.
()
en probabilidad,
y, por lo tanto,
S2n
Sn
Xn+1 + + X2n
=
2n
2n 2n
1
1
= Y2n Yn 1 X en probabilidad.
2
2
Un :=
110
Probabilidad
Xn+1 + + X2n
= 2Un ( 2 1)X
n
en probabilidad. (+)
Vn N (0, 1) en distribucion.
Por otra parte, por (+),
vemos que
111
Solucion.
Notese
que Sn Poi(n) de modo que
E(Sn ) = Var(Sn ) = n = (50)(0.03) = 1.5.
Por lo tanto, el calculo exacto sera P{Sn 3} = 1 P{Sn 2} con
P{Sn 2} =
2
X
k=0
FZ (0.5/ 1.5)
= 0.6591.
Luego, P{Sn 3} 0.3409.
de inversion
de Fourier) Sea F una f.d.p. y
caracterstica de
F (a, b] := F (b) F
(a) para a < b. Si h es la funcion
R
F , es decir, h(t) := eitx dF (x), entonces
1
F (a, b] = lim
T 2
eita eitb
h(t)dt
it
(21)
112
Probabilidad
Demostracion.
Como |h(t)| 1,
ita
ita
itb
itb
e
e
e
h(t)
it
it
Z b
itx
e dx
=
a
b a,
de modo que
Z
ita
itb
e
e
dt 2T (b a) < .
h(t)
it
eita eitb
h(t)dt,
it
Z T ita
Z
1
e
eitb
=
eitx dF (x)dt
2 T
it
Z Z T it(xa)
e
eit(xb)
1
dt dF (x)
=
2 T
it
Z Z T
1
sen t(x a) sen t(x b)
=
dt dF (x)
2 T
t
(22)
1 si r > 0,
0 si r = 0,
sgn(r) :=
1 si r < 0.
113
donde
0 si x < a o x > b
1 si a < x < b,
J(x) =
1/2 si x = a o x = b.
Luego
1
lim JT = F (b) F (a) + [F (a) F (a) + F (b) F (b)]
T
2
= F (b) F (a)
de (21).
si F es continua en a y b. Esto completa la demostracion
Supongase
ahora que h es integrable y sea
Z
1
eitx h(t)dt x IR.
f (x) :=
2
f esta bien definida, es continua (por el
Como h es integrable, la funcion
teorema de convergencia dominada) y acotada. Ademas, por el teorema
de Fubini,
Z b
Z b
Z
1
itx
h(t)
e dx dt
f (x)dx =
2
a
a
Z T
1
eita eitb
= lim
h(t)
dt,
T 2 T
it
114
Probabilidad
i.e.,
Z
Demostracion
de la Proposicion
10.3(c): unicidad de la f.c. Por la formula
(21), la f.c. h determina F en todos los puntos de continuidad.
de inversion
Pero, ademas, cada punto en IR es lmite por arriba de puntos de continuidad, as que h determina F en todo punto. 2
La distribucion
normal multivariada
10.14 Notacion.
Un vector siempre se interpretara como matriz columna,
aunque ocasionalmente en el texto lo escribiremos como fila. Luego (de
de producto de matrices) el producto escalar de
acuerdo con la definicion
dos nvectores u = (u1 , . . . , un ) y v = (v1 , . . . , vn ) es
u0 v =
n
X
uj v j = u1 v 1 + + un v n .
j=1
(23)
115
de funcion
multivariada en base a la definicion
caracterstica de un n
vector X:
0
CX (t) := E(eit X ) t = (t1 , . . . , tn ) IRn .
(24)
carac10.15 Teorema. Un nvector aleatorio X es gaussiano ssi su funcion
terstica es de la forma
1
CX (t) = exp(it0 t0 Qt) t IRn ,
2
(25)
Demostracion.
Supongase
que se tiene (25). Sea a IRn un nvector
arbitrario y sea Y := a0 X = a1 X1 + + an Xn . Para demostrar que X
caracterstica de Y es como en
es gaussiano basta verificar que la funcion
Recprocamente, supongase
que X es un vector gaussiano con vector
medio := EX y matriz de covariancia Q := Cov(X). Luego (por la
5.7), para cada nvector a, la v.a. Y := a0 X es una v.a. normal
Definicion
con media y varianza
EY = a0 EX = a0
Var(Y ) = a0 Qa,
caracterstica
respectivamente. De aqu se sigue que (por (12)) la funcion
de Y es
1
CY (u) = exp[iu(a0 ) u2 (a0 Qa)] u IR.
2
En particular, tomando u = 1 vemos que
0
116
Probabilidad
Ejercicios 10
10.1 Sea X una v.a. discreta con valores en un subconjunto de los enteros no negativos, {0, 1, . . .}, y densidad f (k) := P(X = k). La funcion
En cada uno de los casos siguientes demuestre que la f.g.p. tiene el valor
indicado:
(a) X Bin(n, p). GX (t) = (pt + q)n con q := 1 p.
(b) X Geo(p). GX (t) = p/(1 tq) con
q := 1 p
117
10.4 Supongase
que X N (0, 2 ). Use (12) y (6) [o (7)] para verificar
que
E(Xk ) = 0 si k es impar,
= k! k /2k/2 (k/2)! si k
es par.
1 |x|
e
2
para todo
(b) Xn 0 en distribucion.
(c) Cn (t) 1 para todo t IR.
10.7 Se sabe que el 5% de las computadoras fabricadas por una cierta
empresa son defectuosas. Si se seleccionan al azar 100 computadoras de
dicha empresa, calcule la probabilidad de que a lo mas una sea defectuosa
usando:
binomial,
(a) la distribucion
de Poisson a la distribucion
binomial (ver 9.13), y
(b) la aproximacion
(c) el TLC.
118
Probabilidad
11
119
Esperanza condicional
f (x, y)
las densidades marginales de X y Y , respectivamente. Definimos la densidad condicional de Y dado que X = x como
f (y|x) := f (x, y)/fX (x) si fX (x) > 0,
:= 0
si fX (x) = 0.
(1)
Asimismo, la distribucion
condicional de Y dado que X = x es
F (y|x) := P(Y y|X = x) =
f (y 0 |x).
(2)
y 0 y
120
Probabilidad
(4)
(6)
f (y|x) =
1 X
1
fX (x) = 1.
f (x, y) =
fX (x) y
fX (x)
Tambien tenemos el siguiente resultado cuyo inciso (a) se puede interpre de la ley de la probabilidad total en el Teorema
tar como una version
3.5(a).
11.1 Proposicion.
(a) Si X y Y son vv.aa. discretas, entonces
fY (y) =
f (y|x)fX (x),
(7)
f (y|x) fX (x)dx.
(8)
fY (y) =
y (b2 ) E(Y |X = x) = EY
(para Y L1 ).
(9)
121
Demostracion.
(a) Por (1), el lado derecho de (7) resulta
X
f (y|x)fX (x) =
f (x, y) = fY (y).
y f (y|x) =
y fY (y) = EY.
n=0
(b1 ) en (9)
Solucion.
(a) Notese
que, por la condicion
P{SN = x|N = n} = P{Sn = x|N = n} = P{Sn = x}.
(10)
122
Probabilidad
P{SN = x} =
n=0
n=0
P{SN = x, N = n}
P{N = n}P{SN = x|N = n}
[por (10)].
P{N = n}P{Sn = x}
n=0
de (a).
Esto completa la demostracion
(b) Primero observe que
X
E(Sn ) =
x P{Sn = x} = n,
y EN =
n P{N = n}.
(11)
de esperanza,
Ademas, por definicion
X
ESN :=
x P{SN = x}
x
X X
=
x
P{N = n}P{Sn = x}
x
P{N = n}
[por (a)]
x P{Sn = x}
n P{N = n}
[por (11)]
[por (11)]. 2
= EN
11.3 Definicion.
Sean X y Y vv.aa. sobre (, F, P), con Y en L1 . Definimos
la esperanza condicional de Y dada la v.a. X como la v.a.
E(Y |X) : IR
con valores
E(Y |X)() := E(Y |X = x) si X() = x.
123
(b2 ) en (9),
Notese
que, por la condicion
E(Y |X) = EY
si X y Y
son independientes.
(12)
(x, y) IR2 ,
2 /2
x IR.
2 /2r 2
(13)
x IR
(14)
(15)
124
Probabilidad
Finalmente, del inciso (b) del Ejemplo 5.5 recuerdese que X y Y son independientes ssi = 0, en cuyo caso r = 1. Por lo tanto, cuando X y Y son
independientes (13) se reduce a la densidad normal estandar N (0, 1), tal
11.1(b), mientras que [como en (12) o (9)
como se indica en la Proposicion
(b2 )] (14) y (15) se reducen a
E(Y |X = x) = E(Y |X) = EY = 0 x IR.
Por analoga con (7), (8) y con la ley de la probabilidad total en el Teo (16) en el siguiente teorema se le conoce como
rema 3.5(a), a la expresion
ley de la esperanza total en algunos textos se le llama la propiedad de
la esperanza iterada.
11.5 Teorema. Si Y esta en L1 , entonces
(a) para cualquier v.a. X,
EY = E[E(Y |X)].
(16)
En particular,
EY =
es discreta,
(17)
EY =
si X
es continua.
(18)
de
(b) Supongase
que, ademas, X es una v.a. y g : IR IR una funcion
Borel tales que Y y Y g(X) estan en L1 . Entonces
E[Y g(X)|X = x] = g(x)E(Y |X = x)
(19)
(20)
y, por lo tanto,
En particular, si Y = 1 se sigue de (19) y (20) que
E[g(X)|X = x] = g(x) y E[g(X)|X] = g(X)
(21)
125
Demostracion.
(a) Supongase
que X es una v.a. discreta. Luego, usando
de esperanza obtenemos que
(7) y la definicion
EY :=
y fY (y) =
f (y|x)fX (x).
y f (y|x)
y g(x)f (y|x)
= E[Y g(x)|X = x]
= E[Y g(X)|X = x],
[por (3)]
numero
total de artculos defectuosos, calcule EX.
Solucion.
Por (16) o (17).
EX = E[E(X|N )] =
X
n=0
126
Probabilidad
n
k
pk q nk
k = 0, 1, . . . , n,
n
X
k P(X = k|N = n) = n p
(explique).
k=0
Dado un evento A F y una v.a. X, definimos la probabilidad condicional de A dado que X = x como
P(A|X = x) := E(IA |X = x),
(22)
(23)
(24)
X
n=0
127
X
=
P{X = k}
k=n
= q1n
con q1 := 1 p1 .
Por lo tanto
P{X Y } =
n=0
aplicado a la funcion
Z
(B) := E(XIB ) =
B
X dP, B G.
128
Probabilidad
11.9 Convencion.
(25)
129
(26)
130
Probabilidad
(g) Desigualdad de Jensen. Si h : IR IR es convexa y h(X) L1 , entonces h[E(X|G)] E[h(X)|G]. En particular, [E(X|G)]2 E(X2 |G) si
X L2 .
de los incisos (a)(f) del Teorema 11.12 se sigue direcLa demostracion
de esperanza condicional. La demostracion
de
tamente de la definicion
11.12(g) se obtiene del Teorema de la lnea de soporte que dice lo siguiente:
convexa, entonces existen sucesiones de
si h : IR IR es una funcion
numeros
reales an , bn tales que h(x) = supn (an x + bn ) para todo x IR.
Esto significa que h(X) an X + bn para todo n, de modo que
E[h(X)|G] an E(X|G) + bn
c.s.
Por otra parte, usando el Teorema 11.12 es facil dar una interpretacion
de E(X|G) como el mejor estimador de X en el siguiente sentido.
11.13 Definicion.
Considerese el espacio vectorial L2 := L2 (, F, P) con la
de distancia
funcion
k X Y k:= [E(X Y )2 ]1/2
X, Y L2 .
131
b satisface la condicion
b esta en Lo =
11.13(a), es decir, X
Por lo tanto, X
L2 (, G, P). Ahora demostraremos que
b k= min{k X Y k |Y Lo }.
kXX
(27)
(28)
b 2 + 2 E[(X X)(
b X
b Y )].
E(X X)
b X
b Y )] = 0 porque
Pero E[(X X)(
b X
b Y )] = E{E[(X X)(
b X
b Y )|G]}
E[(X X)(
b Y )E(X X|G)}
b
= E{(X
b Y )(X
b X)}
b
= E{(X
= 0.
[por 11.12(b)]
[por 11.12(c)]
[por 11.12(d)]
Y Lo ,
132
Probabilidad
con a1 , . . . , an IR.
de X sobre L es la v.a.
Demuestre que la proyeccion
Z=
n
X
(29)
a
j Yj
j=1
con coeficientes a
j = E(XYj )/j2 para j = 1, . . . , n.
Pn
Solucion.
Sea Y =
j=1
= E(X2 ) +
X
j
a2j E(Yj2 ) 2
aj E(XYj ).
Ejercicios 11
133
()
Demuestre que
Var(Y ) = E[Var(Y |X)] + Var[E(Y |X)].
()
134
Probabilidad
Demuestre que dado el evento {X = x}, con x > 0, la v.a. Y tiene densidad
uniforme sobre el intervalo [0, x].
p
11.6 Demuestre que k X k:= E(X2 ) define una norma sobre L2 , es
decir, (a) k X k 0, y k X k= 0 ssi X = 0; (b) k aX k= |a| k X k a IR; (c)
de k X k= 0 X = 0
k X + Y kk X k + k Y k. (Nota: la demostracion
requiere la Convencion 11.9.)
11.7 Sean X y Y vv.aa. con densidad conjunta
(a) f (x, y) := 2 ey para 0 x y,
(b) f (x, y) := xex(y+1) para x, y 0.
En cada caso calcule (a) las densidades marginales de X y Y , y (b) la densidad condicional y la esperanza condicional de Y dada X.
11.8 Sean X y Y vv.aa. discretas con densidades fX y fY , respectiva fX fY dada
mente. Definimos la convolucion
de fX y fY como la funcion
por
X
(fX fY )(y) :=
fX (x)fY (y x).
x
k = 1, 2, . . . .
135
zx
R
f (y|x)dy,
R
R zx
f (y|x)dy fX (x)dx, y
f (x, z x)dx
2 xy+4y 2 )/2
x, y IR.
136
12
Probabilidad
Martingalas
n = 0, 1, . . . ,
(1)
n = 0, 1, . . . ,
(2)
se dice que el juego esta a favor del jugador o que {Xn } es una submartingala, y la ganancia esperada es no decreciente porque
EXn+1 EXn
n = 0, 1, . . . .
Finalmente, se dice que el juego esta en contra del jugador o que {Xn }
es una supermartingala si
E(Xn+1 |X0 , . . . , Xn ) Xn
n = 0, 1, . . . ,
(3)
12. Martingalas
137
Los conceptos en (1), (2), (3) se pueden extender a colecciones mas generales de vv.aa. como sigue.
12.1 Definicion.
Sea (, F, P) un espacio de probabilidad y T un subconjunto de IR (por ejemplo, T = {0, 1, 2, . . .}, T = [a, b] o T = (, )).
Sea {Xt , t T } una familia de vv.aa. sobre y {Ft , t T } una familia de
subalgebras de F. Decimos que:
(a) {Ft , t T } es una filtracion
de F si la familia es no decreciente, en el
sentido de que
Fs Ft
s, t T, con s < t;
{Ft , t T } si Xt es
(b) la familia {Xt , t T } esta adaptada a la filtracion
Ft medible para todo t T ;
(c) {Xt , t T } es una martingala con respecto a {Ft , t T } (o que
{Xt , Ft , t T } es una martingala) si
de F,
(c1 ) {Ft , t T } es una filtracion
(c2 ) {Xt , t T } esta adaptada a {Ft , t T },
(c3 ) Xt esta en L1 t T , y
(c4 ) E(Xt |Fs ) = Xs s, t T , con s t.
Si la igualdad en (c4 ) se sustituye por o , es decir, para todo s t
E(Xt |Fs ) Xs
o E(Xt |Fs ) Xs ,
En esta seccion
el caso en el que T es un
de vv.aa.,
conjunto de numeros
enteros. Si X := {Xn } es una sucesion
X
X
entonces la familia F := {Fn } con
FX
n := {X0 , . . . , Xn }
n = 0, 1, . . .
(4)
138
Probabilidad
se llama la filtracion
natural de X . Notese
que, efectivamente, {FX
n } es
X
X
(porque Fn Fn+1 para todo n) y que X esta adaptada a
una filtracion
(1)
FX
(porque
Xn es FX
n = 0, 1, . . . ,
(5)
n 0, k 1.
12. Martingalas
139
n
P
(Xk
k=1
si EXn 6= 0.)
EXk ) para n = 1, 2, . . ., es una martingala, aun
(b) Si EXn = 1 para todo n, y Yn := X1 Xn , entonces Y := {Yn } es una
martingala.
Solucion.
(a) Notese
que {X1 , . . . , Xn } = {S1 , . . . , Sn }. (Explique.) Es
12.1 y,
evidente que S satisface las condiciones (c1 ) a (c3 ) de la Definicion
por otra parte, como Sn+1 = Sn + Xn+1 , obtenemos (c4 ) pues
E(Sn+1 |S1 , . . . , Sn ) = E(Sn + Xn+1 |X1 , . . . , Xn )
= Sn + EXn+1
(explique)
= Sn .
natural de Y , de modo que Y
(b) Sea FYn := {Y1 , . . . , Yn } la filtracion
Y
esta adaptada a {Fn }. Ademas, Yn esta en L1 para todo n porque E|Yn | =
E|X1 | E|Xn | < . Finalmente,
E(Yn+1 |Fn ) = E(Yn Xn+1 |Fn )
= Yn E(Xn+1 )
(explique)
= Yn . 2
Por lo tanto, Y es una martingala.
12.4 Proposicion.
(a) Sea {Xn } una martingala y h : IR IR una funcion
convexa tal que h(Xn ) esta en L1 para todo n. Entonces {h(Xn )} es una
submartingala.
convexa, no
(b) Si {Xn } es una submartingala y h es una funcion
decreciente y tal que h(Xn ) esta en L1 para todo n, entonces tambien
{h(Xn )} es una submartingala.
Demostracion.
Sea FX
n := {X1 , . . . , Xn }. Por la desigualdad de Jensen
11.12(g),
X
E[h(Xn+1 )|FX
n ] h[E(Xn+1 |Fn )]
= h(Xn ).
140
Probabilidad
2
de (b) es similar.
Esto demuestra (a). La demostracion
2
Xn
12.5 Ejemplo. Si {Xn } es una martingala, entonces {X+
}
n }, {Xn } y {e
+
son submartingalas para cualquier IR, en donde Xn := max{Xn , 0}.
Asimismo, si {Xn } es una submartingala, entonces tambien lo son {X+
n} y
Xn
{e } para 0.
2
2
1
k=1 E(Xk )/k < , entonces n Sn 0 c.s.
Demostracion.
Sea Yn :=
porque
Pn
k=1
n
X
k=1
n
X
E(X2k )/k 2 +
E(Xj Xk )/jk
j6=k
E(X2k )/k 2
(explique)
k=1
k=1
1X
1
k(Xk /k) = Sn 0 c.s.
n k=1
n
12. Martingalas
141
12.9 Observacion.
(a) Notese
que |Xn | = X+
n + Xn Xn , de modo que
+
E|Xn | EX+
n . Por otra parte, como |Xn | = 2Xn Xn (explique), vemos
que si {Xn } es una submartingala, entonces
+
E|Xn | = 2EX+
n EXn 2EXn EX1 .
X
n=0
Xn ()I{T ()=n} .
(6)
142
Probabilidad
(7)
Ejercicios 12
12.1 Sean X1 , X2 , . . . vv.aa. tales que las sumas Sn := X1 + + Xn
forman una martingala. Demuestre que E(Xi Xj ) = 0 si i 6= j.
12.2 Sean X0 , X1 , . . . vv.aa. en L1 y tales que
E(Xn+1 |X0 , X1 , . . . , Xn ) = aXn + bXn1
n 1,
n
Y
k=1
y P{Xn = 1} = 1 p =: q
n = 1, 2, . . . ,
12. Martingalas
143
y Yn := (q/p)Sn .
para n = 1, 2, . . .
n1
X
k=1
Zn :=
n1
X
k=1
Demuestre que:
(a) {Yn , Fn } es una martingala,
nodecreciente de vv.aa. nonegativas y tales
(b) {Zn } es una sucesion
que Zn es Fn1 medible para n 2, y
(c) Xn = Yn + Zn .
12.8 Demuestre que si {Xn } es una submartingala, entonces tambien lo
es {max(Xn , a)} para cualquier a IR.
de numeros
12.10 (Lema
sucesion
reales tal
Pde Kronecker) Sea {an } una
P
n
1
que la serie n=1 an converge. Entonces n k=1 k ak 0 cuando n .
144
Probabilidad