Probabilidades
Probabilidades
Probabilidades
PROBABILIDAD
Luis Rincon
Departamento de Matematicas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mexico DF
Febrero 2006
Prefacio
El presente texto est
a dirigido a estudiantes de mitad de carrera de las licenciaturas
de matem
aticas, actuara y areas afines. Contiene el material b
asico para un curso
intermedio de probabilidad y tiene como origen las notas de clase del curso semestral
de Probabilidad II impartido por el autor en la Facultad de Ciencias de la UNAM
a lo largo de varios semestres.
El texto contiene una gran cantidad de ejercicios la mayora de los cuales son de tipo
mec
anico, algunos de ellos son muy sencillos y en otros se pide reproducir lo realizado
antes, de modo que el termino ejercicios me parece justo y adecuado. La intencion
es la de crear confianza y soltura por parte del alumno en el manejo de los conceptos
y notaci
on involucrados. El n
umero de ejercicios excede lo que normalmente puede
realizarse en un semestre y el objetivo que siempre tuve en mente estos a
nos fue
el tener un n
umero suficiente de ellos para presentar algunos en clase, dejar otros
para trabajo en casa y asignar algunos otros para preguntas de examen, usando
material ligeramente distinto cada semestre para evitar repeticiones. Los ejercicios
se encuentran regularmente al final de cada secci
on y se han numerado de manera
consecutiva a lo largo del curso.
Al final del texto aparece una lista de referencias que me permito sugerir al lector
consultar para profundizar y a veces precisar en algunos temas. Algunos de estos
textos no han sido referenciados explcitamente pero aparecen en la lista por que en
alg
un momento he obtenido inspiraci
on de ellos.
Agradezco sinceramente a todas aquellas personas, alumnos y profesores, quienes
a traves de sus comentarios y sugerencias han contribuido al mejoramiento de este texto. Cualquier correcci
on o comentario acerca de este trabajo ser
a muy bien
recibido en el correo electr
onico que aparece abajo.
Luis Rinc
on
Febrero 2006
Ciudad Universitaria UNAM
[email protected]
Contenido
1. Espacios de probabilidad
1.1. Espacios de probabilidad .
1.2. -
algebras . . . . . . . . .
1.3. Medidas de probabilidad .
1.4. Independencia de eventos
1.5. Lema de Borel-Cantelli . .
1.6. Ejercicios . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
2. Variables aleatorias
2.1. Variables aleatorias . . . . . .
2.2. Funci
on de distribuci
on . . .
2.3. Tipos de variables aleatorias .
2.4. Integral de Riemann-Stieltjes
2.5. Caractersticas numericas . .
2.6. Distribuciones discretas . . .
2.7. Distribuciones continuas . . .
2.8. Distribuci
on normal . . . . .
2.9. Ejercicios . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
5
16
25
26
27
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
46
49
52
54
58
63
66
68
3. Vectores aleatorios
3.1. Vectores aleatorios . . . . . . . . . . . . . . . . .
3.2. Distribuci
on conjunta . . . . . . . . . . . . . . .
3.3. Densidad conjunta . . . . . . . . . . . . . . . . .
3.4. Distribuci
on marginal . . . . . . . . . . . . . . .
3.5. Distribuci
on condicional . . . . . . . . . . . . . .
3.6. Independencia de variables aleatorias . . . . . . .
3.7. Esperanza de una funci
on de un vector aleatorio
3.8. Covarianza . . . . . . . . . . . . . . . . . . . . .
3.9. Coeficiente de correlaci
on . . . . . . . . . . . . .
3.10. Esperanza y varianza de un vector aleatorio . . .
3.11. Distribuciones multivariadas discretas . . . . . .
3.12. Distribuciones multivariadas continuas . . . . . .
3.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
88
92
94
95
96
97
99
100
103
104
106
106
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4. Esperanza condicional
122
4.1. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.2. Varianza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
estadsticas
. . . . . . . .
. . . . . . . .
. . . . . . . .
de
. .
. .
. .
orden
144
. . . . . . . . . . . . . . 145
. . . . . . . . . . . . . . 152
. . . . . . . . . . . . . . 158
7. Convergencia
7.1. Convergencia puntual . . . . . . . . . . . . . . . .
7.2. Convergencia casi segura . . . . . . . . . . . . . . .
7.3. Convergencia en probabilidad . . . . . . . . . . . .
7.4. Convergencia en media . . . . . . . . . . . . . . . .
7.5. Convergencia en media cuadr
atica . . . . . . . . .
7.6. Convergencia en distribuci
on . . . . . . . . . . . .
7.7. Relaciones generales entre los tipos de convergencia
7.8. Dos resultados importantes de convergencia . . . .
7.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
164
164
165
166
167
167
168
169
173
174
8. Funciones generadoras
8.1. Funci
on generadora de probabilidad
8.2. Funci
on generadora de momentos . .
8.3. Funci
on caracterstica . . . . . . . .
8.4. Ejercicios . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
177
177
180
182
186
9. Teoremas lmite
9.1. Desigualdad de Markov . .
9.2. Desigualdad de Chebyshev .
9.3. Ley de los grandes n
umeros
9.4. Teorema central del lmite .
9.5. Ejercicios . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
194
194
195
196
199
201
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A. Distribuciones de probabilidad
204
B. Formulario
B.1. El alfabeto griego . . . . . . . . . . . . . .
B.2. Imagen inversa . . . . . . . . . . . . . . .
B.3. Funci
on indicadora . . . . . . . . . . . . .
B.4. Resumen de algunos conceptos y f
ormulas
B.5. Tabla de la distribuci
on normal est
andar .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
210
210
210
211
211
215
Captulo 1
Espacios de probabilidad
La teora de la probabilidad es la parte de las matem
aticas que se encarga del estudio
de los fen
omenos o experimentos aleatorios. Se entiende por experimento aleatorio
todo aquel experimento tal que cuando se le repite bajo las mismas condiciones
iniciales, el resultado que se obtiene no siempre es el mismo. A menudo y por muy
diversas razones es necesario aceptar que no es posible predecir el resultado de un
experimento particular y en consecuencia se considera aleatorio. Bajo estas circunstancias, la teora de la probabilidad tiene el objetivo de modelar matem
aticamente
cualquier experimento aleatorio de interes.
1.1.
Espacios de probabilidad
El modelo matem
atico creado durante el primer tercio del siglo XX para estudiar
los experimentos aleatorios es el as llamado espacio de probabilidad. Este modelo
consiste de una terna ordenada, denotada usualmente por (, F, P ), en donde es
un conjunto arbitrario, F es una -
algebra de subconjuntos de , y P es una medida
de probabilidad definida sobre F. Explicamos a continuaci
on brevemente cada uno
de estos elementos.
Espacio muestral. El conjunto es llamado espacio muestral o espacio muestra y
tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuesti
on. No es imprescindible darle esta interpretaci
on al conjunto y
matem
aticamente se le considera entonces un conjunto arbitrario.
-
algebras. Una clase o colecci
on no vaca F de subconjuntos de es una -
algebra si
es cerrada bajo las operaciones de tomar complementos y uniones numerables. A los
elementos de una -
algebra se les llama eventos o conjuntos medibles. En particular,
un evento es simple si consta de a lo m
as un elemento de y es compuesto cuando
consta de dos o m
as elementos de .
Medidas de probabilidad. Una funci
on P definida sobre una -
algebra F y con valores
en el intervalo [0, 1] es una medida de probabilidad si P () = 1 y es -aditiva, es
decir,
P(
An ) =
n=1
P (An )
n=1
Definici
on 1 Un espacio de probabilidad es una terna (, F, P ) en donde es un
conjunto arbitrario, F es una -
algebra de subconjuntos de , y P es una medida
de probabilidad definida sobre F.
1.2.
-
algebras
En esta secci
on se estudia el concepto de -
algebra y se define la mnima -
algebra
generada por una colecci
on arbitraria. Recordemos nuevamente la definici
on de esta
estructura.
Definici
on 2 (-
algebra) Una colecci
on F de subconjuntos de es una -
algebra si cumple las siguientes condiciones.
1. F.
2. Si A F entonces Ac F.
3. Si A1 , A2 , . . . F entonces
n=1
An F.
En palabras, una -
algebra es una colecci
on de subconjuntos de que es no vaca
y cerrada bajo las operaciones de tomar complemento y efectuar uniones infinitas
numerables. En probabilidad elemental el conjunto denota el espacio muestral o
conjunto de posibles resultados de un experimento aleatorio, y los elementos de F
5
naturales como podra ser 2 , la teora de la medida garantiza que por lo menos
el concepto de medida de probabilidad, con los axiomas mencionados antes, puede
obtenerse sobre -
algebras, y por ello es que las estudiamos. En general existen varias -
algebras que pueden asociarse a un conjunto cualquiera no vaco como se
muestra a continuaci
on.
Es f
acil ver que las tres condiciones de la definici
on de -
algebra se cumplen para
cada caso en el ejemplo anterior. La -
algebra del inciso (1) es la -
algebra m
as
peque
na que podemos asociar a un conjunto cualquiera , y la -
algebra del inciso
(3) es la m
as grande. En la siguiente puede observarse gr
aficamente una -
algebra
como una colecci
on de subconjuntos de .
E
D
Una -
algebra es una coleccion F = {A, B, C, D, E, . . .} de subconjuntos
de que es no vaca y cerrada bajo complementos y uniones numerables.
es una -
algebra de subconjuntos de que contiene explcitamente a los conjuntos
A y B. Esto puede verificarse directamente con la ayuda de un diagrama de Venn.
En la secci
on de ejercicios se pueden encontrar algunos otros ejemplos de -
algebras.
El uso de la letra F para denotar una -
algebra proviene del nombre en ingles
field que significa campo. A menudo se usa tambien el termino -campo en
lugar de -
algebra. Observe con cuidado el uso y significado de los smbolos de
contenci
on y pertenencia: A y A F. Demostraremos a continuaci
on algunas
otras propiedades que satisface cualquier -
algebra.
Proposici
on 1 Sea F una -
algebra de subconjuntos de . Entonces
1. F.
2. Si A1 , A2 , . . . F entonces
n=1
An F.
3. Si A, B F entonces A B F.
4. Si A, B F entonces AB F.
Demostraci
on. (1) Como F y F es una colecci
on cerrada bajo complementos
c = F. (2) Si A , A , . . . F entonces Ac , Ac , . . . F. Por lo tanto
entonces
1
2
1
2
S
c
n=1 An F. Tomando complementos y usando las leyes de De Morgan se obtiene
el resultado. Las proposiciones (3) y (4) se siguen de lo demostrado antes y de las
definiciones A B = A B c y AB = (A B) (B A).
La proposici
on anterior establece entonces que las -
algebras son estructuras tambien cerradas bajo las operaciones de diferencia e intersecciones numerables. En la
secci
on de ejercicios pueden encontrarse algunas otras definiciones de -
algebra equivalentes a la que hemos enunciado y que involucran las operaciones de la proposicion
anterior. Una operaci
on de particular importancia es aquella en la que se intersectan
dos -
algebras produciendo una nueva -
algebra. Este es el contenido del siguiente
resultado.
Proposici
on 2 La intersecci
on de dos -
algebras es una -
algebra.
Demostraci
on. Sean F1 y F2 dos -
algebras de subconjuntos de . Entonces F1 F2
7
es aquella colecci
on de subconjuntos de cuyos elementos pertenecen tanto a F1
como a F2 . Demostraremos que F1 F2 es una -
algebra. (1) Como F1 y F2 son algebras entonces F1 y F2 . Por lo tanto F1 F2 . (2) Sea A un elemento
en F1 F2 . Entonces A F1 y A F2 . Por lo tanto Ac F1 y Ac F2 , es decir,
Ac F1 F2 . (3) Sea A1 , A2 , . . . una sucesi
on de
elementos en FS
1 F2 . Entonces
S
A1 , A2S
, . . . F1 y A1 , A2 , . . . F2 . Por lo tanto n=1 An F1 y
n=1 An F2 , es
decir,
A
F
.
1
2
n=1 n
Hemos entonces comprobado que si F1 y F2 son dos -
algebras de un mismo conjunto
algebra de subconjuntos de , naturalmente
entonces F1 F2 es nuevamente una -
m
as peque
na que F1 y F2 en el sentido F1 F2 F1 , F2 . La siguiente pregunta
consiste en verificar si la uni
on de dos -
algebras produce nuevamente una -
algebra.
En este caso la respuesta es negativa. En general no es cierto que la uni
on de dos
-
algebras produce una nueva -
algebra. Veanse por ejemplo los Ejercicios 14 y 15
a este respecto. Por otro lado se puede extender la validez de la proposici
on recien
demostrada a intersecciones m
as generales como indica el siguiente resultado.
Proposici
on 3 La intersecci
on finita, infinita numerable o bien arbitraria de a
lgebras es nuevamente una -
algebra.
Demostraci
on. Sea T un conjunto arbitrario. Suponga
T que para cada t en T se tiene
una -
algebra Ft de subconjuntos de . Sea F = tT Ft . Siguiendo los mismos
pasos que en la demostraci
on anterior es f
acil probar que F es una -
algebra. Observe que como T es un conjunto arbitrario, la -
algebra F es efectivamente una
intersecci
on arbitraria de -
algebras.
El resultado anterior garantiza que la siguiente definici
on tiene sentido.
Definici
on 3 (-
algebra generada) Sea C una colecci
on no vaca de subconjuntos de . La -
algebra generada por C, denotada por (C), es la colecci
on
\
(C) = {F : F es -
algebra y C F}.
Es decir, la colecci
on (C) es la intersecci
on de todas aquellas -
algebras que contienen a C. Por la proposici
on anterior sabemos que (C) es una -
algebra. A (C)
tambien se le llama mnima -
algebra generada por C y el adjetivo mnima es
claro a partir del hecho de que es la -
algebra m
as peque
na que contiene a la colecci
on C. Es decir, si F es una -
algebra que contiene a C entonces forzosamente
(C) F. Observe que C (C) pues a la colecci
on C se le han a
nadido posiblemente algunos otros subconjuntos para convertirla en la -
algebra (C).
8
esta colecci
on no es una -
algebra pero podemos a
nadirle algunos subconjuntos de
para encontrar la -
algebra generada por C. Esto es
(C) = {, A, B, (A B)c , A B, Ac , B c , }.
Proposici
on 4 Sean C1 y C2 dos colecciones de subconjuntos de tales que C1
C2 . Entonces (C1 ) (C2 ).
Demostraci
on. Claramente C1 C2 (C2 ). Entonces (C2 ) es una -
algebra que
contiene a la colecci
on C1 . Por lo tanto (C1 ) (C2 ).
Proposici
on 5 Si F es una -
algebra entonces (F) = F.
Demostraci
on. Sabemos que F (F). Como F es una -
algebra que contiene a F
entonces (F) F. Esto demuestra la igualdad.
Definici
on 4 (
algebra) Una colecci
on F de subconjuntos de es una a
lgebra si
cumple las siguientes condiciones.
1. F.
2. Si A F entonces Ac F.
3. Si A1 , . . . , An F entonces
n
[
k=1
Ak F.
Definici
on 5 (semi
algebra) Una colecci
on F de subconjuntos de es una semi
algebra si cumple las siguientes condiciones.
1. F.
2. Si A, B F entonces A B F.
3. Si A, A1 F son tales que A1 A entonces existen A2 , . . . , An F tales
que
n
[
A=
Ak .
k=1
Los conceptos de -
algebra, algebra y semi
algebra est
an relacionados como se muestra en la siguiente figura. En la secci
on de ejercicios se pide demostrar las implicaciones y no implicaciones que se obtienen de este diagrama.
10
-
algebras
algebras
semialgebras
Relaci
on general entre -
algebras, algebras y semialgebras.
En la siguiente secci
on se estudia un ejemplo importante de una -
algebra de subconjuntos de los n
umeros reales: la -
algebra de Borel.
Conjuntos de Borel
Considere la colecci
on de todos los intervalos abiertos (a, b) de R en donde a b. A
la mnima -
algebra generada por esta colecci
on se le llama -
algebra de Borel de
R y se le denota por B(R).
Definici
on 6 (-
algebra de Borel)
11
[a, b] =
1
1
, b + ).
n
n
(a
n=1
(a, ) =
y
(a, a + n) B(R),
n=1
(b n, b) B(R).
(, b) =
n=1
Por lo tanto
[a, ) =
y
(a
n=1
(, b] =
1
, ) B(R),
n
(, b +
n=1
1
) B(R).
n
De forma an
aloga se puede hacer ver que los intervalos semiabiertos de la forma
[a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan de un solo n
umero
tambien son conjuntos Borelianos pues
{a} =
(a
n=1
1
1
, a + ).
n
n
c) {[a, b) : a b}.
d) {(a, ) : a R}.
e) {(, b) : b R}.
Demostraci
on. Se prueba u
nicamente el primer inciso. El resto de ellos se demuestra
usando el mismo procedimiento. Para demostrar que B(R) = {[a, b] : a b} se
verifican ambas contenciones. Claramente [a, b] B(R), por lo tanto {[a, b] : a
b} B(R). Entonces
{[a, b] : a b} B(R).
Ahora se demuestra
la contenci
on contraria. Sabemos que (a, b) {[a, b] : a b}
S
1
1
pues (a, b) =
[a
+
,
b
].
n=1
n
n Entonces
{(a, b) : a b} {[a, b] : a b}.
13
Sucesiones de eventos
En esta secci
on se estudia el concepto de convergencia de una sucesi
on infinita de
eventos. Para enunciar tal concepto necesitaremos antes la definiciones de lmite
superior y lmite inferior que se establecen a continuaci
on.
Definici
on 8 (Lmite superior e inferior) Para una sucesi
on de eventos {An :
n N} se define el lmite superior y el lmite inferior como sigue
1. lm sup An =
n
2. lm inf An =
n
Ak .
n=1 k=n
\
Ak .
n=1 k=n
Tanto el lmite superior como el lmite inferior son operaciones bien definidas, es
decir, el resultado siempre existe y es u
nico. En cada caso el conjunto resultante es
siempre un evento, es decir, un conjunto medible. Es sencillo comprobar que
lm inf An lm sup An .
n
Definici
on 9 (Convergencia de eventos) Sea {An : n N} una sucesi
on de
eventos. Si existe un evento A tal que
lm inf An = lm sup An = A
n
En textos de habla inglesa a menudo se escribe lm sup An = (An i.o.), en donde i.o. significa
n
infinitely often.
14
Proposici
on 8 Sea {An : n N} una sucesi
on mon
otona de eventos.
1. Si A1 A2 entonces lm An =
n
2. Si A1 A2 entonces lm An =
n
An .
An .
n=1
n=1
Demostraci
on. (1) Como la sucesi
on es creciente,
Ak =
k=n
lm sup An =
n
Ak =
n=1 k=n
Ak . Por lo tanto
k=1
Ak =
n=1 k=1
Ak .
k=1
Ak = An . Entonces
k=n
lm inf An =
n
Ak =
n=1 k=n
An .
n=1
(2) La demostraci
on es completamente an
aloga al inciso anterior. En este caso como
la sucesi
on es decreciente se tiene que
Ak =
k=n
Ak
k=1
Ak = An .
k=n
lm sup An =
n
lm inf An =
n
Ak =
n=1 k=n
\
Ak =
n=1 k=n
15
n=1
{0} = {0}.
n=1
El siguiente resultado establece que a partir de una sucesi
on de eventos puede construirse otra sucesi
on cuyos elementos son ajenos dos a dos y cuya uni
on es la uni
on de
la sucesi
on original. Este procedimiento de separaci
on ser
a de utilidad m
as adelante.
Proposici
on 9 Sea {An : n N} una sucesi
on de eventos. Sea B1 = A1 y para
n 2 defina
n1
[
Ak .
Bn = An
k=1
n=1
Bn =
An .
n=1
Demostraci
on. El inciso (1) es evidente a partir de la definici
on de Bn . Para demostrar (2) suponga n < m, entonces
Bn Bm = (An
= (An
= .
n1
[
k=1
n1
\
k=1
Ak ) (Am
Ack ) (Am
m1
[
k=1
m1
\
Ak )
Ack )
k=1
1.
Entonces
x
A
=
B
.
Por
lo
tanto
x
pertenece
0
n
n
n
0
0
n=1
S
a
n=1 Bn .
1.3.
Medidas de probabilidad
En esta secci
on y en lo que resta del presente captulo se estudian algunas propiedades de las medidas de probabilidad. Empezaremos por recordar nuevamente la
definici
on de este concepto.
16
Definici
on 10 (Medida de probabilidad) Sea (, F) un espacio medible. Una
medida de probabilidad es una funci
on P : F [0, 1] que satisface
1. P () = 1.
2. P (A) 0, para cualquier A F.
3. Si A1 , A2 , . . . F son ajenos dos a dos, esto es, An Am = para n 6= m,
[
X
entonces P (
An ) =
P (An ).
n=1
n=1
17
f (x) dx.
En la siguiente secci
on estudiaremos algunas propiedades generales que cumple toda
medida de probabilidad. Y a lo largo del texto estudiaremos varios modelos particulares para calcular probabilidades.
Propiedades elementales
A partir de los postulados enunciados en la secci
on anterior es posible demostrar una
larga serie de propiedades que cumplen todas las medidas de probabilidad. En esta
secci
on se estudian algunas propiedades elementales y m
as adelante se demuestran
otras propiedades m
as avanzadas.
Proposici
on 10 Sea P una medida de probabilidad. Entonces
1. P (Ac ) = 1 P (A).
2. P () = 0.
3. Si A B entonces P (B A) = P (B) P (A).
4. Si A B entonces P (A) P (B).
5. 0 P (A) 1.
6. P (A B) = P (A) + P (B) P (A B).
Demostraci
on. Para la propiedad (1) expresamos a como la uni
on disjunta A Ac .
Aplicamos P y obtenemos la igualdad requerida. Tomando el caso particular A
igual a en la propiedad (1) obtenemos la propiedad (2). Para demostrar (3) escribimos B = A (B A). Aplicando P obtenemos P (B) P (A) = P (B A).
Como la probabilidad de cualquier evento es un n
umero no negativo de la anterior igualdad obtenemos tambien la propiedad (4). La primera desigualdad de la
propiedad (5) es el segundo axioma y la segunda desigualdad es consecuencia de
18
la propiedad (1) y el primer axioma. Finalmente para demostrar (6) descomponemos el evento A B como la siguiente uni
on de tres eventos disjuntos dos a dos,
A B = (A B) (A B) (B A) = (A A B) (A B) (B A B). Por
lo tanto P (A B) = P (A) P (A B) + P (A B) + P (B) P (A B).
Se estudian a continuaci
on algunas otras propiedades de las medidas de probabilidad.
Proposici
on 11 (Desigualdades de Boole) Sea {An : n N} una sucesi
on de
eventos. Entonces
1. P (
An )
An ) 1
n=1
2. P (
n=1
P (An ).
n=1
P (Acn ).
n=1
Demostraci
on. Para la primera desigualdad tome B1 = A1 y para n 2 defina
Bn = An
n1
[
Ak .
k=1
Entonces {BS
es una sucesi
on de eventos disjuntos dos a dos tales que
n : n N} S
An ) = P (
n=1
Bn )
n=1
n=1
P (Bn )
P (An ).
n=1
Proposici
on 12 Sea {An : n N} una sucesi
on de eventos.
T
1. Si P (An ) = 1 para toda n entonces P (
n=1 An ) = 1.
S
2. Si P (An ) = 1 para alguna n entonces P (
n=1 An ) = 1.
T
3. Si P (An ) = 0 para alguna n entonces P ( n=1 An ) = 0.
19
S
4. Si P (An ) = 0 para toda n entonces P (
n=1 An ) = 0.
Demostraci
on. (1) Por las leyes de De Morgan y la desigualdad de Boole,
P(
n=1
An ) = 1 P (
Acn )
n=1
P (Acn )
n=1
= 1.
[
S
(2) Como An
A
,
1
=
P
(A
)
P
(
An ).
n
n=1 n
(3) Como
n=1 An
An , P (
n=1
n=1
An ) P (An ) = 0.
n=1
An )
P (An ) = 0.
n=1
Continuidad
En esta secci
on se demuestra que las medidas de probabilidad son funciones continuas. Primero se prueba este resultado para dos tipos de sucesiones particulares,
aquellas que son mon
otonas crecientes o decrecientes, y despues se prueba en general.
Empezaremos con el caso de sucesiones crecientes.
Proposici
on 13 Sea {An : n N} una sucesi
on no decreciente de eventos, esto
es, A1 A2 . Entonces
P(
An ) = lm P (An ).
n
n=1
Demostraci
on. Como An An+1 tenemos que P (An ) P (An+1 ). Por lo tanto la
sucesi
on numerica {P (An ) : n N} es no decreciente y acotada superiormente por
20
An =
n=1
Bn .
n=1
Por lo tanto
P(
An ) = P (
n=1
Bn )
n=1
P (Bn )
n=1
= P (B1 ) +
= P (A1 ) +
= P (A1 ) +
n=2
n=2
X
n=2
P (Bn )
P (An An1 )
P (An ) P (An1 )
= P (A1 ) + lm
m
X
n=2
P (An ) P (An1 )
lm P (Am ).
Las medidas de probabilidad tambien son continuas respecto de sucesiones no crecientes de eventos. Esta afirmaci
on es el contenido del siguiente resultado que se
demuestra a partir de la proposici
on anterior.
Proposici
on 14 Sea {An : n N} una sucesi
on no creciente de eventos, esto es,
A1 A2 . Entonces
P(
An ) = lm P (An ).
n
n=1
21
Demostraci
on. Observe que si An An+1 entonces Acn Acn+1 . Por la proposicion
anterior,
[
P(
Acn ) = lm P (Acn ).
n=1
n=1
An ) = lm (1 P (An )),
n
Ejemplo. (El problema del mono) Un mono escribe caracteres al azar en una
m
aquina de escribir. Cu
al es la probabilidad de que eventualmente el mono obtenga
exactamente, y sin ning
un error, las obras completas de Shakespeare?
Demostramos a continuaci
on que la probabilidad de este raro evento es uno. Imagine
entonces que un mono escribe caracteres al azar en una m
aquina de escribir, y que
lo hace de manera continua generando una sucesi
on lineal de caracteres. Sea m el
total de caracteres disponibles y sea N el total de caracteres de los que constan
las obras completas de Shakespeare. Segmentamos el arreglo lineal de caracteres
generados por el mono en bloques disjuntos de N caracteres, uno despues de otro,
y observamos si alg
un bloque contiene las obras de Shakespeare. Por ejemplo,
Xku
aT s} hwW pzq Ot
|
{z
|
{z
}
N
Para cada n
umero natural k defina el evento Ak correspondiente a que el k-esimo
bloque contiene exactamente y sin error alguno las obras completas de Shakespeare.
Observe que los eventos Ak son independientes pues los bloques no se sobreponen,
adem
as P (Ak ) = (1/m)N = p. Defina Bk = Ac1 Ack , que indica el evento de
que el mono no obtenga exito en los primeros k bloques. Observe que Bk+1 Bk ,
es decir la sucesi
on es decreciente, por lo tanto
lm Bk =
k=1
22
Bk ,
en donde el evento
k=1 Bk se interpreta como aquel en el que el mono nunca tiene
exito. Entonces
P(
k=1
Bk ) = lm P (Bk ) = lm (1 p)k = 0.
k
Proposici
on 15 (Continuidad de la probabilidad) Sea {An : n N} una
sucesi
on de eventos convergente al evento A. Entonces
lm P (An ) = P (A).
Demostraci
on. La prueba se basa en las siguientes dos desigualdades
a) lm sup P (An ) P (lm sup An ).
n
Como la sucesi
on de eventos {An : n N} es convergente al evento A entonces
lm sup An = lm inf An = A.
n
= P (A)
= P (lm inf An )
n
lm inf P (An ).
n
k=n
23
Ak ),
S
en donde {
on de eventos decreciente. Tomando el
k=n Ak : n N} es una sucesi
lmite superior se obtiene
lm sup P (An ) lm sup P (
n
lm P (
= P ( lm
= P(
Ak )
k=n
Ak )
k=n
Ak )
k=n
[
Ak )
n=1 k=n
= P (lm sup An ).
n
(b) Como
k=n Ak
An entonces
P(
k=n
Ak ) P (An ),
T
en donde {
on creciente de eventos. Tomando el lmite
k=n Ak : n N} es una sucesi
inferior se obtiene
lm inf P (An ) lm inf P (
n
= P ( lm
= P(
Ak )
k=n
lm P (
k=n
Ak )
Ak )
k=n
\
Ak )
n=1 k=n
= P (lm inf An ).
n
\
lm An =
An .
n
n=1
Entonces
P(
An ) = P ( lm An )
n
n=1
24
lm P (An )
1
lm ( )n
2
= 0.
=
T
El evento
n=1 An se interpreta como aquel resultado en el que siempre se obtiene
un n
umero par en una sucesi
on infinita de lanzamientos. Hemos demostrado que la
probabilidad de tal evento es cero. Observe que el argumento presentado funciona
de la misma forma cuando el evento A es cualquier subconjunto propio de . Por
ejemplo, si A = {1, 2, 3, 4, 5} la probabilidad de nunca obtener 6 es cero.
1.4.
Independencia de eventos
En esta secci
on se define el importante concepto de independencia de eventos. Este
es un concepto central en la teora de la probabilidad y uno de sus rasgos distintivos.
De manera natural la independencia aparecer
a con frecuencia a lo largo del texto a
partir de ahora, y nos ayudar
a a simplificar el c
alculo de probabilidades. La definicion
matem
atica es la siguiente.
Definici
on 11 (Independencia) Dos eventos A y B son independientes y se
escribe A B cuando
P (A B) = P (A)P (B).
Aceptar la hip
otesis de que dos eventos son independientes es una cuesti
on de apreciaci
on por parte del observador. Puede interpretarse en el sentido de que la ocurrencia de uno de los eventos no proporciona informaci
on que modifique la probabilidad
de ocurrencia del segundo evento. Contrario a alguna primera concepci
on intuitiva
err
onea, el hecho de que dos eventos sean independientes no implica que ellos sean
ajenos. La proposici
on contraria tampoco es v
alida, dos eventos ajenos no necesariamente son independientes. La definici
on de independencia puede extenderse a
colecciones finitas e incluso infinitas de eventos del siguiente modo.
25
Definici
on 12 (Independencia) Los eventos A1 , . . . , An son independientes si
se cumplen todas y cada una de las siguientes condiciones
P (Ai Aj ) = P (Ai )P (Aj ), i, j distintos.
(1.1)
(1.2)
1.5.
Lema de Borel-Cantelli
Proposici
on 16 (Lema de Borel-Cantelli) Sea {An : n N} una sucesi
on de
eventos y defina A = lm sup An .
n
1. Si
n=1
2. Si A1 , A2 , . . . son independientes y
n=1
26
Demostraci
on. (1) Para cada n en N,
P (A) P (
k=n
Ak )
P (Ak ).
k=n
P
Como
n=1 P (An ) < , el lado derecho tiende a cero cuando n tiende a infinito.
Esto implica que P (A) = 0. (2) S
Es suficiente demostrar que para todo n
umero
k=n
Ak ) 1 P (
m
[
Ak )
k=n
= P(
m
\
k=n
m
Y
Ack )
[1 P (Ak )]
k=n
exp(
m
X
P (Ak )).
k=n
Para obtener la u
ltima expresi
onPse usa la desigualdad 1 x ex , v
alida para
cualquier n
umero real x. Como
P
(A
)
=
,
el
lado
derecho
tiende
a cero
n
n=1
S
Ejemplo.[El problema del mono, nuevamente] El problema de encontrar la probabilidad de que un mono que escribe caracteres al azar eventualmente escriba las
obras completas de Shakespeare puede resolverse tambien usando el lema de BorelCantelli. Considere nuevamente la divisi
on por bloques de longitud N ,
x ,...,x ,x
, . . . , x2N , . . .
| 1 {z N} | N +1 {z
}
N
de eventos independientes tales que k=1 P (Ak ) = k=1 (1/m) = . Entonces
por la segunda parte del lema de Borel-Cantelli, P (lm supk Ak ) = 1. Ahora solo
hay que recordar que el evento lm supn An corresponde a aquel en el que una
infinidad de eventos Ak ocurren. Es decir, con probabilidad uno, el mono tiene, no
una, sino una infinidad de exitos!
1.6.
Ejercicios
-
algebras
2. (Definici
on alternativa de -
algebra) Demuestre que F es una -
algebra de
subconjuntos de si y solo si
a) F.
b) A F Ac F.
c) A1 , A2 , . . . F
n=1
An F.
3. (Definici
on alternativa de -
algebra) Demuestre que F es una -
algebra de
subconjuntos de si y solo si
a) F.
b) A, B F A B F.
\
c) A1 , A2 , . . . F
An F.
n=1
4. Sean A1 , A2 , . . . , An eventos de un espacio muestral . Demuestre que el conjunto de elementos de que pertenecen a exactamente k de estos eventos es
un evento, 1 k n.
5. Sea F una -
algebra de subconjuntos de . Demuestre que la colecci
on
F c = {F c : F F}
es una -
algebra. Compruebe adem
as que F c = F.
6. Sea (, F, P ) un espacio de probabilidad. Defina la colecci
on
G = {F F : P (F ) = 0 o P (F ) = 1}.
Demuestre que G es una sub -
algebra de F, es decir, G es una -
algebra y
G F.
7. Sea = {a, b, c, d} y sean A = {a, b} y B = {b, c}. Defina la colecci
on C =
{A, B}. Claramente C no es una -
algebra. Encuentre (C).
8. Sea F una -
algebra de subconjuntos de y sea A un elemento de F. Demuestre que la colecci
on {A F : F F} es una -
algebra de subconjuntos
on.
de A. Se usan los smbolos FA o A F para denotar a esta colecci
9. Sea un conjunto no numerable. Demuestre que la siguiente colecci
on es una
-
algebra,
F = {A : A o Ac es finito o numerable}.
10. Sean 1 y 2 dos conjuntos arbitrarios y sea X : 1 2 una funci
on en
donde (2 , F2 ) es un espacio medible. Demuestre que la siguiente coleccion es
una -
algebra de subconjuntos de 1 ,
X 1 F2 = {X 1 F : F F2 }.
28
b) A o A .
c) F o F.
d) A F o A F.
-
algebras,
algebras y semi
algebras
29. (Definici
on alternativa de a
lgebra) Demuestre que F es una algebra de subconjuntos de si y solo si cumple las siguientes condiciones
a) F.
b) A, B F A B F.
Conjuntos de Borel
33. Defina con precisi
on a la -
algebra de Borel de R y de Rn .
34. Demuestre que los conjuntos (a, b] y [a, b) con a b son Borel medibles.
35. Demuestre que N, Z y Q son elementos de B(R).
36. Demuestre que el conjunto de n
umeros irracionales es un conjunto de Borel de
R.
37. Demuestre que B(R) = {[a, b] : a b}.
38. Demuestre que B(R) = {(a, b] : a b}.
39. Demuestre que B(R) = {[a, b) : a b}.
40. Demuestre que B(R) = {(a, ) : a R}.
41. Demuestre que B(R) = {[a, ) : a R}.
42. Demuestre que B(R) = {(, b) : b R}.
43. Demuestre que B(R) = {(, b] : b R}.
30
1
c) { ( n+1
, n1 ] : n N } = { (0, n1 ] : n N }.
Sucesiones de eventos
48. Sea {An : n N} una sucesi
on de eventos. Demuestre que
a) lm sup An es un evento.
n
b) lm inf An es un evento.
n
c) lm inf An lm sup An .
n
b) lm inf An lm inf Bn .
n
c) lm sup An lm inf Bn .
n
An .
An .
n=1
n=1
31
b) lm An = A lm 1An = 1A .
n
56. Calcule el lmite superior e inferior para cada una de las siguientes sucesiones
de eventos. Determine en cada caso si la sucesi
on es convergente.
a) An = (1/n, 2 + (1)n ).
b) An = {(x, y) : x2 + y 2 (1 + 1/n)n }.
c) An = {(x, y) : x2 + y 2 2 + sen(n/2)}.
a) lm (An B) = A B.
n
b) lm (An B) = A B.
n
c) lm (An B) = A B.
n
d) lm (An B) = AB.
n
a) lm lm (An Bm ) = A B.
n m
32
b) lm lm (An Bm ) = A B.
n m
c) lm lm (An Bm ) = A B.
n m
d) lm lm (An Bm ) = AB.
n m
b) lm (An Bn ) = A B.
n
c) lm (An Bn ) = A B.
n
d) lm (An Bn ) = AB.
n
Medidas de probabilidad
63. Escriba de manera completa la definici
on de espacio de probabilidad, definiendo claramente cada uno de sus componentes.
64. Determine completamente un espacio de probabilidad (, F, P ) para el experimento aleatorio de
a) lanzar una moneda equilibrada.
b) lanzar un dado equilibrado.
c) escoger al azar un n
umero real dentro del intervalo unitario [0, 1].
d) extraer dos bolas de una urna en donde hay dos bolas blancas y dos
negras.
e) lanzar una moneda honesta hasta obtener las dos caras.
65. Defina con precisi
on el concepto de medida de probabilidad.
66. Sea {xn : n N} una sucesi
on de n
umeros reales.
P Sea {an : n N} otra
sucesi
on de n
umeros reales no negativos tal que
n=1 an = 1. Demuestre que
la funci
on P : B(R) [0, 1] definida de la siguiente forma es una medida de
probabilidad.
X
P (A) =
an 1(xn A) (n).
n=1
a) P (A) =
2/3n .
nA
b) P (A) =
1/2n .
nA
kA
b) P (A) =
2k
.
n(n + 1)
(1 1/k).
kA
71. Considere el espacio medible ((0, 1), B(0, 1)). Demuestre en cada caso que P
es una medida de probabilidad. Para cada A B(0, 1) defina
Z
a) P (A) =
2x dx.
A
Z
3
b) P (A) =
x dx.
A 2
72. Probabilidad condicional. Sea (, F, P ) un espacio de probabilidad y sea B un
evento con probabilidad estrictamente positiva. Demuestre que la probabilidad
condicional definida para cada A en F como sigue
P (A|B) =
P (A B)
,
P (B)
Propiedades elementales
75. Demuestre que
a) P (Ac ) = 1 P (A).
b) 0 P (A) 1.
34
a) P (A B) = P (A) P (A B).
b) P (B A) = P (B) P (A).
P (A B) P (A C) P (B C)
+P (A B C).
n
[
Ai ) =
i=1
n
X
i=1
P (Ai )
i<j<k
X
i<j
P (Ai Aj )
P (Ai Aj Ak )
+ (1)n+1 P (A1 An )
83. Demuestre que
P(
n
\
Ai ) =
i=1
n
X
i=1
P (Ai )
i<j<k
X
i<j
P (Ai Aj )
P (Ai Aj Ak )
(1)n P (A1 An )
84. Demuestre que P (
n
\
k=1
Ak ) 1
n
X
P (Ack ).
k=1
b) P (A B) = P (A B) + P (B A).
c) P (A) > 0 = P (A B) > 0.
g) P (A) = 0 = P (A B) = 0.
h) P (A) = 0 = P (A B) = 0.
i) P (A B) = 0 = P (A) = 0.
j ) P (A B) = 0 = P (A) = 0.
k ) P (A) = 1 = P (A B) = 1.
l) P (A) = 1 = P (A B) = 1.
m) P (A B) = 1 = P (A) = 1.
n) P (A B) = 1 = P (A) = 1.
P (B|An )P (An ).
n=1
89. Se lanza una moneda tantas veces como indica un dado previamente lanzado.
Calcule la probabilidad de que
a) se obtengan ambas caras de la moneda igual n
umero de veces.
b) se obtenga una misma cara siempre.
90. Teorema de Bayes. Sea (, F, P ) un espacio de probabilidad y sea {A1 , A2 , . . .}
una partici
on de tal que para cada n 1, el conjunto An es un elemento de
F y P (An ) > 0. Demuestre que para cualquier evento B tal que P (B) > 0 y
cualquier m 1 fijo,
P (Am |B) =
P (B|Am )P (Am )
.
X
P (B|An )P (An )
n=1
n
[
i=1
Ai )
n
X
i=1
P (Ai )
X
i<j
P (Ai Aj ).
n
[
i=1
n
n
X
X
Ai ) mn{
P (Ai )
P (Ai Aj )}.
j
i=1
i=1
i6=j
Continuidad
94. Se lanza una moneda honesta una infinidad de veces. Demuestre que la probabilidad de que eventualmente cada una de las dos caras aparezca es uno.
Sugerencia: proceda como en el ejemplo 1.3.
Independencia de eventos
95. Demuestre que A y B son independientes si y solo si
a) A y B c lo son.
b) Ac y B lo son.
c) Ac y B c lo son.
96. Demuestre que A1 , . . . , An son independientes si y solo si Ac1 , . . . , Acn lo son.
97. Sean A1 , A2 , A3 eventos. Mediante un contraejemplo demuestre que
a) independencia dos a dos no implica independencia tres a tres.
b) independencia tres a tres no implica independencia dos a dos.
98. Demuestre que un evento A es independiente consigo mismo si y solo si P (A) =
0 o P (A) = 1.
99. Sea A un evento tal que P (A) = 0 o P (A) = 1. Demuestre que A es independiente de cualquier otro evento B.
100. Mediante un contraejemplo demuestre que
a) A, B independientes =
6
A, B ajenos.
b) A, B ajenos =
6
A, B independientes.
b) A B B A.
c) A B, B C A C.
37
n
[
k=1
Ak ) = 1
n
Y
[1 P (Ak )].
k=1
Ak
k=n
Cn =
Ak .
k=n
Lema de Borel-Cantelli
105. Enuncie con precisi
on el lema de Borel-Cantelli.
38
Captulo 2
Variables aleatorias
En este captulo se estudian los conceptos de variable aleatoria, funci
on de distribuci
on, funci
on de densidad y esperanza. Se estudian tambien algunas distribuciones
de probabilidad de variables aleatorias discretas y continuas particulares. A partir
de ahora y en el resto del curso consideraremos como elemento base un espacio de
probabilidad (, F, P ).
2.1.
Variables aleatorias
Definici
on 14 (Variable aleatoria) Una variable aleatoria es una funci
on X :
R tal que para cualquier conjunto Boreliano B, se cumple que el conjunto
X 1 B es un elemento de F.
Gr
aficamente una variable aleatoria puede representarse de la siguiente forma.
39
X()
X 1
X 1 B
Se justifica a continuaci
on las razones tecnicas por las cuales se le pide a una funci
on X : R que cumpla la condici
on de medibilidad. Recordemos que P es
una medida de probabilidad definida sobre el espacio medible (, F). Si X es una
variable aleatoria entonces podemos trasladar la medida de probabilidad P al espacio medible (R, B(R)) del siguiente modo. Si B es un conjunto Boreliano definimos
PX (B) = P (X 1 B), lo cual es consistente pues el conjunto X 1 B es un elemento
de F, dominio de definici
on de P . La funci
on PX : B(R) [0, 1] resulta ser una medida de probabilidad y se le llama por tanto la medida de probabilidad inducida
por la variable aleatoria X. De este modo se construye el espacio de probabilidad
(R, B(R), PX ).
Si B es un conjunto Boreliano, se usan los smbolos X 1 B y (X B) para denotar
el conjunto { : X() B}. Por ejemplo el conjunto { : X() [0, )}
puede ser denotado por X 1 [0, ) o (X [0, )), o simplemente por (X 0),
incluyendo los parentesis. Veamos otro ejemplo. Si (a, b) es un intervalo de la recta
40
real, se puede usar el smbolo X 1 (a, b) o (X (a, b)) o bien (a < X < b) para
denotar el conjunto { : X() (a, b)}. Para hacer la escritura m
as corta,
a menudo se omite el argumento de una v.a. X y se omite tambien el termino
variable aleatoria para X asumiendo, en la mayora de las veces, que lo es.
Para comprobar que una funci
on X : R es realmente una variable aleatoria,
la definici
on requiere verificar la condici
on X 1 B F para cualquier conjunto Boreliano B. En muy pocos casos tal condici
on puede comprobarse de manera tan
general. La siguiente proposici
on establece que no es necesario demostrar la condici
on de medibilidad para cualquier conjunto Boreliano B, sino que es suficiente
tomar intervalos de la forma (, x] para cada x en R. Este resultado, como uno puede imaginar, es de suma utilidad para demostrar que una funci
on dada es variable
aleatoria. Lo usaremos con frecuencia en el resto del captulo.
Proposici
on 17 Una funci
on X : R es una variable aleatoria si y solo si el
1
conjunto X (, x] es un elemento de F para cada x en R.
Demostraci
on.
() Si X es variable aleatoria entonces claramente se cumple que para cualquier
n
umero real x el conjunto X 1 (, x] es un elemento de F.
()Ahora suponga que para cada real x, el conjunto X 1 (, x] es un elemento
de F. Sean B y C las colecciones
y
B = {B B(R) : X 1 B F},
C = {(, x] : x R}.
[
[
[
Bn B(R) y
X 1 Bn = X 1
Bn
B(R) y X 1 Bn F. Entonces
F. Es decir,
n=1
n=1
n=1
n=1
Bn B.
41
Adem
as de la condici
on anterior para demostrar que una funci
on es variable aleatoria existen otras condiciones igualmente equivalentes y u
tiles. Por ejemplo X es
variable aleatoria si para cada x en R, X 1 (, x) F, o X 1 (x, ) F, o
X 1 [x, ) F. Cualquiera de estas condiciones es necesaria y suficiente para que
X sea variable aleatoria. Tambien la condici
on X 1 (a, b) F para cualquier intervalo (a, b) de R es equivalente para que X sea variable aleatoria. La demostracion
de todas estas aseveraciones es completamente an
aloga al caso demostrado arriba y
se pide desarrollar los detalles en la secci
on de ejercicios.
Considere los espacios medibles (, F) y (R, B(R)). Si X es una funci
on de en R
entonces se denota por (X) a la mnima -
algebra de subconjuntos de respecto
de la cual X es variable aleatoria. Es decir,
(X) = {X 1 B : B B(R)}.
Es sencillo probar que tal colecci
on de im
agenes inversas es efectivamente una algebra. Claramente X es variable aleatoria si y solo si (X) F.
A continuaci
on se demuestra que algunas operaciones b
asicas entre variables aleatorias producen nuevas variables aleatorias. Suponga que (, F, P ) es un espacio de
probabilidad dado. Todas las variables aleatorias que se consideran a continuacion
est
an definidas sobre este espacio de probabilidad.
Proposici
on 18 La funci
on constante X = c es una v.a.
Demostraci
on. Sea B un elemento cualquiera de B(R). Para la funci
on constante
/ B. En ambos casos el
X = c se tiene que X 1 B = si c B, y X 1 B = si c
conjunto X 1 B es un elemento de F, por lo tanto X = c es v.a.
Proposici
on 19 Si X es v.a. y c es una constante entonces cX es v.a.
Demostraci
on. Comprobaremos que para cada n
umero real x, el conjunto (cX)1 (, x]
es un elemento de F. Tenemos tres casos. Si c > 0 entonces el conjunto (cX x) =
(X x/c) es un elemento de F pues X es v.a. Si c < 0 entonces nuevamente el
conjunto (cX x) = (X x/c) es un elemento de F pues X es v.a. Finalmente si
c = 0 entonces es claro que cX = 0 es v.a. por la proposici
on anterior.
Proposici
on 20 Si X y Y son v.a.s entonces X + Y es v.a.
Demostraci
on. Probaremos que para cada n
umero real x, el conjunto (X+Y )1 (x, ) =
(X + Y > x) es un elemento de F. Para ello usaremos la igualdad
[
(X + Y > x) =
(X > r) (Y > x r).
(2.1)
rQ
42
Proposici
on 21 Si X y Y son v.a.s entonces XY es v.a.
Demostraci
on. Suponga primero el caso particular X = Y . Entonces necesitamos
probar que para todo n
umero real x, el conjunto (X 2 x) es un elemento de F.
1
1
1
y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y ) (Y < 0),
y
43
que es un elemento de F puesto que Y es v.a. Por otro lado, si y < 0 tenemos que
(
1
1
1
y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y , Y < 0)
y
1
= ( Y < 0).
y
1
1
1
0) = ( 0, Y > 0) ( 0, Y < 0)
Y
Y
Y
= (Y < 0)
= (Y < 0).
Esto demuestra que 1/Y es v.a. Como el producto de v.a.s es nuevamente una v.a.
concluimos entonces que X/Y es v.a.
Proposici
on 23 Si X y Y son variables aleatorias entonces m
ax{X, Y } y mn{X, Y }
tambien lo son.
Demostraci
on. Para cualquier n
umero real x,
(m
ax{X, Y } x) = (X x, Y x) = (X x) (Y x).
An
alogamente
(mn{X, Y } x) = (X x, Y x) = (X x) (Y x).
En ambos casos los conjuntos del lado derecho son elementos de F.
si 0, 1 B,
{1,
1}
si 0
/ B y 1 B,
|X|1 B =
{0}
si 0 B y 1
/ B,
si 0, 1
/ B.
Demostraci
on. Este resultado se sigue directamente de las siguientes igualdades.
Para cualquier n
umero real x,
(sup Xn x) =
n
(Xn x) F,
n=1
(nf Xn x) =
(Xn x) F.
n=1
Proposici
on 26 Sea {Xn : n N} una sucesi
on de v.a.s. Entonces lm sup Xn y
n
Demostraci
on. Esto es consecuencia de la proposici
on anterior pues
1. lm sup Xn = nf (sup Xn ) es v.a.,
n
nk
nk
Demostraci
on. Si lm sup Xn y lm inf Xn coinciden entonces lm Xn existe y es el
n
45
2.2.
Funci
on de distribuci
on
Definici
on 15 (Funci
on de distribuci
on) La funci
on de distribuci
on de una
variable aleatoria X es la funci
on F (x) : R [0, 1] definida como sigue
F (x) = P (X x).
Proposici
on 28 Sea F (x) la funci
on de distribuci
on de una variable aleatoria.
Entonces
1.
2.
lm F (x) = 1.
x+
lm F (x) = 0.
Demostraci
on. (1) Sea {xn : n N} una sucesi
on cualquiera de n
umeros reales
creciente a infinito y sean los eventos An = (X xn ). Entonces {An : n N} es
una sucesi
on de eventos creciente cuyo lmite es . Por la propiedad de continuidad
lm F (xn ) = lm P (An ) = P () = 1.
Dado que R es un espacio metrico, lo anterior implica que F (x) converge a uno
46
Por lo tanto, F (x) converge a cero cuando x tiende a menos infinito. (3) Para
x1 x2 ,
F (x1 ) F (x1 ) + P (x1 < X x2 )
El recproco de la proposici
on anterior es v
alido y justifica la importancia de la
funci
on de distribuci
on. Se enuncia a continuaci
on este interesante resultado cuya
demostraci
on omitiremos y puede encontrarse por ejemplo en [9].
Proposici
on 29 Sea F (x) : R [0, 1] una funci
on que satisface las cuatro propiedades de la proposici
on anterior. Entonces existe un espacio de probabilidad y
una variable aleatoria cuya funci
on de distribuci
on es F (x).
Definici
on 16 (Funci
on de distribuci
on) Una funci
on F (x) : R [0, 1] es
llamada funci
on de distribuci
on si cumple las cuatro propiedades anteriores.
Proposici
on 30 Para cualquier n
umero x y para cualesquiera n
umeros reales a
b,
1. P (X < x) = F (x).2
2. P (X = x) = F (x) F (x).
3. P (X (a, b]) = F (b) F (a).
4. P (X [a, b]) = F (b) F (a).
5. P (X (a, b)) = F (b) F (a).
6. P (X [a, b)) = F (b) F (a).
Demostraci
on. (1) Sea {xn : n N} una sucesi
on cualquiera de n
umeros reales no
negativos y decreciente a cero. Sea An el evento (X axn ). Entonces {An : n N}
es una sucesi
on de eventos decreciente al evento (X < a). Por la propiedad de
continuidad
P (X < a) =
=
lm P (An )
lm F (a xn )
= F (a).
Para (2) simplemente se escribe
P (X = x) = P (X x) P (X < x)
= F (x) F (x).
La expresi
on F (x) significa el lmite por la izquierda de la funci
on F en el punto x.
48
F (x)
1
b
bc
P (X = x) = F (x) F (x)
x
La probabilidad P (X = x) es el tama
no
del salto de la funci
on F en el punto x.
= P (X (a, b))
= P (X [a, b)).
Es decir, incluir o excluir los extremos de un intervalo no afecta el c
alculo de la probabilidad de dicho intervalo. Por lo tanto para cualquier n
umero x, P (X = x) = 0.
Finalizamos esta secci
on con un resultado interesante cuya prueba es sorprendentemente simple.
Proposici
on 31 Toda funci
on de distribuci
on tiene a lo sumo un n
umero numerable de discontinuidades.
Demostraci
on. Sea D el conjunto de puntos de discontinuidad de una funci
on de
distribuci
on F (x). Para cada n
umero natural n defina los subconjuntos
1
1
< F (x) F (x) }.
n+1
n
S
Cada conjunto Dn tiene a lo sumo n elementos. Como D =
n=1 Dn se concluye
que D es numerable.
Dn = {x D :
2.3.
Definici
on 17 (Variable aleatoria discreta) La variable aleatoria X se llama
discreta si su correspondiente funci
on de distribuci
on F (x) es una funci
on constante por pedazos. Sean x1 , x2 , . . . los puntos de discontinuidad de F (x). En cada uno
de estos puntos el tama
no de la discontinuidad es P (X = xi ) = F (xi ) F (xi ) >
0. A la funci
on f (x) que indica estos incrementos se le llama funci
on de probabilidad de X y se define como sigue
P (X = x) si x = x1 , x2 , . . .
f (x) =
(2.2)
0
otro caso.
Definici
on 18 (Variable aleatoria continua) La variable aleatoria X se llama continua si su correspondientes funci
on de distribuci
on F (x) es una funci
on
continua. Cuando existe una funci
on integrable f 0 tal que para cualquier valor
de x,
Z
x
F (x) =
f (u) du,
(2.3)
Adem
as la probabilidad de que X tome un valor en el intervalo (a, b) es el area bajo
la funci
on de densidad sobre dicho intervalo como se muestra en la Figura ??. La
probabilidad es la misma si se incluyen o excluyen los extremos del intervalo.
f (x)
P (X (a, b)) =
f (x) dx
Ejemplo. (Una variable aleatoria que no es discreta ni continua.) Sea X una variable aleatoria con funci
on de distribuci
on
1 ex
F (x) =
0
si x > 0,
si x 0.
cuya gr
afica es
F (x)
1
x
Funci
on de distribuci
on de X.
con gr
afica
1
F (y) =
1 ex
0
51
si y M,
si 0 < y < M,
si x 0.
F (y)
b
bc
y
M
Funci
on de distribuci
on de Y .
Esta funci
on no es constante por pedazos pues es creciente en el intervalo (0, M ) y
tampoco es continua pues tiene una discontinuidad en y = M . Por lo tanto Y es
una variable aleatoria que no es discreta ni continua.
2.4.
Integral de Riemann-Stieltjes
En esta secci
on se define la integral de Riemann-Stieltjes. Esta integral es de la
forma
Z b
h(x) dF (x)
a
n
X
i=1
Sn =
n
X
i=1
si h(x) < N,
N
h(x) si |h(x)| N,
hN (x) =
N
si h(x) > N.
y entonces
h(x) dF (x) = lm
N a
hN (x) dF (x),
a,b a
X
h(x) dF (x) =
h(xi )p(xi ).
a
i=1
2.5.
Caractersticas num
ericas
Se estudian a continuaci
on algunas caractersticas numericas asociadas a variables
aleatorias. Se definen los conceptos de esperanza, varianza y m
as generalmente
los momentos de una variable aleatoria. Para ello haremos uso de la integral de
Riemann-Stieltjes.
Esperanza
La esperanza de una variable aleatoria es un n
umero que representa el promedio
ponderado de los posible valores que toma la variable aleatoria y se calcula como se
indica a continuaci
on.
Definici
on 19 (Esperanza) Sea X con funci
on de distribuci
on F (x) y sea g :
R R una funci
on Borel medible. La esperanza de g(X) denotada por E[g(X)]
se define como el n
umero
Z
g(x) dF (x)
E[g(X)] =
A la esperanza se le conoce tambien con el nombre de: media, valor esperado, valor
promedio o valor medio, y en general se usa la letra griega (mu) para denotarla.
54
La integral o suma arriba mencionados pueden no existir y en ese caso se dice que la
variable aleatoria no tiene esperanza finita. El Ejercicio 163 en la p
agina 75 contiene
algunos ejemplos que ilustran esta situaci
on.
xf (x) =
x=1
X
x
= 2.
2x
x=1
Ejemplo. Sea X continua con funcion de densidad f (x) = 2x para 0 < x < 1.
Entonces
E(X) =
M
as generalmente,
n
E(X ) =
xf (x) dx =
x f (x) dx =
1
0
x 2x dx =
xn 2x dx =
2
.
3
2
.
n+2
Proposici
on 32 Sean X y Y con esperanza finita y sea c una constante. Entonces
1. E(c) = c.
2. E(cX) = cE(X).
3. Si X 0 entonces E(X) 0.
4. Si X Y entonces E(X) E(Y ).
5. E(X + Y ) = E(X) + E(Y ).
Las demostraciones de las primeras cuatro propiedades son sencillas pues se siguen
directamente de la definicion. La u
ltima propiedad es f
acilmente demostrable en el
55
caso discreto y ello se ha dejado como ejercicio. Esta propiedad en el caso general
ser
a demostrada m
as adelante.
Varianza
La varianza de una variable aleatoria es una medida del grado de dispersi
on de los
diferentes valores tomados por la variable aleatoria. Su definici
on es la siguiente.
Definici
on 20 (Varianza) La varianza de X, denotada por Var(X), se define
como el n
umero no negativo
Var(X) = E (X E(X))2
cuando esta esperanza existe.
56
Proposici
on 33 Sean X y Y con varianza finita y sea c una constante. Entonces
1. Var(X) 0.
2. Var(c) = 0.
3. Var(cX) = c2 Var(X).
4. Var(X + c) = Var(X).
5. Var(X) = E(X 2 ) E 2 (X).
La demostraci
on de estas propiedades es sencilla pues todas ellas se siguen directamente de la definici
on y de la propiedad lineal de la esperanza. Otras propiedades
de la varianza aparecen m
as adelante.
Momentos
Los momentos de una variable aleatoria son n
umeros que representan alguna caracterstica de la distribuci
on de probabilidad asociada. Bajo ciertas condiciones el
conjunto de momentos determinan de manera u
nica a la distribuci
on de probabilidad.
Definici
on 21 (Momentos) Sea X una variable aleatoria con esperanza y sea
n un n
umero natural. Cuando existe, el n
umero
1. E(X n ) es el n-esimo momento de X.
2. E|X|n es el n-esimo momento absoluto de X.
3. E[(X )n ] es el n-esimo momento central de X.
4. E|X |n es el n-esimo momento central absoluto de X.
5. E[X(X 1) (X n + 1)] es el n-esimo momento factorial de X.
57
tribuci
on de probabilidad de la misma. Por ejemplo, si X es tal que E(X), E(X 2 ), . . .
son todos finitos y si se cumple que la serie
n
X
t
n=0
n!
E(X n )
2.6.
Distribuciones discretas
En esta secci
on se estudian algunas distribuciones discretas de probabilidad de uso
com
un. En el apendice A al final del libro aparecen algunas otras distribuciones de
probabilidad.
Distribuci
on uniforme discreta
La variable aleatoria X tiene una distribuci
on uniforme sobre el conjunto {x1 , . . . , xn }
si la probabilidad de que X tome cualquiera de estos valores es 1/n. Esta distribucion
surge en espacios de probabilidad equiprobables, esto es, en situaciones en donde se
tienen n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir.
Los juegos de lotera justos son un ejemplo donde puede aplicarse esta distribucion.
on de probabilidad es
Se escribe X unif{x1 , . . . , xn } y su funci
si x = x1 , . . . , xn ,
n
f (x) =
0
otro caso.
Gr
aficamente
f (x)
1
5
x
Funci
on de probabilidad unif{1, 2, 3, 4, 5}.
58
Es f
acil ver que
n
E(X) =
1X
xi ,
n
i=1
y Var(X) =
n
1X
(xi E(X))2 .
n
i=1
Distribuci
on Bernoulli
Un ensayo Bernoulli es un experimento aleatorio con u
nicamente dos posibles resultados, llamados genericamente exito y fracaso, y con probabilidades respectivas p y
1 p. Se define la variable aleatoria X como aquella funci
on que lleva el resultado
exito al n
umero 1 y el resultado fracaso al n
umero 0. Entonces se dice que X tiene
una distribuci
on Bernoulli con par
ametro p (0, 1). Se escribe X Ber(p) y la
correspondiente funci
on de probabilidad es
si x = 0,
1p
f (x) =
p
si x = 1,
0
otro caso,
cuya gr
afica es
f (x)
b
0.7
0.3
x
0
Funci
on de probabilidad Ber(p) con p =0.7.
Distribuci
on binomial
Suponga que se realizan n ensayos independientes Bernoulli en donde la probabilidad
de exito en cada uno de ellos es p (0, 1). Si denotamos por E el resultado exito y
por F el resultado fracaso entonces el espacio muestral consiste de todas las posibles
sucesiones de longitud n de caracteres E y F. Usando el principio multiplicativo, es
f
acil ver que el conjunto tiene 2n elementos. Si ahora se define la variable aleatoria
59
X como el n
umero de exitos en cada una de estas sucesiones entonces X toma los
valores 0, 1, . . . , n y se dice que X tiene una distribuci
on binomial con par
ametros
n y p. Se escribe X bin(n, p) y su funci
on de probabilidad es
n
si x = 0, 1, . . . , n.
px (1 p)nx
x
f (x) =
0
otro caso.
En las siguientes gr
aficas se muestra el comportamiento de esta funci
on.
f (x)
0.3
f (x)
0.3
b
b
0.2
b
0.1
b
0.2
n = 10
p = 0.3
b
0.1
b
b
b
1 2 3 4 5 6 7 8 9 10
n = 10
p = 0.5
b
b
1 2 3 4 5 6 7 8 9 10
Funci
on de probabilidad bin(n, p).
Distribuci
on geom
etrica
Suponga que se tiene una sucesi
on infinita de ensayos independientes Bernoulli en
donde la probabilidad de exito en cada uno de ellos es p (0, 1). Se define X como
el n
umero de fracasos antes de obtener el primer exito. Se dice entonces que X tiene
una distribuci
on geometrica con par
ametro p. Se escribe X geo(p) y su funcion
de probabilidad es
f (x) =
p(1 p)x
cuya gr
afica es del siguiente estilo
60
si x = 0, 1, . . .
otro caso,
f (x)
0.4
0.3
b
0.2
0.1
9 10
Funci
on de probabilidad geo(p) con p =0.4.
Distribuci
on Poisson
La variable aleatoria discreta X tiene una distribuci
on Poisson con par
ametro > 0
y se escribe X Poisson() si su funci
on de probabilidad es
e
x!
f (x) =
si x = 0, 1, . . .
otro caso.
La gr
afica de esta funci
on es de la siguiente forma.
f (x)
0.3
0.2
b
b
0.1
b
b
Funci
on de probabilidad Poisson() con = 2.
61
Distribuci
on binomial negativa
Suponga una sucesi
on infinita de ensayos independientes Bernoulli en donde la probabilidad de exito en cada ensayo es p (0, 1). Sea X el n
umero de fracasos antes
de obtener el r-esimo exito. Se dice entonces que X tiene una distribuci
on binomial negativa con par
ametros r y p. Se escribe X bin neg(r, p) y su funci
on de
probabilidad es
r+x1
pr (1 p)x
si x = 0, 1 . . .
x
f (x) =
0
otro caso.
b b b b b
0.04
0.02
10
15
20
b b
b b
b b
b b b
b
25
30
Funci
on de probabilidad bin neg(r, p) con r = 3 y p =0.2.
Distribuci
on hipergeom
etrica
Suponga que se tiene un conjunto de N objetos de los cuales K son de una primera
clase y N K son de una segunda clase. Suponga que de este conjunto se toma una
muestra de tama
no n sin reemplazo y en donde el orden de los objetos seleccionados
no importa. Se define X como el n
umero de objetos de la primera clase contenidos en
la muestra seleccionada. Entonces X puede tomar los valores 0, 1, 2, . . . , n, suponiendo n K. Decimos que X tiene una distribuci
on hipergeometrica con par
ametros
62
K A N K A
x
nx
0
1
si x = 0, 1, . . . , n
N
A
f (x) =
0
otro caso.
Gr
aficamente
f (x)
0.4
b
b
0.3
0.2
0.1
N = 20
K=7
n=5
b
b
b
Funci
on de probabilidad hipergeo(N, K, n).
2.7.
Distribuciones continuas
Distribuci
on uniforme continua
La variable aleatoria X tiene distribuci
on uniforme en el intervalo (a, b) y se escribe
X unif(a, b), cuando su funci
on de densidad es
f (x) =
1
ba
si x (a, b),
otro caso.
63
Gr
aficamente
f (x)
1
ba
bc
bc
Funci
on de densidad unif(a, b).
En este caso es inmediato verificar que E(X) = (a + b)/2 y Var(X) = (b a)2 /12.
Distribuci
on exponencial
La variable continua X tiene una distribuci
on exponencial con par
ametro > 0 y
se escribe X exp() cuando tiene funci
on de densidad
f (x) =
ex
0
si x > 0,
si x 0,
cuya gr
afica es
f (x)
x
Funci
on de densidad exponencial().
Distribuci
on gama
La variable aleatoria continua X tiene distribuci
on gama con par
ametros n > 0 y
> 0 si su funci
on de densidad es
64
(x)n1 x
(n)
f (x) =
si x > 0,
si x 0.
La gr
afica de esta funci
on se muestra a continuaci
on.
f (x)
1
2
x
1
Funci
on de densidad gama(n, ) con n = 5 y = 3.
(n) =
tn1 et dt
d) (1/2) = .
Distribuci
on beta
La variable continua X tiene distribuci
on beta con par
ametros a > 0 y b > 0, y se
escribe X beta(a, b) cuando su funci
on de densidad es
B(a, b)
f (x) =
0
otro caso.
65
En la siguiente gr
afica se ilustra la forma de esta funci
on para varios valores de los
par
ametros.
f (x)
3
a=2
b=6
a=6
b=2
a=4
b=4
a=1
b=1
x
1
Funci
on de densidad beta(a, b).
(a)(b)
.
(a + b)
En este caso
E(X) =
Var(X) =
2.8.
a
,
a+b
ab
.
(a + b + 1)(a + b)2
Distribuci
on normal
f (x)
Funci
on de densidad N(, 2 ).
X
N(0, 1).
Demostraci
on. Para cualquier x R,
FZ (x) = P (
X
x) = P (X + x) = FX ( + x).
1
2
Por lo tanto fZ (x) = fX ( + x) =
ex /2 .
2
Es tambien f
acil demostrar que el recproco del resultado anterior es v
alido. Com
unmente se usa la letra Z para denotar una variable aleatoria con distribuci
on normal
est
andar. En particular la funci
on (x) denota la funci
on de distribuci
on de una
variable aleatoria normal est
andar, es decir, (x) = P (Z x). Gr
aficamente
(x)
Area
cubierta por la funci
on de distribuci
on (x).
67
Distribuci
on log normal
Si X tiene distribuci
on N(, 2 ) entonces Y = eX tiene una distribuci
on log normal(, 2 )
y su funci
on de densidad es
(ln y )2
1
exp
si y > 0,
2 2
y 2 2
f (y) =
0
si y 0.
La gr
afica de esta funci
on es
f (y)
0.025
y
5
10
15
20
25
Funci
on de densidad log normal(, 2 ) con = 3 y 2 = 2.
2.9.
Ejercicios
Variables aleatorias
68
69
128. Sean A y B dos eventos, y sean 1A y 1B las correspondientes funciones indicadoras. Directamente de la definici
on demuestre que las funciones 1A + 1B y
1A 1B son variables aleatorias.
129. Sean X y Y dos variables aleatorias. Demuestre que los conjuntos (X = Y ),
(X Y ), (X > Y ) y (X 6= Y ) son eventos. Sugerencia: Proceda como en la
f
ormula (2.1) de la p
agina 42.
130. Sea X una variable aleatoria y g : (R, B(R)) (R, B(R)) una funci
on Borel
medible. Demuestre que g(X) = g X : R es tambien una variable
aleatoria.
Sugerencia: Demuestre que la colecci
on B = {B B(R) : g1 B B(R)}
coincide con B(R) usando los siguientes dos resultados: (1) Dada una funci
on
continua de R en R, la imagen inversa de un conjunto abierto es nuevamente
un conjunto abierto. (2) Todo conjunto abierto de R distinto del vaco puede
expresarse como una uni
on numerable de intervalos abiertos.
131. Sea X una v.a. Demuestre que
a) Y = eX es v.a.
b) Y = sen X es v.a.
c) Y = cos X es v.a.
132. Sea X : R una funci
on. Proporcione un ejemplo en el que X 2 sea variable
aleatoria pero X no lo sea.
133. Sea X : R una funci
on. Proporcione un ejemplo en el que X 2 sea variable
aleatoria pero |X| no lo sea.
134. Sean X1 , . . . , Xn v.a.s. Demuestre que
n
X
= 1
a) X
Xi
n
es v.a.
i=1
70
b)
S2
1 X
2
=
(Xi X)
n1
es v.a.
i=1
135. Sea X una variable aleatoria y sean a < b dos constantes. Demuestre que las
siguientes funciones son variables aleatorias.
X si X < a,
a) Y =
a si X a.
a si X < a,
X si a X b,
b) Y =
b si X > b, .
X si |X| a,
c) Y =
0 si |X| > a.
136. Sea (, F, P ) un espacio de probabilidad y sea X : R una variable
aleatoria. Demuestre que la colecci
on {X 1 B : B B(R)} es una sub algebra de F.
137. Sean (1 , F1 ) y (2 , F2 ) dos espacios medibles y sea X : (1 , F1 ) (2 , F2 )
una funci
on medible. Suponga que P : F1 [0, 1] es una medida de probabilidad. Demuestre que
P X 1 : F2 [0, 1]
es tambien una medida de probabilidad. A la medida P X 1 se le llama
medida de probabilidad inducida por X.
Funci
on de distribuci
on
138. Demuestre que las siguientes funciones son de distribuci
on.
a) F (x) = 1 ex para x > 0.
si x < 1,
0
c) F (x) =
(x + 1)/2 si x [1, 1],
1
si x > 1.
b) F (x) + G(x).
c) F (x)G(x).
141. Sea X con funci
on de distribuci
on
(
F (x) =
si x < 2,
4
1 2
x
si x 2.
0.2
0.5
F (x) =
0.9
si
si
si
si
si
x < 0,
0 x < 1,
1 x < 3,
3 x < 4,
x 4.
b)
lm F (x) = 0.
d) F (x+) = F (x).
c) P (x X y) = F (y) F (x).
a) G(x) = [F (x)]n .
b) G(x) = 1 [1 F (x)]n .
148. Sea X con funci
on de distribuci
on F (x). Diga falso o verdadero. Demuestre
en cada caso.
a) F (x) = P (X < x) + P (X = x).
b) 1 F (x) = P (X x).
g) Y = |X|.
h) Y = X.
i) Y = sen X.
a si X < a,
b) Y =
X si a X b,
b si X > b.
X si |X| a,
c) Y =
0 si |X| > a.
151. Sean F (x) y G(x) dos funciones de distribuci
on continuas y estrictamente
crecientes. Demuestre que
a) si F (x) G(x) entonces F 1 (y) G1 (y).
b) si X tiene funci
on de distribuci
on F (x) entonces Y = G1 (F (X)) tiene
funci
on de distribuci
on G(x).
c) si F (x) G(x) entonces existen variables aleatorias X y Y cuyas funciones de distribuci
on son F (x) y G(x) respectivamente, y son tales que
X Y . Sugerencia: Use el inciso anterior.
73
e) f (x) = cxe2x
f ) f (x) =
cx2
para x > 0.
para x > 1.
cex
para x R.
(1 + ex )2
h) f (x) = cx(1 x) para 0 < x < 1.
c
para 0 < x < 1.
i) f (x) =
1 x2
c
j ) f (x) =
para x R.
1 + x2
g) f (x) =
153. Demuestre que las siguientes funciones son de densidad. Encuentre la correspondiente funci
on de distribuci
on y demuestre que satisface las propiedades
de toda funci
on de distribuci
on. Grafique ambas funciones.
a) f (x) = 2x para x [0, 1].
3
b) f (x) = x2 para x [1, 1].
2
1
c) f (x) = 1 x para x [0, 2].
2
2
d) f (x) = 2 x para x [0, m] con m > 0.
m
1
e) f (x) =
para x [0, 1/2].
(1 x)2
1
f ) f (x) = e|x| para x R.
2
154. Demuestre que las siguientes funciones son de distribuci
on. Encuentre la correspondiente funci
on de densidad y compruebe que efectivamente es una funci
on de densidad. Grafique ambas funciones.
0 si x < 0,
a) F (x) =
1 si x 0.
0 si x 0,
b) F (x) =
x si 0 < x < 1,
1 si x 1.
ex
c) F (x) =
.
1 + ex
Z x
1
d) F (x) =
e|u| du.
2
74
1
fX ((y b)/a).
|a|
Integral de Riemann-Stieltjes
158. Sea F (x) una funci
on de distribuci
on absolutamente continua. Demuestre que
para cualesquiera n
umeros naturales n y m
Z
m
F n (x) dF m (x) =
.
n+m
Esperanza
159. Calcule la esperanza de X cuya funci
on de densidad es
a) f (x) = 1/5 para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x! para x = 0, 1, 2, . . .
c) f (x) = |x| para 1 < x < 1.
162. Sean X y Y discretas ambas con esperanza finita. Demuestre que E(X + Y ) =
E(X) + E(Y ).
163. Demuestre que no existe la esperanza de X cuando su funci
on de densidad es
75
1
para x = 1, 2, . . .
x(x + 1)
3
b) f (x) = 2 2 para x Z \ {0}.
x
c) f (x) = 1/x2 para x > 1.
1
d) f (x) =
para x R.
(1 + x2 )
a) f (x) =
Demuestre que
E(X) =
E(X|Ai )P (Ai ).
i=1
a) lm
1ik
169. Sea X discreta con valores 0, 1, . . . y con esperanza finita. Demuestre que
E(X) =
n=1
P (X n).
(n 1)1An X <
n=1
76
n=1
n1An .
n=1
P (X n) E(X) < 1 +
n=1
P (X n).
Gr
aficamente estas integrales pueden interpretarse como indica la siguiente
figura.
F (x)
1
+
b)
lm xF (x) = 0.
Varianza
176. Calcule la varianza de X cuya funci
on de densidad es
a) f (x) = 1/5 para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x! para x = 0, 1, 2, . . .
c) f (x) = |x| para 1 < x < 1.
177. Sean X y Y con varianza finita y sea c una constante. Demuestre las siguientes
propiedades de la varianza.
77
a) Var(X) 0.
b) Var(c) = 0.
c) Var(cX) = c2 Var(X).
d) Var(X + c) = Var(X).
e) Var(X) = E(X 2 ) E 2 (X).
178. Sea X con valores en [a, b]. Demuestre que
a) a E(X) b.
Momentos
183. Calcule el n-esimo momento de X cuya funci
on de densidad es
a) f (x) = 1/5 para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x! para x = 0, 1, 2, . . .
c) f (x) = |x| para 1 < x < 1.
187. Sea X discreta con valores 0, 1, . . . y con segundo momento finito. Demuestre
que
X
E(X 2 ) =
(2n 1)P (X n).
n=1
si x > 1,
n+1
x
f (x) =
0
otro caso.
Distribuci
on uniforme discreta
192. Sea X con distribuci
on unif{1, . . . , n}. Demuestre que
a) E(X) = (n + 1)/2.
b) E(X 2 ) = (n + 1)(2n + 1)/6.
c) Var(X) = (n2 1)/12.
193. Se escogen al azar y de manera independiente dos n
umeros a y b dentro del
conjunto {1, . . . , n}. Demuestre que la probabilidad de que el cociente a/b sea
menor o igual a uno es (n + 1)/2n.
79
Distribuci
on Bernoulli
194. Compruebe que la funci
on de densidad de la distribuci
on Ber(p) efectivamente
lo es. Obtenga adem
as la correspondiente funci
on de distribuci
on. Grafique
ambas funciones.
195. Sea X con distribucion Ber(p). Demuestre que
a) E(X) = p.
b) E(X n ) = p para n 1.
c) Var(X) = p(1 p).
Distribuci
on binomial
196. Use el teorema del binomio para comprobar que la funci
on de densidad de la
distribuci
on bin(n, p) efectivamente lo es.
197. Sea X con distribucion bin(n, p). Demuestre que
a) E(X) = np.
b) E(X 2 ) = np(1 p + np).
c) Var(X) = np(1 p).
P (X = x).
1p x+1
b) P (X = x 1)P (X = x + 1) P 2 (X = x).
a) P (X = x + 1) =
200. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de que cada
cara caiga exactamente 3 veces.
201. Se lanza una moneda equilibrada 2n veces. Calcule la probabilidad de que
ambas caras caigan el mismo n
umero de veces.
Distribuci
on geom
etrica
202. Compruebe que la funci
on de densidad de la distribuci
on geo(p) efectivamente
lo es.
203. Sea X con distribucion geo(p). Demuestre que
a) E(X) = (1 p)/p.
b) Var(X) = (1 p)/p2 .
80
Distribuci
on Poisson
207. Compruebe que la funci
on de densidad de la distribuci
on Poisson() efectivamente lo es.
208. Sea X con distribuci
on Poisson(). Demuestre que
a) E(X) = .
b) E(X 2 ) = ( + 1).
c) Var(X) = .
d) E(X 3 ) = E(X + 1)2 .
209. Sean X y Y independientes ambas con distribuci
on Poisson con par
ametros 1
y 2 respectivamente. Demuestre que X+Y tiene distribuci
on Poisson(1 +2 ).
210. Sea X con distribucion Poisson(). Demuestre que
P (X = x).
x+1
b) P (X = x 1)P (X = x + 1) P 2 (X = x).
a) P (X = x + 1) =
81
Distribuci
on binomial negativa
213. Compruebe que la funci
on de densidad de la distribuci
on bin neg(r, p) efectivamente lo es.
214. Sea X con distribucion bin neg(r, p). Demuestre que
a) E(X) = r(1 p)/p.
Distribuci
on hipergeom
etrica
215. Compruebe que la funci
on de densidad de la distribuci
on hipergeo(N, K, n)
efectivamente lo es.
216. Sea X con distribuci
on hipergeo(N, K, n). Demuestre que cuando N, K y N
K tienden a infinito de tal forma que K/N p y (N K)/N (1 p)
entonces
n
P (X = x)
px (1 p)nx .
x
Distribuci
on uniforme continua
217. Compruebe que la funci
on de densidad de la distribuci
on unif(a, b) efectivamente lo es. Calcule adem
as la correspondiente funci
on de distribuci
on. Grafique ambas funciones.
218. Sea X con distribucion unif(a, b). Demuestre que
a) E(X) = (a + b)/2.
bn+1 an+1
b) E(X n ) =
.
(n + 1)(b a)
c) Var(X) = (b a)2 /12.
219. Sea X con distribuci
on unif(0, 1). Demuestre que E(X n ) = 1/(n + 1).
220. Sea X con distribucion unif(1, 1). Demuestre que
1
si n es par,
n+1
n
E(X ) =
0
si n es impar.
b) Y = 4X(1 X).
Distribuci
on exponencial
223. Compruebe que la funci
on de densidad de la distribuci
on exp() efectivamente
lo es.
224. Sea X con distribuci
on exp(). Demuestre que
a) F (x) = 1 ex para x > 0.
Distribuci
on gama
230. Compruebe que la funci
on de densidad de la distribuci
on gama(n, ) efectivamente lo es. Verifique adem
as que esta distribuci
on se reduce a la distribucion
exp() cuando n = 1.
231. Sea a > 0. Demuestre que si X se distribuye gama(n, ) entonces aX se
distribute gama(n, /a).
232. Sea X con distribuci
on gama(n, ). Demuestre que la funci
on de distribucion
de X es, para x > 0,
n1
X
(x)j
F (x) = 1
ex
.
j!
j=0
b) E(X m ) =
(m + n)
para m = 1, 2, . . .
m (n)
c) Var(X) = n/2 .
234. Demuestre las siguientes propiedades de la funci
on gama.
a) (n + 1) = n(n).
b) (n + 1) = n! para n entero.
c) (2) = (1) = 1.
d) (1/2) = .
1 3 5 (2n 1)
e) (n + 1/2) =
para n entero.
2n
Distribuci
on beta
235. Compruebe que la funci
on de densidad de la distribuci
on beta(a, b) efectivamente lo es. Verifique adem
as que esta distribuci
on se reduce a la distribuci
on
unif(0, 1) cuando a = b = 1.
236. Sea X con distribucion beta(a, b). Demuestre que
a
.
a+b
B(a + n, b)
b) E(X n ) =
.
B(a, b)
ab
.
c) Var(X) =
(a + b + 1)(a + b)2
a) E(X) =
84
h) B(1/2, 1/2) = .
239. Sea X con distribuci
on beta(1/2, 1/2). En este caso se dice que X tiene una
distribuci
on arcoseno.
a) Calcule y grafique f (x).
b) Demuestre directamente que f (x) es una funci
on de densidad.
c) Demuestre directamente que E(X) = 1/2 y Var(X) = 1/8.
240. Sea X con distribuci
on beta(a, b). Demuestre que para a > 0 y b = 1,
0 si x 0,
F (x) =
xa si 0 < x < 1,
1 si x 1.
241. Sea X con distribuci
on beta(a, b). Demuestre que para a = 1 y b > 0,
si x 0,
0
F (x) =
1 (1 x)b si 0 < x < 1,
1
si x 1.
Distribuci
on normal
243. Demuestre que la funci
on de densidad de la distribuci
on N(, 2 )
a) es efectivamente una funci
on de densidad.
b) es simetrica respecto de x = .
c) alcanza su m
aximo en x = .
d) tiene puntos de inflexi
on en x = .
244. Sea X con distribuci
on N(, 2 ). Demuestre que E(X) = y Var(X) = 2 .
245. Sea X con distribucion N(, 2 ). Demuestre que
0
n
E|X | =
1 3 5 (n 1) n
si n es impar,
si n es par.
si n es impar,
0
n!
E(X n ) =
si n es par.
n/2
2 (n/2)!
85
para x > 0.
Distribuci
on log normal
254. Demuestre que la funci
on de densidad de una distribuci
on log normal(, 2 )
efectivamente lo es.
255. Sea X con distribucion log normal(, 2 ). Demuestre que
a) E(X) = exp( + 2 /2).
b) Var(X) = exp(2 + 2 2 ) exp(2 + 2 ).
c) E(ln X) = .
d) Var(ln X) = 2 .
86
Captulo 3
Vectores aleatorios
En este captulo se extiende el concepto de variable aleatoria con valores reales
as algunos conceptos
a variables aleatorias con valores en Rn . Se estudian adem
importantes relacionados. Recuerde que en este captulo y a lo largo del texto se
tiene siempre como elemento base un espacio de probabilidad (, F, P ).
3.1.
Vectores aleatorios
Definici
on 22 (Vector aleatorio) Un vector aleatorio es una funci
on X :
Rn tal que para cualquier conjunto B en B(Rn ), se cumple que X 1 B es un elemento de F.
(X1 , . . . , Xn )
87
Se demuestra a continuaci
on que la condici
on que aparece en la definici
on anterior
es equivalente a solicitar que cada coordenada del vector sea una variable aleatoria.
Proposici
on 35 Una funci
on X = (X1 , . . . , Xn ) : Rn es un vector aleatorio
si y solo si cada coordenada es una variable aleatoria.
Demostraci
on. Sea (X1 , . . . , Xn ) un vector aleatorio. Entonces la imagen inversa
de cualquier conjunto de Borel de Rn es un elemento de la -
algebra del espacio de
probabilidad. En particular, la imagen inversa del conjunto B pertenece
a F para cualquier Boreliano B de R. Pero esta imagen inversa es simplemente
X11 B. Esto demuestra que X1 es variable aleatoria. De manera an
aloga se procede
con las otras coordenadas del vector. Suponga ahora que cada coordenada de una
funci
on (X1 , . . . , Xn ) : Rn es una variable aleatoria. Considere la coleccion
B = {B B(Rn ) : (X1 , . . . , Xn )1 B F}. Como cada coordenada es una variable
aleatoria, los conjuntos de Borel de Rn de la forma B1 Bn , en donde cada Bi
es un Boreliano de R, es un elemento de la colecci
on B. Entonces
B(R) B(R) B B(Rn ).
Es f
acil demostrar que la colecci
on B es una -
algebra. Asi que
(B(R) B(R)) B B(Rn ).
Pero ambos extremos de esta ecuaci
on coinciden. De modo que B = B(Rn ) y por lo
tanto la funci
on (X1 , . . . , Xn ) es un vector aleatorio.
En consecuencia es correcto definir un vector aleatorio simplemente como un vector
de variables aleatorias. Para simplificar la escritura donde sea posible se usan u
nicamente vectores aleatorios bidimensionales, esto es, de la forma (X, Y ). En la mayora
de los casos las definiciones y resultados son f
acilmente extendidos a dimensiones
mayores.
Se dice que el vector (X, Y ) es discreto si cada coordenada es una variable aleatoria
discreta y es continuo en caso de que cada coordenada lo sea.
3.2.
Distribuci
on conjunta
88
Definici
on 23 (Funci
on de distribuci
on conjunta) La funci
on de distribuci
on de un vector (X, Y ), denotada por F (x, y) : R2 [0, 1], se define como
sigue
F (x, y) = P (X x, Y y).
El n
umero F (x, y) es entonces la probabilidad de que el vector aleatorio tome alg
un
valor en la regi
on (, x] (, y], la cual se muestra a continuaci
on.
(x, y)
El n
umero F (x, y) = P (X x, Y y) es
la probabilidad asociada a la region sombreada.
En palabras, la funci
on F (x, y) es la probabilidad de que X sea menor o igual a x y
al mismo tiempo Y sea menor o igual a y. Esto es simplemente la probabilidad del
evento (X x) (Y y). A la funci
on F (x, y) se le conoce tambien como funci
on
de distribuci
on bivariada de X y Y . Cuando sea necesario especificarlo se escribe
FX,Y (x, y) en lugar de F (x, y), y es evidente la forma de extender la definicion
para el caso de un vector aleatorio de m
as de dos coordenadas. Las funciones de
distribuci
on conjunta satisfacen propiedades semejantes al caso unidimensional. Se
estudian a continuaci
on algunas de ellas.
Proposici
on 36 La distribuci
on conjunta F (x, y) satisface las siguientes propiedades.
1.
2.
x,y
lm
x,y
b2
a2
a1
b1
A diferencia del caso unidimensional, las propiedades (1) a (4) no son suficientes
para asegurar que una funci
on F (x, y) asigna probabilidad no negativa a cualquier
rect
angulo. Por ejemplo el Ejercicio 258 en la p
agina 107 muestra una situacion
en donde esa condici
on falla. Por tanto en el caso de dimensi
on dos y superior, es
necesario asegurarse de que tal propiedad se cumple.
Definici
on 24 (Funci
on de distribuci
on conjunta) Una funci
on cualquiera
F (x, y) : R2 [0, 1], no necesariamente definida en terminos de un vector aleatorio, es una funci
on de distribuci
on conjunta si cumple con las cinco propiedades
enunciadas en la proposici
on anterior.
on de
Para tres dimensiones se dice que F (x1 , x2 , x3 ) : R3 [0, 1] es una funci
distribuci
on si cumple las primeras cuatro propiedades anteriores y la quinta se
90
a3
a2
a1
b2
b1
x
Regi
on (a1 , b1 ] (a2 , b2 ] (a3 , b3 ].
M
as generalmente, una funci
on F (x1 , . . . , xn ) : Rn [0, 1] es una funci
on de distribuci
on si cumple las primeras cuatro propiedades anteriores y adicionalmente para
cualesquiera n
umeros reales a1 < b1 , a2 < b2 , . . ., an < bn ,
X
(1)#a F (x1 , . . . , xn ) 0,
xi {ai ,bi }
en donde #a es el n
umero de veces que alguna de las variables xi toma el valor ai en
la evaluaci
on de la funci
on F . Nuevamente la suma corresponde a la probabilidad
on requiere simplemente
del evento (a1 < X1 b1 , . . . , an < Xn bn ), y la condici
que este n
umero sea no negativo. Finalmente enunciamos un resultado que establece
la importancia de la funci
on de distribuci
on y cuya demostraci
on es an
aloga al caso
unidimensional.
Proposici
on 37 Sea F (x1 , . . . , xn ) : Rn [0, 1] una funci
on de distribuci
on.
Entonces existe un espacio de probabilidad y un vector aleatorio cuya funci
on de
distribuci
on es F (x1 , . . . , xn ).
91
3.3.
Densidad conjunta
Definici
on 25 (Funci
on de probabilidad conjunta) La funci
on de probabilidad de un vector discreto (X, Y ) es la funci
on f (x, y) : R2 [0, ) dada por
f (x, y) = P (X = x, Y = y).
Ejemplo. La funcion f (x, y) = 1/9 para x, y = 1, 2, 3, es una funcion de probabilidad pues es no negativa y suma uno. La gr
afica se muestra a continuaci
on.
f (x, y)
1/9
b
b
x
Funci
on de probabilidad f (x, y) = 1/9 para x, y = 1, 2, 3.
f (x, y) =
x,y=1
x,y=1
1
2x+y
X
1 2
=(
) = 1.
2x
x=1
Definici
on 26 (Funci
on de densidad conjunta) Sea (X, Y ) un vector continuo con funci
on de distribuci
on F (x, y). Se dice que (X, Y ) es absolutamente
continuo si existe una funci
on no negativa e integrable f (x, y) : R2 R tal que
para todo (x, y) en R2 se cumple la igualdad
Z x Z y
F (x, y) =
f (u, v) dv du.
A la funci
on f (x, y) se le denota por fX,Y (x, y) y se le llama funci
on de densidad
conjunta de X y Y .
2
F (x, y).
yx
Ejemplo. La funcion f (x, y) = 1/4 para x, y [0, 2], es una funcion de densidad
pues es no negativa e integra uno. La gr
afica se muestra a continuaci
on.
93
f (x, y)
1/4
b
b
b
x
Funci
on de densidad f (x, y) = 1/4 para x, y [0, 2].
3.4.
Distribuci
on marginal
Dada la funci
on de distribuci
on conjunta F (x, y) de un vector aleatorio, es posible
obtener la funci
on de distribuci
on de cada variable aleatoria por separado mediante
el siguiente procedimiento.
Definici
on 27 (Funci
on de distribuci
on marginal) Sea (X, Y ) un vector con
funci
on de distribuci
on F (x, y). A la funci
on
F (x) = lm F (x, y)
y
94
Definici
on 28 (Funci
on de densidad marginal) Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad f (x, y). A la funci
on
Z
f (x, y) dy
f (x) =
Tampoco es difcil comprobar que las funciones de densidad marginales son efectivamente funciones de densidad univariadas. Las dos definiciones anteriores pueden
extenderse de manera evidente cuando se tenga un vector aleatorio de cualquier
dimensi
on finita.
3.5.
Distribuci
on condicional
La siguiente definici
on es una extensi
on del concepto elemental de probabilidad
condicional de eventos.
Definici
on 29 (Funci
on de densidad condicional) Sea (X, Y ) un vector con
funci
on de densidad fX,Y (x, y) y sea y tal que fY (y) 6= 0. A la funci
on
x 7 fX|Y (x|y) =
fX,Y (x, y)
fY (y)
95
Definici
on 30 (Funci
on de distribuci
on condicional) Sea (X, Y ) un vector
aleatorio absolutamente continuo con funci
on de densidad fX,Y (x, y) y sea y tal
que fY (y) 6= 0. A la funci
on
Z x
x 7 FX|Y (x|y) =
fX|Y (u|y) du
3.6.
F
(x|y).
x X|Y
Podemos ahora definir el importante concepto de independencia de variables aleatorias. Para ello usaremos la siempre existente funci
on de distribuci
on.
Definici
on 31 (Independencia) Se dice que X y Y son independientes si para
cada (x, y) en R2 se cumple la igualdad
FX,Y (x, y) = FX (x)FY (y).
Ejemplo. Sea (X, Y ) un vector aleatorio con funcion de densidad f (x, y) = 4xy
para 0 x, y 1. La gr
afica de esta funci
on aparece en la siguiente figura.
f (x, y)
4
1
x
Funci
on de densidad f (x, y) = 4xy para 0 x, y 1.
La funci
on de densidad marginal de X se calcula como sigue. Para 0 x 1,
Z
Z 1
fX (x) =
f (x, y)dy =
4xydy = 2x.
3.7.
Definici
on 32 (Esperanza) Sea (X, Y ) un vector aleatorio y sea : R2 R
una funci
on Borel medible. Entonces se define
Z
E[(X, Y )] =
(x, y)dFX,Y (x, y).
(3.1)
R2
97
Proposici
on 38 E(X + Y ) = E(X) + E(Y ).
Demostraci
on. Sean (x, y) = x + y, 1 (x, y) = x y 2 (x, y) = y. Entonces
E(X + Y ) = E((X, Y ))
Z
=
(x + y)dFX,Y (x, y)
2
ZR
Z
=
xdFX,Y (x, y) +
xdFX,Y (x, y)
R2
R2
Proposici
on 39 Sean X y Y independientes y sean g y h dos funciones Borel
medibles tales que g(X) y h(Y ) tienen esperanza finita. Entonces
E[g(X)h(Y )] = E[g(X)]E[h(Y )].
En particular cuando X y Y son independientes, E(XY ) = E(X)E(Y ).
Demostraci
on.
E[g(X)h(Y )] =
=
ZR
R2
g(x)h(y)dFX,Y (x, y)
g(x)h(y)dFX (x)dFY (y)
= E[g(X)]E[h(Y )].
98
1
1/5
0
1/5
0
0
1/5
0
1
1/5
0
1/5
3.8.
Covarianza
En esta secci
on se define y estudia la covarianza entre dos variables aleatorias. Una
interpretaci
on de este n
umero, ligeramente modificado, ser
a dada en la siguiente
secci
on.
Definici
on 33 (Covarianza) La covarianza de X y Y , denotada por Cov(X, Y ),
es el n
umero
Cov(X, Y ) = E [(X E(X))(Y E(Y ))] .
99
Proposici
on 40 La covarianza satisface las siguientes propiedades.
1. Cov(X, Y ) = E(XY ) E(X)E(Y ).
2. Cov(X, Y ) = Cov(Y, X).
3. Cov(X, X) = Var(X).
4. Cov(a, Y ) = 0,
a constante.
5. Cov(aX, Y ) = aCov(X, Y ),
a constante.
Demostraci
on. Para probar (1) se usa la propiedad lineal de la esperanza,
Cov(X, Y ) = E [(X E(X))(Y E(Y ))]
1/8 si (x, y) {(1, 1), (1, 1), (1, 1), (1, 1)},
1/2 si (x, y) = (0, 0),
fX,Y (x, y) =
0
otro caso.
Entonces X y Y tienen
1/4
fX (x) =
1/2
si x {1, 1},
1/4 si y {1, 1},
si x = 0,
fY (y) =
1/2 si y = 0,
otro caso.
0
otro caso.
Puede entonces comprobarse que Cov(X, Y ) = E(XY ) E(X)E(Y ) = 0. Sin embargo X y Y no son independientes pues en particular P (X = 0, Y = 0) = 1/2,
mientras que P (X = 0)P (Y = 0) = 1/4.
3.9.
Coeficiente de correlaci
on
El coeficiente de correlaci
on de dos variables aleatorias es un n
umero que mide el
grado de dependencia lineal que existe entre ellas. Su definici
on es la siguiente.
100
Definici
on 34 (Coeficiente de correlaci
on) El coeficiente de correlaci
on de
las variables aleatorias X y Y , denotado por (X, Y ), es el n
umero
(X, Y ) = p
Cov(X, Y )
Var(X) Var(Y )
Proposici
on 41 La coeficiente de correlaci
on satisface las siguientes propiedades.
1. Si X y Y son independientes entonces (X, Y ) = 0.
El recproco es falso excepto en el caso normal.
2. 1 (X, Y ) 1.
3. |(X, Y )| = 1 si y solo si existen constantes a y b tales que, con probabilidad
uno, Y = aX + b con a > 0 si (X, Y ) = 1 y a < 0 si (X, Y ) = 1.
Demostraci
on. (1) Si X y Y son independientes entonces Cov(X, Y ) = 0 y por lo
tanto (X, Y ) = 0. (2) Suponga primero que X y Y son tales que E(X) = E(Y ) = 0,
y Var(X) = Var(Y ) = 1. Para cualquier valor de ,
0 Var(X + Y )
= E (X + Y )2 E 2 [X + Y ]
= 1 + 2E(XY ) + 2 .
X X
X
V =
Y Y
.
Y
= 2[1 E(U V )]
= 0.
Esto significa que con probabilidad uno, la v.a. U V es constante. Esto es, para
alguna constante c, con probabilidad uno, U V = c. Pero esta constante c debe
ser cero pues E(U V ) = 0. Por lo tanto,
Y Y
X X
=
,
X
Y
Y
(X X ). Esto establece una relaci
on lineal directa
de donde se obtiene Y = Y + X
entre X y Y . En cambio, si (U, V ) = 1 entonces
Var(U + V ) = E[(U + V )2 ] E 2 (U + V )
= E[(U + V )2 ]
= 2[1 + E(U V )]
= 0.
Esto significa nuevamente que con probabilidad uno, la v.a. U + V es constante.
Esto es, para alguna constante c, con probabilidad uno, U + V = c. Nuevamente la
constante c es cero pues E(U + V ) = 0. Por lo tanto,
X X
Y Y
=
,
Y
Y
Y
(X X ). Esto establece una relaci
on lineal,
X
ahora inversa, entre X y Y . Uniendo los u
ltimos dos resultados se obtiene que
cuando |(X, Y )| = 1, con probabilidad uno,
Y
Y
Y = (X, Y )
X + Y (X, Y )X
.
X
X
|
{z
}
|
{z
}
de donde se obtiene Y = Y
1
p
1 2
"
#
1
x X
y Y
y Y 2
x X 2
exp{
2
+
}
2(1 2 )
X
X
Y
Y
2X Y
f (x) =
y
f (y) =
1
2
q
exp{(x X )2 /2X
}
2
2X
1
q
exp{(y Y )2 /2Y2 },
2
2Y
2 ) y Y tiene distribuci
es decir, X tiene distribucion N (X , X
on N (Y , Y2 ). Despues
de hacer algunos c
alculos sencillos se puede demostrar que (X, Y ) = y comprobar
finalmente que cuando = 0 se verifica la igualdad fX,Y (x, y) = fX (x)fY (y).
3.10.
Esperanza y varianza
de un vector aleatorio
define como la matriz cuadrada E (X E(X))t (X E(X)) , en donde t significa
transpuesta del vector. Observe que (X E(X))t es un vector columna de dimension
n 1, mientras que (X E(X)) es un vector rengl
on de dimensi
on 1 n. De modo
que el producto de estos dos vectores en el orden indicado resulta en una matriz
cuadrada de dimensi
on n n cuya entrada (i, j) es
E[(Xi E(Xi ))(Xj E(Xj ))] = Cov(Xi , Xj ).
Es decir,
Var(X) =
Var(X1 )
Cov(X1 , X2 )
Var(X2 )
Cov(X2 , X1 )
..
..
.
.
Cov(Xn , X1 ) Cov(Xn , X2 )
Cov(X1 , Xn )
Cov(X2 , Xn )
..
..
.
.
Var(Xn )
nn
n
X
i,j=1
n
X
Cov(Xi , Xj )i j
Cov(i Xi , j Xj )
i,j=1
n
n
X
X
= Cov(
i Xi ,
j Xj )
i=1
j=1
n
X
= Var(
i Xi ) 0.
i=1
3.11.
En esta secci
on se estudian algunas distribuciones discretas de vectores aleatorios.
Distribuci
on multinomial
Suponga que se tiene un experimento aleatorio con k posibles resultados distintos.
Las probabilidades para cada uno de estos resultados son respectivamente p1 , . . . , pk .
Entonces p1 + +pk = 1. Ahora suponga que se tienen n ensayos sucesivos independientes del experimento anterior y defina las variables aleatorias discretas X1 , . . . , Xk
104
f (x1 , . . . , xk ) =
n
px1 1 pxk k
x1 xk
si x1 , . . . , xk = 0, 1, . . . , n
con x1 + + xk = n,
otro caso.
Los par
ametros de esta distribuci
on son entonces el n
umero de ensayos n, el n
umero
de resultados distintos k en cada ensayo y las probabilidades p1 , . . . , pk . El factor que
aparece en parentesis en la funci
on de densidad conjunta se conoce como coeficiente
multinomial y se define como sigue
n!
n
=
.
x1 xk
x1 ! xk !
Se dice entonces que X tiene distribuci
on multinomial(n, k, p1 , . . . , pk ). Observe que
cuando u
nicamente hay dos posibles resultados en cada ensayo, es decir k = 2, la
distribuci
on multinomial se reduce a la distribuci
on binomial. No es difcil probar
que E(X) = (np1 , . . . , npk ) y que
npi (1 pi ) si i = j,
[Var(X)]ij =
npi pj
si i 6= j.
Distribuci
on hipergeom
etrica multivariada
Suponga que se tienen N objetos de los cuales N1 son de un primer tipo, N2 son de un
segundo tipo y asi sucesivamente con Nk objetos de tipo k. Entonces N1 + +Nk =
N . Suponga que de la totalidad de objetos se obtiene una muestra sin reemplazo de
umero
tama
no n, y defina la variables X1 , . . . , Xk como aquellas que representan el n
de objetos seleccionados de cada tipo. Se dice entonces que X1 , . . . , Xk tienen una
distribuci
on hipergeometrica multivariada y su funci
on de densidad conjunta es
N1
Nk
x1
xk
f (x1 , . . . , xk ) =
N
n
en donde cada xi toma valores en el conjunto {0, 1, . . . , n} pero sujeto a xi Ni y
adem
as debe cumplirse que x1 + +xk = n. Se dice entonces que (X1 , . . . , Xk ) tiene
distribuci
on hipergeometrica multivariada (N, N1 , . . . , Nk , n). Observe que cuando
u
nicamente hay dos tipos de objetos (es decir k = 2) la distribuci
on hipergeometrica
multivariada se reduce a la distribuci
on hipergeometrica univariada. Vease la secci
on de ejercicios para la esperanza y varianza de la distribuci
on hipergeometrica
multivariada.
105
3.12.
Distribuci
on normal bivariada
Se dice que las variables aleatorias continuas X y Y tienen una distribuci
on normal
bivariada si su funci
on de densidad conjunta es
f (x, y) =
1
p
1 2
"
#
y Y
y Y 2
1
x X
x X 2
+
exp{
2
}
2(1 2 )
X
X
Y
Y
2X Y
f (x, y)
Funci
on de densidad normal bivariada estandar.
3.13.
Ejercicios
Distribuci
on conjunta
256. Grafique y demuestre que las siguientes funciones son de distribuci
on.
1
1
a) F (x, y) = (1 ex )( + tan1 y) para x 0.
2
106
c) P (X x) = P (X x, Y x) + P (X x, Y > x).
d) P (X + Y x) P (X x).
e) P (XY < 0) P (X < 0).
es igual a
F (b1 , b2 , b3 ) F (a1 , b2 , b3 ) F (b1 , a2 , b3 ) F (b1 , b2 , a3 )
265. Considere el espacio = [0, 1] [0, 1] junto con (B[0, 1] B[0, 1]) y P la
medida de probabilidad uniforme sobre . Sea X : R2 el vector aleatorio
dado por X(1 , 2 ) = (1 2 , 1 2 ). Demuestre que X es efectivamente
un vector aleatorio y encuentre su funci
on de distribuci
on.
266. Sea X con funci
on de distribuci
on F (x). Demuestre que F (x) es continua en
x = x0 si y solo si P (X = x0 ) = 0.
Densidad conjunta
267. Grafique y demuestre que las siguientes funciones son de densidad.
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 x, y 1.
a) f (x, y) =
d) f (x, y) = 94 x2 y 2 para 1 x, y 1.
e) f (x, y) = exy para x, y > 0.
f ) f (x, y) = ex para 0 < y < x.
268. Calcule la constante c que hace a f una funci
on de densidad.
a) f (x) = cx para 0 x 1.
108
a) f (x, y) =
Distribuci
on marginal
273. Suponiendo el caso absolutamente continuo, demuestre que la funci
on de densidad marginal,
Z
x 7 fX (x) =
fX,Y (x, y)dy
276. Encuentre las funciones de densidad marginales del vector (X, Y ) cuya funcion
de densidad conjunta es
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 < x, y < 1.
a) f (x, y) =
Distribuci
on condicional
278. Demuestre que la funci
on de distribuci
on condicional
Z x
x 7 FX|Y (x|y) =
fX|Y (u|y) du
fX,Y (x, y)
fY (y)
F
(x|y).
x X|Y
a) f (x, y) =
283. Calcule FX|Y (x|y) y fX|Y (x|y) para las siguientes funciones de distribucion
conjunta.
1
1
a) F (x, y) = (1 ex )( + tan1 y) para x 0.
2
b) F (x, y) = 1 ex ey + exy para x, y 0.
110
284. Se hacen tres lanzamientos de una moneda equilibrada cuyos resultados llamaremos cara y cruz. Sea X la v.a. que denota el n
umero de caras que se
obtienen en los dos primeros lanzamientos y sea Y la v.a. que denota el n
umero de cruces en los dos u
ltimos lanzamientos. Calcule fX,Y (x, y), fX (x), fY (y)
y fY |X (y|x) para x = 0, 1, 2.
285. Sea (X, Y ) un vector con funci
on de densidad
fX,Y (x, y) =
x+y
8
para 0 x, y 2.
a) f (x, y) =
n=1
P (X n)P (Y n).
b) W = mn{X, Y }.
305. Sean X y Y independientes ambas con distribuci
on exp() y sea a una constante. Calcule P (X Y aX) y P (X Y aX).
306. Usando la siguiente tabla, construya la funci
on de densidad f (x, y) de un
vector discreto (X, Y ) con la condici
on de que X y Y sean independientes.
x\y
0
1
1 < x, y < 1.
1
.
1 + 2
) = e .
n
114
1
.
1 + 2
1/8 si (x, y) = (1, 1), (1, 1), (1, 1), (1, 1),
a) f (x, y) =
1/2 si (x, y) = (0, 0),
0
otro caso.
b) f (x, y) = 3(x2 + y 2 )/8 para x, y [1, 1].
c) X con distribuci
on uniforme en {1, 0, 1} y Y = 1(X6=0) .
k
.
n
con funci
on de densidad dada por la
0
.05
.2
.05
1
.1
.04
.3
a) f (x, y) =
Covarianza
330. Defina Cov(X, Y ) y mencione tres de sus propiedades.
331. Diga falso o verdadero. Demuestre en cada caso.
a) Cov(X, Y ) = 0, Cov(Y, Z) = 0 = Cov(X, Z) = 0.
116
333. Sea a un n
umero real cualquiera. Encuentre X y Y tales que
a) Cov(X, Y ) = a.
b) Cov(X, Y ) = a.
c) Cov(X, Y ) = 0.
e) Cov(aX + b, Y ) = aCov(X, Y ).
f ) Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ).
n
X
Var(Xk ) + 2
k=1
Cov(Xj , Xk ).
j<k
n
m
n X
m
X
X
X
b) Cov(
Xi ,
Yj ) =
Cov(Xi , Yj ).
i=1
j=1
i=1 j=1
n
X
Var(Xk ).
k=1
= (X1 +
340. Sean X1 , . . . , Xn independientes y con identica distribuci
on. Defina X
X)
= 0.
+ Xn )/n. Demuestre que para k = 1, . . . , n se cumple Cov(Xk X,
341. Calcule la covarianza de X y Y cuya distribuci
on conjunta es uniforme en el
conjunto {1, . . . , n} {1, . . . , n}.
117
-1
1/12
3/12
0
2/12
2/12
1
3/12
1/12
-1
2c
3c
0
c
c
1
2c
3c
-1
0
c
0.1
0
c
0.4
c
1
0.1
c
0
a) f (x, y) =
Coeficiente de correlaci
on
348. Escriba la definici
on y una interpretaci
on del coeficiente de correlaci
on. Mencione adem
as tres de sus propiedades.
349. Diga falso o verdadero. Demuestre en cada caso.
a) (X, Y ) = 0, (Y, Z) = 0 = (X, Z) = 0.
118
c) (X, X) = 1.
d) (X, aX + b) = 1 si a > 0.
e) (X, aX + b) = 1 si a < 0.
f ) (X, aX + b) = 0 si a = 0.
1
1/8
1/2
119
2
1/4
1/8
1
1/9
1/9
1/9
2
1/9
1/9
1/9
3
1/9
1/9
1/9
1
2 sin(x + y) para x, y
1 x
para |y| < x.
2e
xy
e
para x, y > 0.
[0, /2].
Distribuci
on multinomial
363. Demuestre que la funci
on de densidad de la distribuci
on multinomial efectivamente lo es.
364. Sea X = (X1 , . . . , Xk ) con distribuci
on multinomial(n, k, p1 , . . . , pk ). Demuestre que Xi tiene distribuci
on marginal bin(n, pi ), para i = 1, . . . , k.
365. Sea X = (X1 , . . . , Xk ) con distribuci
on multinomial(n, k, p1 , . . . , pk ). Demuestre que E(X) = (np1 , . . . , npk ) y que
npi (1 pi ) si i = j,
[Var(X)]ij =
npi pj
si i 6= j.
Distribuci
on hipergeom
etrica multivariada
366. Demuestre que la funci
on de densidad de la distribuci
on hipergeometrica multivariada efectivamente lo es.
120
N N Ni N n
n i
si i = j,
N
N
N 1
[Var(X)]ij =
N N nN
n i j
si i 6= j.
N N N 1
Distribuci
on normal multivariada
121
Captulo 4
Esperanza condicional
4.1.
Esperanza condicional
En esta secci
on se define el importante concepto de esperanza condicional de una
variable aleatoria respecto de una -
algebra y se estudian algunas de sus propiedades
elementales.
Definici
on 35 (Esperanza condicional) Sea X una variable aleatoria con esperanza finita y sea G una sub--
algebra de F. La esperanza condicional de X dado
G es una variable aleatoria denotada por E(X|G) que cumple las siguientes tres
propiedades:
1. Es G-medible.
2. Tiene esperanza finita.
3. Para cualquier evento G en G,
E[ E( X | G ) 1G ] = E[ X 1G ].
(4.1)
122
a) E(E(X|G)) = E(X).
b) Si X es G-medible entonces E(X|G) = X. En particular, si c es una constante
E(c|G) = c.
c) E(aX + Y |G) = aE(X|G) + E(Y |G).
Demostraci
on. La primera propiedad se obtiene tomando el caso particular G =
en la igualdad (4.1), y establece que las variables aleatorias X y E(X|G) tienen la
misma esperanza. Para la segunda propiedad observe que si X es G-medible entonces X mismo cumple con las tres propiedades de la definici
on de E(X|G), por la
unicidad se obtiene la igualdad casi segura. La tercera propiedad es consecuencia de
la linealidad de la esperanza, de (4.1) y de la unicidad.
Cuando la -
algebra G es la mnima respecto de la cual una funci
on Y : R es
variable aleatoria, es decir G = (Y ), entonces la esperanza condicional se escribe
simplemente como E(X|Y ) en lugar de E(X|(Y )). Si es tal que Y () = y
entonces la variable aleatoria E(X|Y ) evaluada en es
Z
xdFX|Y (x|y).
E(X|Y )() = E(X|Y = y) =
Los siguientes casos particulares relacionan a la esperanza condicional con los conceptos elementales de esperanza y probabilidad condicional.
Proposici
on 44 Para cualquier variable aleatoria X con esperanza finita, y eventos
A y B,
a) E(X| {, } ) = E(X).
b) E(1A | {, } ) = P (A).
c) E(1A | {, B, B c , } ) = P (A|B)1B + P (A|B c )1B c .
Demostraci
on. La primera igualdad se sigue del hecho que E(X|G) es medible respecto de G y de que cualquier funci
on medible respecto de G = {, } es constante.
La tercera condici
on en la definici
on de esperanza condicional implica que esta constante debe ser E(X). La segunda igualdad es evidentemente un caso particular de
la primera. Para demostrar la tercera igualdad observe que toda funci
on medible
respecto de G = {, B, B c , } es constante tanto en B como en B c . Adem
as,
E[ E( 1A | G ) 1B ] = E[ 1A 1B ] = P (A B).
Como la variable aleatoria E( 1A | G) es constante en B, el lado izquierdo es igual
a E( 1A | G)() P (B) para cualquier en B. De donde se obtiene E( 1A | G)() =
P (A|B) para en B. El an
alisis es an
alogo al considerar el evento B c y de esto se
obtiene la f
ormula de la tercera propiedad.
123
Una introducci
on a la esperanza condicional ligeramente m
as completa a la presentada en esta secci
on, aunque tambien sencilla y breve, puede encontrarse en [18]. Un
tratamiento m
as completo y riguroso puede consultarse por ejemplo en [12] o [23].
4.2.
Varianza condicional
Definici
on 36 (Varianza condicional) Sea X con segundo momento finito y
sea G una sub--
algebra de F. La varianza condicional de X dado G se define
como la variable aleatoria dada por
Var(X|G) = E[ (X E(X|G))2 | G ].
(4.2)
(4.3)
124
4.3.
Ejercicios
Esperanza condicional
d) E(X|X + Y = 6).
382. Sea (X, Y ) un vector con funci
on de densidad dada por la siguiente tabla
x\y
1
2
3
-1
.3
.05
.1
0
.05
.2
.1
Calcule
a) P (X = 2), P (X + Y = 1) y P (Y X).
b) fX (x) y fY (y).
c) fY |X (y|x) para x = 1, 2, 3.
d) E(Y |X = x) para x = 1, 2, 3.
125
1
.05
.05
.1
Varianza condicional
383. Demuestre que Var(X|Y ) = E(X 2 |Y ) E 2 (X|Y ).
384. Demuestre que Var(X) = E[Var(X|Y )] + Var[E(X|Y )].
385. Demuestre que
a) Var(X|{, }) = Var(X).
b) Var(1A |{, }) = P (A)(1 P (A)).
126
Captulo 5
Transformaciones
Si X es una variable aleatoria con distribuci
on conocida y es una funci
on tal
que Y = (X) es otra variable aleatoria cu
al es la distribuci
on de Y ? En este
captulo se da respuesta a esta pregunta tanto en el caso unidimensional como en el
caso de vectores aleatorios. En particular, se encuentran f
ormulas explcitas para la
funci
on de densidad de la suma, resta, producto y cociente de dos variables aleatorias
absolutamente continuas.
5.1.
Transformaci
on de una variable aleatoria
X()
(X())
R
Y = (X)
127
Demostraci
on. Suponga primero el caso estrictamente creciente. Entonces para
y (a, b),
FY (y) = P (Y y)
= P ((X) y)
= P (X 1 (y))
= FX (1 (y)).
d 1
(y). Para estrictamente decrecienDerivando se obtiene fY (y) = fX (1 (y)) dy
te
FY (y) = P (Y y)
= P ((X) y)
= P (X 1 (y))
= 1 FX (1 (y)).
h
i
d 1
(y) . En cualquiera caso se obtiene el resulEntonces fY (y) = fX (1 (y)) dy
tado del teorema.
1
(ln y )2
exp
si y > 0,
2 2
y 2 2
fY (y) =
0
si y 0.
128
5.2.
Transformaci
on de un vector aleatorio
(X, Y )
R2
R2
(U, V ) = (X, Y )
1 1
J(u, v) = u 11 v 11
u 2
v 2
Demostraci
on.[Intuitiva] Sea
(U, V ) = (X, Y ) = (1 (X, Y ), 2 (X, Y ))
con inversa
1
(X, Y ) = 1 (U, V ) = (1
1 (U, V ), 2 (U, V )).
129
(1 + y 1 , 2 + y 2 )
y + dy
A
y
(1 , 2 )
x
b(1
(A)
+ x 1 + y 1 ,
2 + x 2 + y 2 )
(1 + x 1 , 2 + x 2 )
x + dx
Area
de (A) = |x 1 y 2 x 2 y 1 | dxdy
x 1 y 1
dxdy
=
x 2 y 2
= |J(x, y)| dxdy.
Adem
as |J(x, y)| =
1
. Por lo tanto
|J(u, v)|
dxdy
.
|J(u, v)|
De esta ecuaci
on se obtiene
1
fU,V (u, v) = fX,Y (1
1 (u, v), 2 (u, v))|J(u, v)|.
Como ejemplo de aplicaci
on de la proposici
on anterior, en las secciones siguientes
utilizaremos la f
ormula (5.1) para encontrar expresiones para la funci
on de densidad
130
2. (U, V ) = (X, Y )
fY (y) = fX (1 (y)) |
=
d 1
(y)|
dy
1 1
en donde J(u, v) = u 11 v 11
u 2
v 2
Distribuci
on de la suma
El siguiente resultado proporciona una f
ormula para la funci
on de densidad de la
suma de dos variables aleatorias absolutamente continuas.
Proposici
on 46 Sea (X, Y ) un vector continuo con funci
on de densidad conjunta
fX,Y (x, y). Entonces X + Y tiene funci
on de densidad
Z
fX,Y (u v, v) dv.
(5.2)
fX+Y (u) =
Demostraci
on. Sea : R2 R2 la transformaci
on (x, y) = (x + y, y) con inversa
1
(u, v) = (u v, v). El Jacobiano de la transformaci
on inversa es
u 1 v 1 1 1
1
1
=
J(u, v) =
0 1 = 1.
u 1
v 1
2
2
Por la f
ormula (5.1), fX+Y,Y (u, v) = fX,Y (u v, v). Integrando respecto de v se
obtiene (5.2).
Observe que haciendo el cambio de variable z(v) = u v en (5.2) se obtiene la
expresi
on equivalente
Z
fX+Y (u) =
fX,Y (z, u z) dz.
(5.3)
131
fX,Y (x, y) dy dx
{ (x,y) | x+yu }
Z ux
La regi
on de integraci
on es la siguiente:
y
u
x
x+y u
Derivando respecto de u se obtiene
fX+Y (u) =
132
Convoluci
on
Definici
on 37 La convoluci
on de dos funciones de densidad continuas f1 y f2 , es
una funci
on de densidad denotada por f1 f2 y definida como sigue
Z
(f1 f2 )(x) =
f1 (x y)f2 (y) dy.
M
as generalmente la convoluci
on de dos funciones de distribuci
on F1 y F2 es la
funci
on de distribuci
on
Z
F1 (x y)dF2 (y).
(F1 F2 )(x) =
Distribuci
on de la diferencia
Se encontrar
a ahora una f
ormula para la funci
on de densidad de la diferencia de dos
variables aleatorias.
Proposici
on 47 Sea (X, Y ) un vector absolutamente continuo con funci
on de
on de densidad
densidad fX,Y (x, y). Entonces X Y tiene funci
Z
fXY (u) =
fX,Y (u + v, v) dv.
(5.5)
Demostraci
on. Procedemos como en la secci
on anterior. Sea : R2 R2 la transformaci
on (x, y) = (x y, y) con inversa 1 (u, v) = (u + v, v). El Jacobiano de la
133
transformaci
on inversa es
1 1
J(u, v) = u 11 v 11
u 2
v 2
1 1
=
0 1
= 1.
Por la f
ormula (5.1), fXY,Y (u, v) = fX,Y (u + v, v). Integrando respecto de v se
obtiene (5.5).
Con el cambio de variable z(v) = u + v en (5.5) se obtiene la expresi
on equivalente
Z
fX,Y (z, z u) dz.
(5.6)
fXY (u) =
xu
La regi
on de integraci
on es la siguiente:
xy u
u
134
Z
=
fX,Y (u + , ) d.
Distribuci
on del producto
Ahora se encontrar
a una f
ormula para la funci
on de densidad del producto de dos
variables aleatorias absolutamente continuas.
Proposici
on 48 Sea (X, Y ) un vector continuo con funci
on de densidad conjunta
on de densidad
fX,Y (x, y). Entonces XY tiene funci
Z
1
fXY (u) =
fX,Y (u/v, v) dv.
(5.7)
v
Demostraci
on. Se usa nuevamente la f
ormula (5.1). Sea : R2 R2 la transformaci
on (x, y) = (xy, y) cuya inversa es, para v 6= 0, 1 (u, v) = (u/v, v). El Jacobiano
de la transformaci
on inversa es
u 1 v 1 1/v u/v 2 1
1
1
=
= .
J(u, v) =
0
1 v
u 1
v 1
2
2
Por la f
ormula (5.1), para v 6= 0, fXY,Y (u, v) = fX,Y (u/v, v) |1/v|. Integrando respecto de v se obtiene (5.7).
Haciendo x(v) = u/v en (5.7) se obtiene la expresi
on equivalente
Z
1
fXY (u) =
fX,Y (x, u/x) | | dx.
x
135
(5.8)
fX,Y (x, y) dy dx
{ (x,y) : xyu }
u/x
Z u/x
La regi
on de integraci
on para u > 0 es la siguiente:
y
x
xy u
Derivando respecto de u,
Z 0
Z
fX,Y (x, u/x)(1/x) dydx +
fX,Y (x, u/x)(1/x) dydx.
fXY (u) =
0
Z
Distribuci
on del cociente
Finalmente se encontrar
a una f
ormula para el cociente de dos variables aleatorias
absolutamente continuas.
Proposici
on 49 Sea (X, Y ) un vector continuo con funci
on de densidad conjunta
fX,Y (x, y) y tal que Y 6= 0. Entonces X/Y tiene funci
on de densidad
Z
fX/Y (u) =
fX,Y (uv, v) |v| dv.
(5.9)
136
Demostraci
on. Procederemos como en las secciones anteriores. Sea : R2 R2 la
transformaci
on (x, y) = (x/y, y) para y 6= 0, y con inversa 1 (u, v) = (uv, v). El
Jacobiano de la transformaci
on inversa es
u 1 v 1 v u
1
1
J(u, v) =
= 0 1 = v.
u 1
v 1
2
2
Por la f
ormula (5.1), fX/Y,Y (u, v) = fX,Y (uv, v) |v|, de donde se obtiene (5.9).
Haciendo x(v) = uv en (5.9) se obtiene la expresi
on equivalente
Z
fX/Y (u) =
fX,Y (x, x/u) |x/u2 | dx.
(5.10)
fX,Y (x, y) dx dy
{ (x,y) : x/yu }
0 Z
fX,Y (x, y) dx dy +
uy
Z uy
La regi
on de integraci
on para u > 0 es la siguiente:
y
x
x/y u
Derivando respecto de u,
Z
Z
=
fX,Y (uy, y)|y| dy.
137
A partir de la f
ormula para el producto de dos variables aleatorias se puede construir
una tercera demostraci
on de (5.9) de la forma siguiente.
Z
1
fX/Y (u) = fX(1/Y ) (u) =
fX,1/Y (u/v, v) dv.
v
Z
=
fX,Y (ux, x)|x| dx.
Las f
ormulas encontradas se resumen en la siguiente tabla.
F
ormulas para la suma, diferencia, producto y cociente
de dos variables aleatorias absolutamente continuas
Z
1. fX+Y (u) =
2. fXY (u) =
fX,Y (u v, v) dv
fX,Y (u + v, v) dv
1
3. fXY (u) =
fX,Y (u/v, v) dv
v
4. fX/Y (u) =
5.3.
Ejercicios
Transformaci
on de una v.a.
a) unif(0, 1).
b) exp().
390. Sea X con distribuci
on unif(1, 1). Encuentre la funci
on de densidad de X 2 .
391. Sea X absolutamente continua con funci
on de distribuci
on F (x). Demuestre
que Y = F (X) tiene distribuci
on unif[0, 1].
392. Encuentre la funci
on de densidad de Y = 1/X cuando X tiene funci
on de
densidad
si 0 < x 1,
1/2
fX (x) =
1/(2x2 ) si x > 1,
0
otro caso.
393. Sea X con distribuci
on unif(a, b). Encuentre la distribuci
on de la variable
aleatoria Y = X/(b X).
Transformaci
on de una vector aleatorio
394. Sean X y Y independientes ambas con distribuci
on unif(0, 1). Encuentre la
funci
on de densidad del vector
a) (X, X + Y ).
b) (X + Y, X Y ).
395. Sean X y Y independientes ambas con distribuci
on unif(1, 1). Encuentre la
funci
on de densidad de
a) (X + Y, X Y ).
b) |Y X|.
c) (X Y, Y X).
Distribuci
on de la suma
397. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad fX,Y (x, y).
Demuestre que X + Y tiene funci
on de densidad
Z
fX+Y (u) =
fX,Y (u v, v) dv.
1
para 0 < x < a, 0 < y < b.
ab
139
on de
402. Sea (X1 , . . . , Xn ) un vector aleatorio absolutamente continuo con funci
densidad fX1 ,...,Xn (x1 , . . . , xn ). Demuestre que Y = X1 + +Xn tiene funcion
de densidad
Z
Z
fY (u) =
406. Demuestre que la suma de dos variables aleatorias independientes cada una de
ellas con distribuci
on normal tiene nuevamente distribuci
on normal con media
la suma de las medias y varianza la suma de las varianzas.
407. Sean X1 , . . . , Xn independientes en donde Xi tiene distribuci
on N(i , i2 ) para
i = 1, . . . , n. Sean c1 , . . . , cn constantes dadas no todas cero. Demuestre que
n
X
i=1
n
n
X
X
ci Xi N(
ci i ,
c2i i2 ).
i=1
140
i=1
Distribuci
on de la resta
411. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad fX,Y (x, y).
Demuestre que X Y tiene funci
on de densidad
Z
fXY (u) =
fX,Y (u + v, v) dv.
a) f (x, y) =
415. Demuestre que la diferencia entre dos variables aleatorias independientes ambas con distribuci
on uniforme en el intervalo (a 1/2, a + 1/2) tiene funci
on
de densidad
1 |u| si 1 < u < 1,
f (u) =
0
otro caso.
416. Demuestre que la diferencia de dos variables aleatorias independientes cada
una de ellas con distribuci
on normal tiene nuevamente distribuci
on normal
con media la diferencia de las medias y varianza la suma de las varianzas.
141
Distribuci
on del producto
417. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad fX,Y (x, y).
Demuestre que XY tiene funci
on de densidad
Z
1
fXY (u) =
fX,Y (u/v, v) dv.
v
a) f (x, y) =
Distribuci
on del cociente
421. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad fX,Y (x, y)
tal que Y 6= 0. Demuestre que X/Y tiene funci
on de densidad
Z
fX/Y (u) =
fX,Y (uv, v) |v| dv
a) f (x, y) =
143
Captulo 6
Distribuciones muestrales y
estadsticas de orden
Se estudian ahora algunas distribuciones de probabilidad que surgen en la estadstica
y otras areas de aplicaci
on de la probabilidad.
Primeramente se define una muestra aleatoria como una colecci
on de variables aleatorias X1 , . . . , Xn que cumplen la condici
on de ser independientes y de tener cada
una de ellas la misma distribuci
on de probabilidad. Al n
umero n se le llama tama
no
de la muestra aleatoria. A menudo se escribe m.a. para abreviar el termino muestra
aleatoria y se usan las siglas v.a.i.i.d. para denotar el termino variables aleatorias
independientes e identicamente distribuidas. Por lo tanto una m.a. es una coleccion
de v.a.i.i.d. Se define tambien una estadstica como una variable aleatoria de la forma g(X1 , . . . , Xn ) en donde X1 , . . . , Xn es una muestra aleatoria y g es una funcion
de Rn en R que es Borel medible. Por ejemplo la media muestral es una estadstica
y definida como sigue
denotada por X
n
X
= 1
Xi .
X
n
i=1
es una combinaci
Observe que X
on lineal de los elementos de la m.a. y por lo tanto
es una v.a. Otro ejemplo importante de estadstica es la varianza muestral, denotada
por S 2 y definida como sigue
n
1 X
2.
S =
(Xi X)
n1
2
i=1
Proposici
on 50 Sea X1 , . . . , Xn una m.a. de la distribuci
on N(, 2 ). Entonces las
2
y S son independientes.
estadsticas X
Este resultado no es v
alido para cualquier distribuci
on de probabilidad, por ejemplo
no es difcil verificar esta afirmaci
on para una muestra aleatoria de la distribucion
Bernoulli. En la siguiente secci
on se estudian algunas distribuciones de probabilidad
estrechamente relacionadas con la media y la varianza muestral.
6.1.
Distribuciones muestrales
Se estudian a continuaci
on algunas distribuciones de probabilidad que surgen en la
estadstica al considerar funciones de una muestra aleatoria.
Distribuci
on ji-cuadrada
La variable aleatoria continua X tiene una distribuci
on ji-cuadrada con n > 0 grados
de libertad si su funci
on de densidad es
n/2
1
1
0
si x 0.
La gr
afica de esta funci
on es
f (x)
n=1
n=2
n=3
n=4
1
2
x
1
Funci
on de densidad 2 (n).
En este caso se escribe X 2 (n) y puede demostrar que E(X) = n y Var(X) = 2n.
Observe que la distribuci
on 2 (n) con n = 2 se reduce a la distribuci
on exp() con
145
= 1/2. La distribuci
on ji-cuadrada puede encontrarse como indican los siguientes
resultados.
Proposici
on 51 Si X N(0, 1) entonces X 2 2 (1).
Demostraci
on. Para x > 0,
1
1
fX 2 (x) = fX ( x) + fX ( x)
2 x
2 x
1
= fX ( x)
x
1 x/2 1
= e
x
2
1/2
1
1
=
x1/21 ex/2 .
(1/2) 2
Esta expresi
on corresponde a la funci
on de densidad de la distribuci
on 2 (1).
Proposici
on 52 Sean X1 , . . . , Xm independientes tales que Xi tiene distribuci
on
2
(ni ) para i = 1, . . . , m. Entonces
m
X
i=1
Xi 2 (n1 + + nm ).
Demostraci
on. Es suficiente demostrar el resultado para el caso de dos variables
aleatorias. Sean X y Y independientes con distribuci
on ji-cuadrada con grados de
libertad n y m respectivamente. Este ligero cambio en la notaci
on evitar
a el uso de
subndices. Por la f
ormula (5.2), para u > 0,
Z u
fX+Y (u) =
fX (u v)fY (v) dv
0
1
(n/2)
n/2
1
(u v)n/21 e(uv)/2
2
146
m/2
1
v m/21 ev/2 dv
2
(n+m)/2
1
1
eu/2
(n/2)(m/2) 2
Z u
(u v)n/21 v m/21 dv.
1
(m/2)
Demostraci
on. Esto es una consecuencia sencilla de las dos proposiciones anteriores.
Como cada Xi tiene distribuci
on N(, 2 ) para i = 1, . . . , n, entonces (Xi )/
tiene distribuci
on N(0, 1). Por lo tanto
(Xi )2
2 (1).
2
En consecuencia
n
X
(Xi )2
i=1
2 (n).
Proposici
on 54 Sean X y Y independientes tales que X tiene distribuci
on 2 (n)
y X + Y tiene distribuci
on 2 (m). Suponga m > n. Entonces Y tiene distribuci
on
2
(m n).
Proposici
on 55 Sean X1 , . . . , Xn independientes con distribuci
on N(, 2 ). Entonces
n1 2
S 2 (n 1).
2
Demostraci
on.
n
n
X
X
+ (X
)]2
(Xi )2 =
[(Xi X)
i=1
i=1
n
X
i=1
2 + n(X
)2 .
(Xi X)
Diviendo entre 2
n
X
(Xi )2
i=1
n1 2
S +
2
2
X
.
/ n
Distribuci
on t
La variable aleatoria continua X tiene una distribuci
on t de Student con n > 0
grados de libertad si su funci
on de densidad est
a dada por
((n + 1)/2)
f (x) =
(1 + x2 /n)(n+1)/2
n (n/2)
cuya gr
afica es
148
f (x)
n = 100
n=3
n=1
0.1
x
4 3 2 1
Funci
on de densidad t(n).
Proposici
on 56 Sean X N(0, 1) y Y 2 (n) independientes. Entonces
X
p
t(n).
Y /n
Demostraci
on. Por independencia, la funci
on de densidad conjunta de X y Y es,
para y > 0,
1
1
2
fX,Y (x, y) = ex /2
(n/2)
2
n/2
1
y n/21 ey/2 .
2
Se aplica la f
ormula (5.1) para la transformaci
on
p
(x, y) = (x, x/ y/n)
con inversa
inversa es
1
0
=
2sn/t2 2ns2 /t3
149
= 2ns2 /t3 .
Por lo tanto
fS,T (s, t) = fX (s)fY (ns2 /t2 ) 2ns2 /t3
n/2 n/21 n2
1 s2 /2
1
n
s
1
2
2
=
e
s e
1
+ n
2 2t2
ds.
2
Ahora efectuamos
el cambio de variable r(s) = s
1
n
dr = 2s 2 + 2t2 ds, y entonces
fT (t) =
2
n s
1
2
n
2t2
1
nn/2
2 2n/21 (n/2)tn+1 2 1 + n2 (n+1)/2
2
2t
((n + 1)/2)
1
,
2
n (n/2) (1 + t /n)(n+1)/2
, de donde obtenemos
r (n1)/2 er dr
correspondiente a la funci
on de densidad de la distribuci
on t(n).
El siguiente resultado es de particular importancia en estadstica para efectuar estimaciones del par
ametro de una poblaci
on normal cuando la varianza 2 es desconocida.
Proposici
on 57 Sea X1 , . . . , Xn una m.a. de una distribuci
on N(, 2 ). Entonces
X
t(n 1).
S/ n
Demostraci
on. Use la Proposici
on 56 aplicada a las variables aleatorias independientes
X
N (0, 1)
/ n
n1 2
y
S 2 (n 1).
2
150
Distribuci
on F
La variable aleatoria continua X tiene una distribuci
on F de Snedecor con par
ametros n > 0 y m > 0 si su funci
on de densidad es
n (n+m)/2
((n + m)/2) n n/2 n/21
x
1
+
x
si x > 0,
(n/2) (m/2) m
m
f (x) =
0
si x 0.
Se escribe X F(n, m). En la siguiente figura se muestra el comportamiento de
esta funci
on de densidad.
f (x)
3/4
n=4
m = 100
n=1
m=5
x
1
Funci
on de densidad F (n, m).
m
para m > 2,
m2
2m2 (m + n 2)
para m > 4.
n(m 2)2 (m 4)
Proposici
on 58 Sean X 2 (n) y Y 2 (m) independientes. Entonces
X/n
F(n, m).
Y /m
151
Proposici
on 59 Si X t(m) entonces X 2 F(1, m).
1
1
fX 2 (x) = fX ( x) + fX ( x) .
2 x
2 x
6.2.
Estadsticas de orden
Dada una muestra aleatoria X1 , . . . , Xn , podemos evaluar cada una de estas variables en un punto muestral cualquiera y obtener una colecci
on de n
umeros reales
X1 (), . . . , Xn (). Estos n
umeros pueden ser ordenados de menor a mayor incluyendo repeticiones. Si X(i) () denota el i-esimo n
umero ordenado, tenemos entonces la
colecci
on no decreciente de n
umeros reales
X(1) () X(n) ().
Ahora hacemos variar el argumento y lo que se obtiene son las as llamadas
estadsticas de orden. Este proceso de ordenamiento resulta ser de importancia en
algunas aplicaciones. Tenemos entonces la siguiente definici
on.
Definici
on 38 (Estadsticas de orden) Sea X1 , . . . , Xn una muestra aleatoria.
A las variables aleatorias ordenadas
X(1) = mn{X1 , . . . , Xn }
..
.
X(n) = m
ax{X1 , . . . , Xn }
se les conoce con el nombre de estadsticas de orden. A X(1) se le llama primera
estadstica de orden, a X(2) se le llama segunda estadstica de orden, etc. A X(i)
se le llama i-esima estadstica de orden, i = 1, . . . , n.
Distribuciones individuales
Comenzamos encontrando la distribuci
on de la primera y de la u
ltima estadstica
de orden de manera individual.
Proposici
on 60 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces
1. fX(1) (x) = nf (x) [1 F (x)]n1 .
2. fX(n) (x) = nf (x) [F (x)]n1 .
Demostraci
on. Para verificar (1) se calcula primero la funci
on de distribuci
on
FX(1) (x) = P (X(1) x)
= P (mn{X1 , . . . , Xn } x)
= 1 P (mn{X1 , . . . , Xn } > x)
= 1 P (X1 > x, . . . , Xn > x)
= 1 [P (X1 > x)]n
= 1 [1 F (x)]n .
Entonces fX(1) (x) = nf (x) [1 F (x)]n1 . Para demostrar (2) se procede de manera
an
aloga,
FX(n) (x) = P (X(n) x)
= P (m
ax{X1 , . . . , Xn } x)
= P (X1 x, . . . , Xn x)
= [P (X1 x)]n
= [F (x)]n .
Por lo tanto fX(n) (x) = nf (x) [F (x)]n1 .
Proposici
on 61 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces
n
fX(i) (x) =
i f (x)[F (x)]i1 [1 F (x)]ni .
i
153
Demostraci
on. Sea Yi la variable aleatoria dada por
1 si Xi x,
Yi = 1(,x] (Xi ) =
0 si Xi > x,
en donde Xi es el i-esimo elemento de la muestra aleatoria. Las variables Y1 , . . . , Yn
son independientes y cada una de ellas puede considerarse un ensayo Bernoulli con
probabilidad de exito, es decir tomar el valor 1, igual a P (Xi x) = F (x). Entonces
la suma Y1 + + Yn corresponde al n
umero de v.a.s Xi que cumplen la condici
on
Xi x y por lo tanto esta suma tiene distribuci
on bin(n, p) con p = F (x). Entonces
FX(i) (x) = P (X(i) x)
= P (Y1 + + Yn i)
n
X
n
=
[F (x)]j [1 F (x)]nj .
j
j=i
i1
ni
1
x
x+h
Proposici
on 62 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces para r > 0,
Z
f (v)f (r + v)[F (r + v) F (v)]n2 dv.
fR (r) = n(n 1)
Demostraci
on. Para x < y,
FX(1) ,X(n) (x, y) = P (X(1) x, X(n) y)
Por lo tanto, fX(1) ,X(n) (x, y) = n(n 1)f (x)f (y)[F (y) F (x)]n2 para n 2. Ahora
se usa la f
ormula
Z
fY X (u) =
fX,Y (v, u + v) dv
equivalente a (5.5) para la diferencia de dos variables aleatorias. Entonces para r > 0,
Z
fX(n) X(1) (r) = n(n 1)
f (v)f (r + v)[F (r + v) F (v)]n2 dv.
Distribuciones conjuntas
Ahora se presentan dos resultados acerca de la distribuci
on conjunta de las estadsticas de orden. El primer resultado trata acerca de la distribuci
on conjunta de todas
ellas y despues se considera la distribuci
on de cualesquiera dos.
155
Proposici
on 63 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de densidad f (x). Para x1 < < xn ,
fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ).
Demostraci
on. Se considera la funci
on de distribuci
on conjunta de todas las estadsticas de orden y despues se deriva n veces para encontrar la funci
on de densidad. Para
x1 < x2 < < xn ,
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , X(2) x2 , . . . , X(n) xn ).
Como (X(2) x2 ) = (x1 < X(2) x2 ) (X(2) x1 ) se obtiene la expresi
on
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , x1 < X(2) x2 , . . . , X(n) xn )
+ P X(1) x1 , X(2) x1 , . . . , X(n) xn ).
n
P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < X(n) xn ).
x1 xn
en donde la u
ltima igualdad se sigue de la independencia e identica distribucion
de las variables de la muestra. Ahora solo resta derivar para encontrar el resultado
buscado, siendo m
as sencillo encontrar las derivadas en el orden inverso.
La siguiente es una prueba corta pero no formal del mismo resultado. Sea x1 < x2 <
< xn y h > 0 suficientemente peque
no tal que los intervalos (x1 , x1 + h], (x2 , x2 +
h], . . . , (xn , xn + h] son ajenos.
x1
x2
156
xn
La probabilidad de que las variables aleatorias tomen valores cada una de ellas en
uno y solo uno de estos intervalos es, de acuerdo a la distribuci
on multinomial,
n!
[F (x1 + h) F (x1 )] [F (xn + h) F (xn )].
1! 1!
Haciendo h tender a cero se obtiene
fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ).
Ahora nos interesa encontrar una f
ormula para la densidad conjunta de cualesquiera
dos estadsticas de orden.
Proposici
on 64 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de distribuci
on F (x) y funci
on de densidad f (x). Sea i < j. Para x < y,
n
fX(i) ,X(j) (x, y) =
i(j i) f (x)f (y)
i, j i, n j
[F (x)]i1 [F (y) F (x)]ji1 [1 F (y)]nj .
Demostraci
on intuitiva. Para x < y considere los intervalos ajenos (, x], (x, x+h],
(x + h, y], (y, y + h] y (y + h, ) para h > 0 suficientemente peque
na.
i1
1
x
j i+1
1
y
x+h
nj
y+h
157
6.3.
Ejercicios
Distribuci
on 2
430. Demuestre que la funci
on de densidad de la distribuci
on 2 (n) efectivamente
lo es.
431. Demuestre que la distribuci
on 2 (n) con n = 2 se reduce a la distribucion
exp() con = 1/2.
432. Demuestre que la distribuci
on gama(n/2, ) con = 1/2 se reduce a la distri2
buci
on (n).
433. Sea X con distribuci
on 2 (n). Demuestre que
a) E(X) = n.
(m + n/2)
para m = 1, 2, . . .
(n/2)
c) Var(X) = 2n.
b) E(X m ) = 2m
Xi 2 (n1 + + nm ).
Xi2 2 (n).
158
i2
2 (n).
Distribuci
on t
441. Demuestre que la funci
on de densidad de una distribuci
on t(n) efectivamente
lo es.
442. Sea X con distribuci
on t(n). Demuestre que
a) E(X) = 0.
b) Var(X) =
n
n2
para n > 2.
Distribuci
on F
446. Demuestre que la funci
on de densidad de la distribuci
on F(n, m) efectivamente
lo es.
447. Sea X con distribuci
on F(n, m). Demuestre que
a) E(X) =
m
m2
para m > 2.
159
b) Var(X) =
2m2 (m + n 2)
n(m 2)2 (m 4)
para m > 4 .
453. Demuestre que las funciones fX(1) (x) y fX(n) (x) del ejercicio anterior son efectivamente funciones de densidad.
454. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua F (x) con funci
on de
densidad f (x). Demuestre nuevamente que
n
i f (x)[F (x)]i1 [1 F (x)]ni
fX(i) (x) =
i
y compruebe que esta es efectivamente una funci
on de densidad.
455. Compruebe que la f
ormula de la Proposici
on 61 se reduce a la f
ormulas (1) y
(2) de la Proposici
on 60 cuando i = 1 e i = n respectivamente.
on unif(0, 1). Demuestre que la i456. Sea X1 , . . . , Xn una m.a. de una distribuci
esima estadstica de orden tiene distribuci
on beta(i, n + 1 i). Encuentre por
lo tanto su esperanza y varianza.
457. Sea X1 , . . . , Xn una m.a. de una distribuci
on exp(). Encuentre la funci
on de
densidad de la i-esima estadstica de orden.
458. Sean X(1) , X(2) las estadsticas de orden de una m.a. de tama
no dos de una
distribuci
on N(, 2 ). Demuestre que E[X(1) ] = / .
no dos de una
459. Sean X(1) , X(2) las estadsticas de orden de una m.a. de tama
distribuci
on N(, 2 ). Calcule E[X(2) ].
160
467. Se escogen n puntos al azar del intervalo unitario (0, 1). Demuestre que la
funci
on de densidad de la distancia m
axima R entre cualesquiera dos puntos
es
n(n 1)r n2 (1 r) si 0 < r < 1,
fR (r) =
0
otro caso.
161
b) para n par.
476. Sea X1 , . . . , Xn una m.a. de una distribuci
on unif(0, 1). Encuentre la funcion
de densidad del vector (X(1) , . . . , X(n) ).
477. Sea X1 , . . . , Xn una m.a. de una distribuci
on unif(0, 1). Calcule el coeficiente
de correlaci
on entre X(i) y X(j) .
on continua F (x) con funci
on de
478. Sea X1 , . . . , Xn una m.a. de una distribuci
densidad f (x). Demuestre directamente que para x < y,
fX(1) ,X(n) (x, y) = n(n 1)f (x)f (y)[F (y) F (x)]n2 .
479. Utilice el ejercicio anterior para obtener la densidad conjunta de X(1) y X(n)
para una m.a. de tama
no n de una distribuci
on
a) unif(0, 1).
b) exp().
no n de una
480. Calcule la covarianza entre X(1) y X(n) para una m.a. de tama
distribuci
on
a) unif(0, 1).
b) exp().
163
Captulo 7
Convergencia
En este captulo se presenta una introducci
on al tema de convergencia de variables
aleatorias. Se estudian distintas formas en que una sucesi
on de variables aleatorias
puede converger.
7.1.
Convergencia puntual
Definici
on 39 (Convergencia puntual) La sucesi
on X1 , X2 , . . . converge puntualmente a X si para cada en ,
X() = lm Xn ().
n
Ejemplo. Considere el espacio medible ([0, 1], B[0, 1]) y defina la sucesion de va-
variable aleatoria
X() =
0 si [0, 1),
1 si = 1.
En algunas situaciones la convergencia puntual resulta ser muy fuerte pues se pide
la convergencia de la sucesi
on evaluada en todos y cada uno de los elementos de
. Se puede ser menos estricto y pedir por ejemplo que la convergencia se efect
ue
en todo el espacio excepto en un subconjunto de probabilidad cero. Este tipo de
convergencia menos restrictiva se llama convergencia casi segura, y se estudia en las
siguientes secciones junto con otros tipos de convergencia.
7.2.
Definici
on 40 (Convergencia casi segura) La sucesi
on X1 , X2 , . . . converge
casi seguramente a X si
P { : lm Xn () = X()} = 1.
n
Por lo tanto, en la convergencia casi segura se permite que para algunos valores
de la sucesi
on numerica X1 (), X2 (), . . . pueda no converger, sin embargo el
subconjunto de en donde esto suceda debe tener probabilidad cero. Para indicar
c.s.
la convergencia casi segura se escribe Xn X o bien lm Xn = X c.s. A menudo
n
se utiliza el termino convergencia casi dondequiera o bien convergencia casi siempre
para denotar este tipo de convergencia. Observe que omitiendo el argumento , la
condici
on para la convergencia casi segura se escribe en la forma m
as corta
P ( lm Xn = X) = 1,
n
Ejemplo. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) con P la medida
uniforme, es decir, P (a, b) = b a. Defina la sucesi
on de variables aleatorias
1 si 0 1/n,
Xn () =
0 otro caso.
Cuyas gr
aficas son:
165
Xn ()
b
bc
1/n
La variable aleatoria Xn .
7.3.
Convergencia en probabilidad
Definici
on 41 (Convergencia en probabilidad) La sucesi
on X1 , X2 , . . . converge en probabilidad a X si para cada > 0
lm P { : |Xn () X()| > } = 0.
M
as adelante se demostrara que la convergencia en probabilidad es un tipo de convergencia a
un m
as relajada que la convergencia casi segura.
166
7.4.
Convergencia en media
Definici
on 42 (Convergencia en media) La sucesi
on X1 , X2 , . . . converge en
media a X si
lm E|Xn X| = 0.
n
Observe que para este tipo de convergencia tanto los elementos de la sucesi
on como
el lmite mismo deben ser variables aleatorias con esperanza finita. A este tipo de
m
convergencia tambien se le llama convergencia en L1 y se le denota por Xn X
L1
o Xn X.
7.5.
Definici
on 43 (Convergencia en media cuadr
atica) La sucesi
on X1 , X2 , . . .
converge en media cuadr
atica a X si
lm E|Xn X|2 = 0.
L2
por Xn X o Xn X.
167
7.6.
Convergencia en distribuci
on
Definici
on 44 (Convergencia en distribuci
on) La sucesi
on X1 , X2 , . . . converge en distribuci
on a X si
lm FXn (x) = FX (x)
entonces
FXn (x) = p
1
2 2 /n
eu
2 /2( 2 /n)
du,
0
1/2
lm FXn (x) =
n
si x < 0,
si x = 0,
si x > 0.
Tenemos entonces que Xn 0 pues lm FXn (x) = FX (x) para todo punto x
n
donde FX (x) es continua, esto es, para todo x en el conjunto R \ {0}. Observe que
no hay convergencia de las funciones FXn (x) en el punto de discontinuidad x = 0.
A manera de resumen se presenta en la siguiente tabla las definiciones de los distintos
tipos de convergencia mencionados. En la siguiente secci
on se estudian las relaciones
entre estos tipos de convergencia.
168
Convergencia
Definici
on
Puntual
Casi segura
P (Xn X) = 1
En media
E|Xn X| 0
En media cuadr
atica
E|Xn X|2 0
En probabilidad
P (|Xn X| > ) 0
En distribuci
on
7.7.
En esta secci
on se establecen algunas relaciones entre los distintos tipos de convergencia de variables aleatorias vistos en la secci
on anterior. En la siguiente figura se
ilustran de manera gr
afica estas relaciones.
Conv.
Conv.
en m. c.
casi
segura
Conv. en m.
Conv. en probabilidad
Conv. en distribuci
on
Relaci
on entre los tipos de convergencia.
169
Proposici
on 65 Convergencia c.s. = convergencia en prob.
c.s.
Demostraci
on. Suponga Xn X. Sea > 0 y defina los eventos
An =
k=n
(|Xk X| > ).
Esta sucesi
on es decreciente y su lmite es entonces la intersecci
on de todos los
eventos. Como (|Xn X| > ) An entonces P (|Xn X| > ) P (An ). Por lo
tanto
lm P (|Xn X| > )
lm P (An )
= P ( lm An )
n
= P(
An )
n=1
= 0.
El recproco de la proposici
on anterior es falso, es decir, la convergencia en probabilidad no implica necesariamente la convergencia casi siempre. Para ilustrar esta
afirmaci
on se proporciona a continuaci
on un contraejemplo.
X1
1
c
b
X2
c
b
X3
c
b
bc
bc
X4
bc
1
170
bc
X5
bc
bc
bc
Ejemplo. [Convergencia en m. =
6
Convergencia c.s.] Considere la sucesi
on de vam
Proposici
on 66 Convergencia en m.c. = convergencia en media.
Demostraci
on. La desigualdad de Jensen establece que para u convexa
u(E(X)) E(u(X)).
Tomando u(x) = x2 se obtiene E 2 |Xn X| E|Xn X|2 , de donde se sigue el
resultado. Alternativamente la u
ltima desigualdad es consecuencia de la desigualdad
de Cauchy-Schwarz.
Proposici
on 67 Convergencia en media = convergencia en prob.
Demostraci
on. Para cada > 0 defina el evento An = (|Xn X| > ). Entonces
E|Xn X| = E(|Xn X| 1An ) + E(|Xn X| 1Acn )
E(|Xn X| 1An )
P (|Xn X| > ).
171
Por hip
otesis el lado izquierdo tiende a cero cuando n tiende a infinito. Por lo tanto
P (|Xn X| > ) 0.
Proposici
on 68 Convergencia en prob. = convergencia en dist.
Demostraci
on. Sea x un punto de continuidad de FX (x). Para cualquier > 0
FXn (x) = P (Xn x)
P (X x + ) + P (|Xn X| > ).
El segundo sumando del lado derecho tiende a cero cuando n tiende a infinito pues
p
por hip
otesis Xn X. Entonces para cualquier > 0,
lm sup FXn (x) FX (x + ).
n
Por la continuidad en x,
FX (x) lm inf FXn (x).
n
En resumen
FX (x) lm inf FXn (x) lm sup FXn (x) FX (x).
n
El converso de la proposici
on anterior es falso, es decir, la convergencia en distribuci
on no siempre implica la convergencia en probabilidad.
172
Xn =
X
si n es par,
X si n es impar.
on normal est
andar y por lo
Entonces claramente cada Xn tambien tiene distribuci
d
tanto para cualquier n
umero real x, FXn (x) FX (x), es decir, Xn X. Sin
embargo la sucesi
on no converge en probabilidad a X pues para valores impares de
n y para valores peque
nos de > 0,
P (|Xn X| > ) = P (2|X| > ) > 1/2.
Lo anterior demuestra que lm P (|Xn X| > ) 6= 0.
n
7.8.
En esta secci
on se enuncian sin demostraci
on dos resultados que establecen condiciones bajo las cuales es v
alido este intercambio.
173
Teorema 4 (Teorema de convergencia dominada) Si Xn converge puntualmente a X y existe Y con esperanza finita tal que |Xn | Y para toda n, entonces
lm E(Xn ) = E(X).
Es decir, es suficiente que exista una variable aleatoria con esperanza finita que sea
cota superior de la sucesi
on para poder afirmar que E(Xn ) converge a E(X). Estos
dos resultados son de suma utilidad y su demostraci
on aparece en textos avanzados
de probabilidad [12], [17], [23]. Se utilizan en la u
ltima parte de este curso para
formalizar algunas demostraciones.
7.9.
Ejercicios
Convergencia casi segura
c.s.
a) aXn aX.
c.s.
b) Xn + b X + b.
c.s.
c.s.
a) Xn + Yn X + Y.
c.s.
b) Xn Yn XY.
c.s.
c) Xn /Yn X/Y si Y, Yn 6= 0.
483. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) con P la medida de
probabilidad uniforme. Demuestre que
c.s.
n1[0,1/n) 0.
Convergencia en probabilidad
p
a) aXn aX.
p
b) Xn + b X + b.
p
a) Xn + Yn x + y.
p
b) Xn Yn xy.
174
c) Xn /Yn x/y si Yn , y 6= 0.
Xn + Yn X + Y.
487. Sean X1 , X2 , . . . variables aleatorias independientes cada una con distribucion
unif(a, b). Demuestre que cuando n tiende a infinito
p
a) mn{X1 , . . . , Xn } a.
p
b) m
ax{X1 , . . . , Xn } b.
Convergencia en media
m
a) aXn aX.
m
b) Xn + b X + b.
m
a) Xn + Yn X + Y .
Proporcione un contraejemplo para las siguientes afirmaciones
m
b) Xn Yn XY .
m
c) Xn /Yn X/Y si Y, Yn 6= 0.
a) aXn aX.
m.c.
b) Xn + b X + b.
m.c.
175
Convergencia en distribuci
on
493. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) en donde P es la medida
de probabilidad uniforme. Sea Xn = 1[0,1/2+1/n) y X = 1[0,1/2] . Demuestre que
d
Xn X.
494. Sea Xn con distribuci
on unif[a 1/n, a + 1/n] en donde a es una constante.
d
Demuestre que Xn a.
495. Sea Xn con distribucion uniforme en el conjunto {0, 1, . . . , n}. Demuestre que
1
d
Xn unif[0, 1].
n
p
b) Xn + Yn X + Y .
505. Sea Xn con distribuci
on N(n , n2 ) y X con distribuci
on N(, 2 ). Suponga
2
2
2
2
n y n , con n , > 0. En que sentido Xn X?
d
Captulo 8
Funciones generadoras
En este captulo se estudia la funci
on generadora de probabilidad, la funci
on generadora de momentos y la funci
on caracterstica. Estas funciones son transformaciones
de las distribuciones de probabilidad y constituyen una herramienta muy u
til en la
teora moderna de la probabilidad.
8.1.
Funci
on generadora de probabilidad
Definici
on 45 (Funci
on generadora de probabilidad) La funci
on generadora de probabilidad de X es la funci
on
G(t) = E(tX )
definida para valores reales de t tal que la esperanza existe.
X
G(t) =
tk P (X = k).
k=0
Por lo tanto la f.g.p. es una serie de potencias en t con coeficientes dados por la
distribuci
on de probabilidad (por ende el nombre) y cuyo radio de convergencia es
por lo menos uno. La existencia de la f.g.p. no est
a garantizada para toda distribuci
on de probabilidad. Sin embargo cuando existe, determina de manera u
nica a la
177
distribuci
on en el siguiente sentido. Si X y Y tienen la misma distribuci
on de probabilidad entonces claramente GX (t) = GY (t) para valores de t donde esta esperanza
exista. Inversamente, sean X y Y tales que GX (t) y GX (t) existen y coinciden en
alg
un intervalo no trivial alrededor del cero. Entonces X y Y tienen la misma distri
buci
on de probabilidad. Esta
y otras propiedades generales de la f.g.p. se estudian
a continuaci
on y m
as adelante se ilustran estos resultados con un ejemplo.
Proposici
on 69
1. Sean X y Y variables aleatorias con valores en {0, 1, . . .} tales que GX (t) y
GY (t) existen y coinciden en alg
un intervalo no trivial alrededor de t = 0.
Entonces X y Y tienen la misma distribuci
on de probabilidad.
2. Si GX (t) existe entonces
dn
GX (t)
= E[X(X 1) (X n + 1)].
n
dt
t=1
Demostraci
on. (1) Sean an = P (X = n) y bn = P (Y = n) para n 0. La condicion
GX (t) y GX (t) se escribe
X
X
n
t an =
tn bn .
n=0
n=0
d X k
t P (X = k)
dt
k=0
X
d k
=
t P (X = k)
dt
k=0
ktk1 P (X = k).
k=1
Al evaluar en t = 1 se obtiene
G (1) =
kP (X = k) = E(X).
k=1
178
De manera an
aloga se demuestra para las derivadas superiores. (3) Cuando X y Y
son independientes,
GX+Y (t) = E(tX+Y )
= E(tX tY )
= E(tX )E(tY )
= GX (t)GY (t).
Debido a la segunda propiedad, a la f.g.p. tambien se le conoce como funci
on generadora de momentos factoriales.
tn e
n=0
= e
X
(t)n
n!
n=0
t
= e
(1t)
= e
n
n!
Observe que en este caso la f.g.p. se encuentra definida para cualquier valor de t.
Calculamos a continuaci
on la esperanza y varianza de la distribuci
on Poisson() con
ayuda de la f.g.p. Al derivar una vez se obtiene G (t) = e(1t) y al evaluar en
t = 1, E(X) = G (1) = . Derivando por segunda vez, G (t) = 2 e(1t) , y en t = 1
se obtiene E(X(X 1)) = G (1) = 2 . Por lo tanto Var(X) = E(X 2 ) E 2 (X) =
2 + 2 = . Ahora se muestra el uso de la f.g.p. para determinar la distribuci
on
de una variable aleatoria. Suponga que X y Y son independientes con distribuci
on
Poisson(1 ) y Poisson(2 ) respectivamente. Entonces
MX+Y (t) = MX (t)MY (t)
= e1 (1t) e2 (1t)
= e(1 +2 )(1t) .
Esta expresi
on corresponde a la f.g.p. de la distribuci
on Poisson con par
ametro
1 + 2 . Se concluye entonces que X + Y se distribuye Poisson(1 + 2 ).
Las funciones generadoras de probabilidad para algunas otras distribuciones discretas se encuentran en la secci
on de ejercicios y tambien en el primer apendice al final
del libro.
179
8.2.
Funci
on generadora de momentos
La funci
on generadora de momentos es otra funci
on que se puede asociar a algunas
distribuciones de probabilidad aunque su existencia no est
a garantizada en todos los
casos. Cuando existe, determina de manera u
nica a la distribuci
on de probabilidad
asociada y tiene propiedades semejantes a las de la f.g.p. estudiada en la secci
on anterior. La funci
on generadora de momentos se utiliza tanto para variables aleatorias
discretas como continuas.
Definici
on 46 (Funci
on generadora de momentos) La funci
on generadora
de momentos de X es la funci
on
M (t) = E(etX )
definida para valores reales de t para los cuales esta esperanza existe.
Proposici
on 70
1. Sea X tal que su f.g.m. M (t) existe. Entonces todos los momentos X existen
y
dn
M
(t)
= E(X n ).
dtn
t=0
Demostraci
on. (1) El teorema de convergencia dominada permite obtener la derivada
180
d
E(etX )
dt
d
= E( etX )
dt
= E(XetX ).
= E(etX )E(etY )
= MX (t)MY (t)
(3) Si X y Y tienen la misma distribuci
on entonces claramente MX (t) y MY (t)
coinciden cuando estas funciones existan. Recprocamente, si X es tal que su funci
on generadora de momentos existe entonces todos sus momentos existen y estos
determinan de manera u
nica a la distribuci
on de probabilidad.
Es interesante observar que la condici
on MX+Y (t) = MX (t)MY (t) no es suficiente
para concluir que X y Y son independientes. En el Ejercicio 543 se pide dar los
detalles de tal afirmaci
on.
(x)n1
ex dx
(n)
0
Z
[( t)x]n1
n
n
= ( t)
( t)e(t)x dx
(n)
0
= n ( t)n .
M (t) =
etx
Esta
es nuevamente la expresi
on de la f.g.m. de la distribuci
on gama, ahora con
par
ametros n+m y . Se concluye entonces X +Y tiene distribuci
on gama(n+m, ).
181
Como hemos mencionado antes, no todas las distribuciones de probabilidad permiten calcular la funci
on generadora de momentos dentro de un intervalo no trivial
alrededor del cero, ni todos los c
alculos son tan sencillos como en el ejemplo mostrado. Por ejemplo la f.g.m. de la distribuci
on Cauchy est
andar no existe para valores
de t distintos de cero como se pide demostrar en el Ejercicio 544. Finalizamos esta
secci
on con el enunciado sin demostraci
on de un resultado acerca de convergencia
de funciones generadoras.
Proposici
on 71 Sea X1 , X2 , . . . una sucesi
on de variables aleatorias cuyas funciones generadoras de momentos existen todas ellas en alg
un intervalo no trivial
d
alrededor del cero. Entonces Xn X si y solo si MXn (t) MX (t).
En la secci
on de ejercicios se pueden encontrar las funciones generadoras de momentos de algunas otras distribuciones de probabilidad tanto discretas como continuas,
asi como en el primer apendice al final del libro.
8.3.
Funci
on caracterstica
En esta u
ltima secci
on se estudia la funci
on caracterstica y se enuncian algunas de
Definici
on 47 (Funci
on caracterstica) La funci
on caracterstica de X es la
funci
on
(t) = E eitX
definida para cualquier n
umero real t. El n
umero i es la unidad de los n
umeros
imaginarios.
por las igualdades (t) = M (it) = G(eit ). La existencia de la f.c. se sigue del siguiente an
alisis
Z
itx
|(t)| =
e dF (x)
Z
|eitx | dF (x)
Z
dF (x)
=
= 1.
Proposici
on 72
1. Si X tiene n-esimo momento finito entonces
dn
(t)
= in E(X n ).
n
dt
t=0
Demostraci
on. Por el teorema de convergencia dominada,
d
(t) =
dt
d
E(eitX )
dt
d
= E( eitX )
dt
= E(iXeitX ).
= E(eitX )E(eitY )
= X (t)Y (t).
183
El recproco de la u
ltima propiedad es falso. En el ejercicio 568 se pide probar que
la condici
on X+Y (t) = X (t)Y (t) no es suficiente para concluir que las variables
aleatorias X y Y son independientes. Otra de las propiedades fundamentales de la
funci
on caracterstica es su capacidad de determinar de manera u
nica a las distintas
distribuciones de probabilidad. A este respecto se tienen los siguientes resultados.
Proposici
on 73 (F
ormula de inversi
on de L`
evy) Sea X con funci
on de distribuci
on F (x) y funci
on caracterstica (t). Si x < y son puntos de continuidad
de F entonces
Z T itx
1
e
eity
F (y) F (x) = lm
(t) dt.
T 2 T
it
Proposici
on 74 (Teorema de unicidad) Si X y Y son tales que X (t) =
Y (t) para cualquier valor de t, entonces X y Y tienen la misma distribuci
on.
Demostraci
on. Por el teorema de inversi
on de L`evy, la igualdad X (t) = Y (t) implica que para cualesquiera dos puntos de continuidad x < y para ambas distribuciones
se tiene que
FX (y) FX (x) = FY (y) FY (x).
Al hacer x tender a , se obtiene que FX (y) = FY (y), para todos los valores y
puntos de continuidad de ambas funciones de distribuci
on. Como las funciones de
distribuci
on tienen a lo sumo un n
umero numerable de discontinuidades, FX = FY .
En el caso absolutamente continuo se tiene la siguiente f
ormula.
184
Proposici
on 75 (F
ormula de inversi
on en el caso abs. continuo) Sea X
absolutamente continua con funci
on de densidad f (x) y funci
on caracterstica
(t). Entonces
Z
1
eitx (t) dt.
f (x) =
2
Demostraci
on. Para x < y dos puntos de continuidad de F , por el teorema de
inversi
on de L`evy,
Z T itx
1
e
eity
F (y) F (x) = lm
(t) dt
T 2 T
it
Z itx
1
e
eity
(t) dt
=
2
it
Z Z y
1
=
eitx dx (t) dt.
2 x
Z y Z
1
itx
=
e
(t) dt dx.
2
x
Por lo tanto el integrando debe ser la funci
on de densidad de X.
Proposici
on 76 (Teorema de Continuidad) Sean
X, X1 , X2 , . . .
variables
Demostraci
on. Suponga primero que Xn X. Entonces por el teorema de convergencia dominada,
lm Xn (t) =
185
n
(t) =
e
px (1 p)nx
x
x=0
n
X
n
=
(peit )x (1 p)nx
x
itx
x=0
= (1 p + peit )n .
1
2
2
eitx
e(x) /2 dx
2
2
Z
1
2
2
2
2
=
e(x 2x(it )+ )/2 dx
2
2
Z
2
1
2 2
2
( +(it2 )2 )/22
= e
e[x(it )] /2 dx
2
| 2
{z
}
(t) =
N (it2 ,2 )
itt2 2 /2
= e
8.4.
Ejercicios
Funci
on generadora de probabilidad
507. Sea X con varianza finita y con f.g.p. G(t). Demuestre que
186
a) E(X) = G (1).
b) E(X 2 ) = G (1) + G (1).
c) Var(X) = G (1) + G (1) [G (1)]2 .
508. Sea X con f.g.p. GX (t) y sean a y b dos constantes. Demuestre que GaX+b (t) =
tb GX (ta ).
509. Sea X con distribuci
on Ber(p). Demuestre que
a) G(t) = 1 p + pt.
n
Y
Gk (t).
k=1
Funci
on generadora de momentos
521. Sea X con varianza finita y con f.g.m. M (t). Demuestre que
a) E(X) = M (0).
b) E(X 2 ) = M (0).
c) Var(X) = M (0) (M (0))2 .
522. Sean X y Y independientes e identicamente distribuidas con f.g.m. M (t).
Demuestre que MXY (t) = M (t)M (t).
523. Sea X con f.g.m. MX (t) y sean a y b dos constantes. Demuestre que MaX+b (t) =
etb MX (at).
524. Sea X con f.g.m. MX (t). Diga falso o verdadero. Demuestre en cada caso.
a) MX (t) 0.
a) M (t) =
189
b) aX + b tiene distribuci
on N(a + b, a2 2 ) con a 6= 0.
c) X 2 tiene distribuci
on 2 (1).
n
Y
Mk (t).
k=1
1
[1 + xy(x2 y 2 )] para
4
1 < x, y < 1.
190
Funci
on caracterstica
546. Defina con precisi
on la funci
on caracterstica y mencione tres de sus propiedades.
547. Encuentre la f.c. de una v.a. con funci
on de densidad
a) f (x) =
1
para x = 1, 2, . . .
x!(e 1)
b) f (x) = 12 e|x| .
a) (t) = e(1e ) .
b) E(X) = usando (t).
c) Var(X) = usando (t).
558. Sea X con distribucion geo(p). Demuestre que
a) (t) = p/(1 qeit ).
560. Sea X con distribucion unif(a, a). Demuestre que (t) = (sen at)/at.
561. Sea X con distribuci
on unif(a, b). Demuestre que
a) (t) = [eibt eiat ]/[it(b a)].
1
[1 + xy(x2 y 2 )] para
4
192
1 < x, y < 1.
ex
.
1 + ex
X (ty)dFY (y).
571. Mediante el c
alculo de residuos se puede demostrar que la distribuci
on Cauchy
est
andar tiene funci
on caracterstica
Z
1
(t) =
dx = e|t| .
eitx
(1 + x2 )
193
Captulo 9
Teoremas lmite
En este u
ltimo captulo se estudian dos de los teoremas m
as importantes en probabilidad: la ley de los grandes n
umeros y el teorema central del lmite. Antes de ello
se revisan dos desigualdades de interes general.
9.1.
Desigualdad de Markov
Proposici
on 77 (Desigualdad de Markov) Sea X 0 con esperanza finita.
Para cualquier > 0,
E(X)
P (X > )
.
Demostraci
on.
E(X) = E( X 1(X>) + X 1(X) )
E( X 1(X>) )
E( 1(X>) )
= P (X > ).
En palabras, este resultado establece que la probabilidad de que X exceda un valor
positivo est
a acotada superiormente por la media entre . Existen otras versiones
equivalentes de esta desigualdad. Por ejemplo, la desigualdad de Markov aplicada
a la variable aleatoria no negativa |X| establece que P (|X| > ) E|X|/, y para
|X|n con n cualquier n
umero natural, P (|X| > ) E|X|n /n .
194
9.2.
Desigualdad de Chebyshev
Proposici
on 78 (Desigualdad de Chebyshev) Sea X con media y varianza
2 < . Para cualquier > 0,
P (|X | > )
2
.
2
(9.1)
Demostraci
on.
2 = E (X )2
= E (X )2 1(|X|>) + (X )2 1(|X|)
E (X )2 1(|X|>)
E 2 1(|X|>)
= 2 P (|X | > ).
En palabras, la desigualdad dice que la probabilidad de que X difiera de su media
en mas de est
a acotada superiormente por la varianza entre 2 . A este resultado se
le conoce tambien con el nombre de desigualdad de Chebyshev-Bienayme. Existen
otras versiones de esta desigualdad equivalentes a la demostrada, por ejemplo,
a) P (|X | > ) 1/2 .
b) P (|X | ) 1 1/2 .
c) P (|X | ) 1 2 /2 .
Proposici
on 79 (Desigualdad de Chebyshev extendida) Sea X una variable aleatoria y sea g 0 una funci
on no decreciente tal que g(X) es una variable
aleatoria con esperanza finita. Para cualquier > 0,
P (X > )
195
E[g(X)]
.
g()
(9.2)
Demostraci
on.
E[g(X)] = E[ g(X) 1(X>) + g(X) 1(X) ]
E[ g(X) 1(X>) ]
E[ g() 1(X>) ]
= g()P (X > ).
(Rusia, 18211894)
(Rusia, 18561922)
Profesor y alumno.
9.3.
En esta secci
on se estudia uno de los teoremas m
as importantes de la teora cl
asica
de la probabilidad. Este interesante resultado se conoce como la ley de los grandes
196
n
umeros y establece que, bajo ciertas condiciones, el promedio de variables aleatorias converge a una constante cuando el n
umero de sumandos crece a infinito. M
as
precisamente el resultado es el siguiente.
Teorema 5 (Ley d
ebil de los grandes n
umeros) Sean X1 , X2 , . . . independientes tales que E(Xi ) = . Para cualquier > 0,
n
lm P (|
1X
Xi | ) = 0.
n
i=1
Demostraci
on. (Suponiendo segundo momento finito.) Sea Sn = (X1 + + Xn )/n.
Entonces E(Sn ) = y Var(Sn ) 2 /n asumiendo Var(Xi ) 2 < . La desigualdad de Chebyshev aplicada a Sn establece que para cualquier > 0 se cumple
P (|Sn | ) 2 /n2 . Basta ahora tomar el lmite cuando n tiende a infinito
para obtener el resultado requerido.
La ley debil de los grandes n
umeros establece entonces que la variable aleatoria
Sn = (X1 + + Xn )/n converge en probabilidad a la media com
un . Observe que
para la demostraci
on de este resultado no hemos supuesto identica distribuci
on para
las variables aleatorias involucradas, u
nicamente que tengan la misma media, que
sean independientes y aunque las varianzas pueden ser diferentes, se ha necesitado
que sean uniformemente acotadas. Damos a continuaci
on un ejemplo sencillo de
aplicaci
on de este resultado y m
as adelante demostraremos una versi
on m
as fuerte
de la ley de los grandes n
umeros.
Ejemplo. [Definicion de probabilidad frecuentista] Considere un experimento aleatorio cualquiera y sea A un evento. Se repite sucesivamente el experimento y se
observa en cada ensayo la ocurrencia o no ocurrencia del evento A. Sea Xk la variable que toma el valor uno si en el k-esimo ensayo se observa A y cero en caso
contrario. Entonces X1 , X2 , . . . son variables aleatorias independientes con distribuci
on Ber(p) en donde p es la probabilidad desconocida del evento A. Por lo tanto
E(Xk ) = p y Var(Xk ) = p(1 p). La ley debil de los grandes n
umeros asegura que
la fracci
on de ensayos en los que se observa el evento A converge, en probabilidad, a
la constante desconocida p cuando el n
umero de ensayos crece a infinito. Esta es la
definici
on frecuentista de la probabilidad y hemos entonces corroborado su validez
con ayuda de la ley de los grandes n
umeros.
La siguiente versi
on de la ley de los grandes n
umeros asegura que bajo ciertas condiciones la convergencia de (X1 + + Xn )/n a la media es m
as fuerte, es casi
segura.
197
1X
P ( lm
Xi = ) = 1.
n n
i=1
Demostraci
on. (Suponiendo cuarto momento finito.) Dada la identica distribucion
de los elemento de la sucesi
on, cualquier elemento de esta se denota simplemente
por X. Suponga que E|X |2 = 2 y observe que E(X ) = 0. Entonces por
independencia,
n
X
E|
(Xi )|4 = nE|X |4 + 3n(n 1) 4 .
i=1
Pn
i=1 (Xi
)| y la
i=1
nE|X |4 + 3n(n 1) 4
.
(n)4
P
P
Sea el evento An = (| n1 ni=1 Xi | > ). Entonces
n=1 P (An ) < . Por el lema
de Borel-Cantelli la probabilidad de que ocurra una infinidad de eventos An es cero,
es decir, con probabilidad uno, s
olo un n
umero finito de estos eventos ocurre. Por
lo tanto con probabilidad uno, existe un n
umero natural n a partir del cual ning
un
evento An se verifica. Es decir,
=
P ( lm |
n
1X
Xi | ) = 1.
n
i=1
1X
P ( lm
Xi = ) = 1.
n n
i=1
Ejemplo. [El problema del mono, nuevamente] Se usa la ley fuerte de los grandes
n
umeros para dar otra soluci
on al problema del mono. Considere entonces un mono
que escribe caracteres al azar. Nos interesa encontrar la probabilidad de que el mono
eventualmente escriba las obras completas de Shakespeare, las cuales se asume tienen
una longitud total de N caracteres. Nuevamente se consideran bloques de longitud
N de la siguiente forma
x ,...,x ,x
, . . . , x2N , . . .
| 1 {z N} | N +1 {z
}
198
1X
Xk = p ) = 1.
n n
P ( lm
k=1
9.4.
Concluimos el curso con el celebre y famoso teorema central del lmite. Este resultado
es de amplio uso en estadstica y otras ramas de aplicaci
on de la probabilidad.
lm P
x = P (Z x),
n
n
en donde Z tiene distribuci
on normal est
andar.
n
199
converge en distribuci
on a una variable aleatoria normal est
andar sin importar la
distribuci
on original de las variables de la sucesi
on. Observe que la suma X1 + +Xn
tiene media n y varianza n 2 , de modo que la expresi
on de arriba es una especie de
estandarizaci
on de esta variable. Equivalentemente este resultado puede enunciarse
del siguiente modo
1
+ Xn ) d
n (X1 +
N(0, 1).
/ n
A fin de dar una demostraci
on simple de este teorema supondremos adicionalmente
que los elementos de la sucesi
on tienen momentos finitos de cualquier orden. Esta
demostraci
on hace uso de la funci
on caracterstica.
Demostraci
on.(Suponiendo todos los momentos finitos.) Observe que
(X1 + + Xn ) n
[(X1 )/ + + (Xn )/]
=
n
n
en donde cada sumando del numerador en el lado derecho es una variable con media
cero y varianza uno. Asi pues, sin perdida de generalidad supondremos que cada Xi
tiene media cero y varianza uno y consideraremos la suma
Zn =
X1 + + Xn
.
n
Se desea probar que Zn N(0, 1). Para ello es suficiente demostrar que
2 /2
lm Zn (t) = et
n
Zn (t) = E eit(X1 ++Xn )/ n = X t/ n
.
Por lo tanto,
ln Zn (t) = n ln X (t/ n)
itE(X) i2 t2 E(X 2 ) i3 t3 E(X 3 )
= n ln 1 +
+
+
+ .
n
2!n
3!n3/2
1
1
Usando la f
ormula ln(1 + x) = x x2 + x3 y factorizando potencias de it se
2
3
obtiene
ln Zn (t) = E(X 2 ) E 2 (X) i2 t2 /2
E(X 3 ) E(X)E(X 2 ) E 3 (X) i3 t3
+
+
+
3! n
2 n
3 n
n
El primer sumando es t2 /2 y todos los terminos a partir del segundo sumando se
anulan cuando n tiende a infinito. Por lo tanto,
lm ln Zn (t) = t2 /2.
200
Como la funci
on logaritmo es una funci
on continua tenemos que
ln lm Zn (t) = t2 /2.
n
De donde se obtiene
2 /2
lm Zn (t) = et
.
9.5.
Ejercicios
Desigualdad de Markov
E|X|n
b) P (|X| > )
, con n cualquier n
umero natural.
n
a) P (|X| > )
576. Use la desigualdad de Markov para demostrar que si X es una variable aleatoria
no negativa con esperanza cero entonces X = 0 casi seguramente.
577. Demuestre que la convergencia en media implica la convergencia en probabilidad usando la desigualdad de Markov aplicada a la variable aleatoria no
negativa |Xn X|.
Desigualdad de Chebyshev
578. Enuncie y demuestre la desigualdad de Chebyshev.
579. Use la desigualdad de Chebyshev (9.2) para demostrar directamente que la
convergencia en media cuadr
atica implica la convergencia en probabilidad.
580. Demuestre la desigualdad de Chebyshev (9.1) usando la desigualdad de Markov
aplicada a la variable aleatoria no negativa |X |.
201
E|X|
para > 0,
E|X|n
para > 0 y n N,
n
E(etX )
para > 0 y t > 0,
et
1/18 si x = 1, 1,
f (x) =
16/18 si x = 0,
0
otro caso.
202
1X
m.c.
Xi .
n
i=1
203
Ap
endice A
Distribuciones de probabilidad
Se presenta a continuaci
on una lista con algunas distribuciones de probabilidad de
uso com
un. La funci
on generadora de probabilidad es G(t), la generadora de la
momentos es M (t) y la funci
on caracterstica es (t).
Distribuci
on Bernoulli
X Ber(p) con p (0, 1).
f (x) = px (1 p)1x para x = 0, 1.
E(X) = p.
Var(X) = p(1 p).
G(t) = 1 p + pt.
M (t) = (1 p) + pet .
204
Distribuci
on binomial
X bin(n,
p) con n {1, 2, . . .} y p (0, 1).
n
f (x) =
px (1 p)nx para x = 0, 1, . . . , n.
x
E(X) = np.
Var(X) = np(1 p).
G(t) = (1 p + pt)n .
M (t) = [(1 p) + pet ]n .
Distribuci
on geom
etrica
X geo(p), con p (0, 1) y q = 1 p
f (x) = p(1 p)x para x = 0, 1, . . .
E(X) = q/p.
Var(X) = q/p2 .
G(t) = p/[1 t(1 p)].
M (t) = p/[1 (1 p)et ].
Distribuci
on Poisson
X Poisson() con > 0.
x
f (x) = e
para x = 0, 1, . . .
x!
E(X) = .
Var(X) = .
G(t) = e(1t) .
M (t) = exp[(et 1)].
Distribuci
on binomial negativa
X binneg(r, p) con
p (0, 1) y r {1, 2, . . .}.
r+x1
f (x) =
pr (1 p)x para x = 0, 1, . . .
x
E(X) = r(1 p)/p.
Var(X) = r(1 p)/p2 .
G(t) = [p/(1 t(1 p))]r .
M (t) = [p/(1 qet )]r .
205
Distribuci
on hipergeom
etrica
X hipergeo(N,
K, n) con
N,
K, n {1, 2, . . .} y n K N .
K
N K
N
f (x) =
/
para x = 0, 1, . . . , n.
x
nx
n
E(X) = nK/N .
N K N n
Var(X) = n K
N N N 1 .
Distribuci
on exponencial
X exp() con > 0.
f (x) = ex para x > 0.
F (x) = 1 ex para x > 0.
E(X) = 1/.
Var(X) = 1/2 .
M (t) = /( t) para t < .
Distribuci
on gama
X gama(n, ) con n > 0 y > 0.
(x)n1 x
f (x) =
e
para x > 0.
(n)
P
n1
F (x) = 1 ex j=0
(x)j /j! para x > 0 y n entero.
E(X) = n/.
Var(X) = n/2 .
206
Distribuci
on beta
X beta(a, b) con a > 0, b > 0.
f (x) = xa1 (1 x)b1 /B(a, b) para x (0, 1).
E(X) = a/(a + b).
Var(X) = ab/[(a + b + 1)(a + b)2 ].
Distribuci
on normal
X N(, 2 ) con R y 2 > 0.
1
2
2
f (x) =
e(x) /2 .
2
2
E(X) = .
Var(X) = 2 .
M (t) = exp(t + 2 t2 /2).
(t) = exp(it 2 t2 /2).
Cuando = 0 y 2 = 1 se obtiene la distribuci
on normal est
andar.
Distribuci
on ji-cuadrada
X 2 (n) con n > 0.
n/2
1
1
f (x) =
xn/21 ex/2 para x > 0.
(n/2) 2
E(X) = n.
Var(X) = 2n.
M (t) = (1 2t)n/2 para t < 1/2.
Distribuci
on t
X t(n) con n > 0.
(n + 1/2)
x2
f (x) =
(1 + )n1/2 .
n (n/2)
n
E(X) = 0.
Var(X) = n/(n 2) para n > 2.
M (t) no existe para t 6= 0.
207
(t) = exp(|t|).
Distribuci
on log normal
X log normal(, 2 ) con R y 2 > 0.
1
f (x) =
exp[(ln x )2 /2 2 ] para x > 0.
2
x 2
E(X) = exp( + 2 /2).
E(X n ) = exp(n + n2 2 /2).
Var(X) = exp(2 + 2 2 ) exp(2 + 2 ).
Distribuci
on Pareto
X Pareto(a, b) con a, b > 0.
aba
f (x) =
para x > 0.
(a + x)a+1
F (x) = 1 [b/(b + x)]a para x > 0.
E(X) = b/(a 1) para a > 1.
Var(X) = ab2 /[(a 1)2 (a 2)] para a > 2.
Distribuci
on Weibull
X Weibull(r, ) con r, > 0.
r
f (x) = e(x) rr xr1 para x > 0.
r
F (x) = 1 e(x) para x > 0.
E(X) = (1 + 1/r)/.
Var(X) = [(1 + 2/r) 2 (1 + 1/r)]/2 .
Distribuci
on Cauchy
X Cauchy(a, b) con a > 0 y b > 0.
1
f (x) =
.
b[1 + ((x a)/b)2 ]
La esperanza y varianza no existen.
Cuando a = 0 y b = 1 se obtiene la distribuci
on Cauchy est
andar. En este caso,
1
f (x) =
.
(1 + x2 )
208
209
Ap
endice B
Formulario
B.1.
El alfabeto griego
A
B
E ,
Z
H
,
B.2.
alpha
beta
gamma
delta
epsilon
zeta
eta
theta
I
K
M
N
Oo
iota
kappa
lambda
mu
nu
xi
omikron
pi
P ,
,
T
,
X
rho
sigma
tau
upsilon
phi
chi
psi
omega
Imagen inversa
4. X 1 (B2 B1 ) = X 1 B2 X 1 B1 .
5. X
Bk ) =
n
\
Bk ) =
k=1
6. X 1 (
X 1 Bk .
k=1
k=1
n
\
X 1 Bk .
k=1
B.3.
Funci
on indicadora
La funci
on indicadora de un conjunto A es la funci
on 1A : {0, 1} dada por
1A () =
1 si A,
0 si
/ A.
B.4.
1. -
algebra: es una colecci
on de subconjuntos de distinta del vaco ( F),
y cerrada bajo las operaciones de tomar complementos
(A F Ac F) y
S
tomar uniones numerables (A1 , A2 , . . . F n=1 An F).
2. Axiomas de la probabilidad: a) P ()
P (A) 0, para A F.
S = 1. b)P
3. Esperanza E(X) =
x dF (x)
a) E(c) = c
b) E(cX) = cE(X)
c) E(X + Y ) = E(X) + E(Y )
d) X 0 = E(X) 0.
e) X Y = E(X) E(Y ).
Es un n
umero no negativo que indica el grado de dispersi
on de los valores de
la variable aleatoria. Cumple
a) Var(cX) = c2 Var(X).
b) Var(X + c) = Var(X).
c) Var(X) = E(X 2 ) E 2 (X).
Cov(X, Y )
.
Var(X) Var(Y )
Es un n
umero en [1, 1] que representa una medida del grado de dependencia
lineal entre dos variables aleatorias. Cuando Y = aX + b con a 6= 0 y b
constantes se cumple |(X, Y )| = 1 y viceversa. Si X y Y son independientes
entonces (X, Y ) = 0, el recproco es falso excepto en el caso normal.
7. Transformaciones
Si X es una variable aleatoria y es una funci
on estrictamente mon
otona y
con inversa diferenciable entonces la variable aleatoria Y = (X) tiene funcion
de densidad
d
fY (y) = fX (1 (y)) | 1 (y)|.
dy
En el caso bidimensional, si (U, V ) = (X, Y ) con continua y con inversa
diferenciable entonces
fU,V (u, v) = fX,Y (1 (u, v)) |J(u, v)|,
212
1
1
1
1
v
en donde J(u, v) = u
1 . En particular se cumplen las siguientes
1
2
2
u
v
f
ormulas
Z
a) fX+Y (u) =
fX,Y (u v, v) dv
Z
b) fXY (u) =
fX,Y (u + v, v) dv
Z
1
c) fXY (u) =
fX,Y (u/v, v) dv
v
Z
d) fX/Y (u) =
fX,Y (uv, v) |v| dv
8. Funci
on generadora de probabilidad G(t) = E(tX ).
Se utiliza principalmente para distribuciones discretas. Cuando existe determina de manera u
nica a la distribuci
on de probabilidad. Genera los momentos
factoriales a traves de la f
ormula
G(n) (1) = E[X(X 1) (X n + 1)],
cuando estos momentos existen. Cumple adem
as
a) X, Y indep GX+Y (t) = GX (t)GY (t).
9. Funci
on generadora de momentos M (t) = E(etX ).
Esta funci
on no existe para todas las distribuciones de probabilidad. Cuando
existe en alg
un intervalo no trivial alrededor de t = 0 determina de manera
u
nica a la distribuci
on de probabilidad. Genera los momentos a traves de la
(n)
f
ormula M (0) = E(X n ). Adem
as cumple
a) X, Y indep MX+Y (t) = MX (t)MY (t), el recproco es falso.
d
1X
Xi
n
i=1
213
(X1 + + Xn ) n d
N(0, 1)
n
214
B.5.
Tabla de la distribuci
on normal est
andar
x
1
(x) =
2
2 /2
et
dt
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8399
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.9980
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
215
Bibliografa
[1] Blake I.F. (1979) An introduction to applied probability. Wiley.
[2] Cohn D.L. (1980) Measure theory. Birkh
auser.
[3] Feller W. (1978) Introducci
on a la teora de las probabilidades y sus aplicaciones.
Vol. I y II. Limusa.
[4] Grimmett G.R., Stirzaker D.R. (1982) Probability and random processes. Clarendon Press.
[5] Grimmett G.R., Stirzaker D.R. (1986) Probability: an introduction. Oxford University Press.
[6] Grimmett G.R. , Stirzaker D.R. (2001) One thousand exercises in probability.
Oxford University Press.
[7] Gut A. (2005) Probability: a graduate course. Springer.
[8] Halmos P.R. (1960) Measure theory. Van Nostrand.
[9] Harris B. (1966) Theory of probability. AddisonWesley.
[10] Hoel P., Port S., Stone C. (1971) Probability theory. Houghton Mifflin Co.
[11] Jacod D., Protter P. (2000) Probability essentials. SpringerVerlag.
[12] Karr A.F. (1993) Probability. SpringerVerlag.
[13] Laha R. G., Rohatgi V. K. (1979) Probability theory. John Wiley & Sons.
[14] Miller I., Miller M. (1999) John E. Freunds mathematical statistics - 6th ed.
PrenticeHall.
[15] Mood A.M., Graybill F.A., Boes D.C. (1974) Introduction to the theory of statistics. McGraw Hill.
[16] Parzen E. (1960) Modern probability theory and its applications. Wiley.
[17] Resnick S.I. (1999) A probability path. Birkh
auser.
[18] Rinc
on L. (2004) Que es la esperanza condicional? Miscel
anea Matem
atica.
No. 37, Agosto 2004, SMM.
216
[19] Romano J.P. , Siegel A.F. (1986) Counterexamples in probability and statistics.
Chapman & Hall.
[20] Rosenthal J.S. (2000) A first look at rigorous probability theory. World Scientific.
[21] Ross S. (1976) A first course in probability. Prentice Hall.
[22] Villa Morales J. (2005) Introducci
on a la medida e integraci
on. Textos Universitarios, Ciencias B
asicas. Universidad Aut
onoma de Aguascalientes.
[23] Williams D. (1991) Probability with martingales. Cambridge University Press.
[24] Williams D. (2001) Weighing the odds: a course in probability and statistics.
Cambridge University Press.
217
Indice
-
algebra, 5
generada, 8
mnima generada, 8
-
algebra, 4
de Borel, 11
Algebra,
10
Borel-Cantelli, 26
Coeficiente de correlaci
on, 101
Conjunto
Borel medible, 11
Boreliano, 11
de Borel, 11
medible, 5
Continuidad de la prob, 20, 21, 23
Convergencia
casi dondequiera, 165
casi segura, 165
casi siempre, 165
debil, 168
de eventos, 14
en distribuci
on, 168
en media, 167
en media cuadr
atica, 167
en probabilidad, 166
puntual, 164
puntual de v.a.s, 164
Convoluci
on, 133
Covarianza, 99
Desigualdad
de Bonferroni, 37
de Boole, 19
de Cauchy-Schwarz, 79
de Chebyshev, 195
de Kounias, 37
de Markov, 194
Distribuci
on
arcoseno, 85
Espacio
de probabilidad, 4, 5
medible, 5
muestral, 4
Esperanza
condicional, 122
de un vector, 103
de una funci
on de un vector, 97
de una v.a., 54
Estadsticas de orden, 152
Estadstica, 144
Evento, 4
Funci
on
indicadora, 211
Funci
on caracterstica, 182
218
f
ormula de inversi
on, 184, 185
teorema de continuidad, 185
teorema de unicidad, 184
Funci
on de densidad
condicional, 95
marginal, 95
Funci
on de distribuci
on, 46
condicional, 96
conjunta, 89
marginal, 94
Funci
on de probabilidad
conjunta, 92
Funci
on generadora
de momentos, 180
de probabilidad, 177
esperado, 54
medio, 54
promedio, 54
Variable aleatoria, 39
continua, 50
discreta, 50
mixta, 51
Varianza
condicional, 124
de un vector, 103
de una v.a., 56
muestral, 144
Vector aleatorio, 87
continuo, 88
discreto, 88