DistribBivariadas Actual

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 21

Universidad Nacional Autónoma de Honduras

Facultad Ciencias
Escuela de Matemáticas
Tegucigalpa, M.D.C., Honduras, C.A.

Material de Procesos Estocásticos


25- de enero de 2021, 2:00PM-4:00PM

0.1 Distribuciones Bivariadas


Definición 1 (Vector aleatorio). Un vector aleatorio es una función X : Ω → Rn tal que para
cualquier conjunto B en B(Rn ), se cumple que la imagen inversa X −1 (B) es un elemento de F .
X = (X1 , · · · , Xn ).

Proposición 1 Una función (X1 · · · , Xn ) : Ω → Rn es un vector aleatorio si, y sólo si, cada
coordenada es una variable aleatoria.

Definición 2 (Vector discreto y continuo). Se dice que el vector (X, Y ) es discreto si cada coorde-
nada es una variable aleatoria discreta, y se dice que es continuo en caso de que cada coordenada
lo sea.

Definición 3 (Funcion de distribución conjunta). La función de distribución de un vector (X, Y ),


denotada por F (x, y) : R2 → [0, 1], se define como sigue

FX,Y (x, y) = P (X ≤ x, Y ≤ y).

Proposición 2 Toda función de distribución conjunta FX,Y (x, y) satisface las siguientes propiedades.

1. limx,y→∞ FX,Y (x, y) = 1, ambas variables.

2. limx,y→−∞ FX,Y (x, y) = 0, alguna de las variables.

Devis Alvarado: Resumen libros y propio 1


3. FX,Y (x, y) es no decreciente en cada variable.

4. FX,Y (x, y) es continua por la derecha en cada variable.

5. Si a1 < b1 y a2 < b2 , entonces

F (b1 , b2 ) − F (a1 , b2 ) − F (b1 , a2 ) + F (a1 , a2 ) ≥ 0.

Definición 4 (Funcion de distribución conjunta). Una función cualquiera FX,Y (x, y) : R2 → [0, 1],
no necesariamente definida en términos de un vector aleatorio, es una función de distribución
conjunta si cumple con las cinco propiedades enunciadas en la proposición anterior.

Definición 5 (Funcion de probabilidad conjunta). La función de probabilidad de un vector dis-


creto (X, Y ) es la función fX,Y (x, y) : R2 → [0, 1] dada por

fX,Y (x, y) = P (X = x, Y = y).

A esta función también se le llama función de probabilidad conjunta de las variables X y Y .

Definición 6 (Funcion de densidad conjunta). Sea (X, Y ) un vector continuo con función de
distribución FX,Y (x, y). Se dice que (X, Y ) es absolutamente continuo si existe una función no
negativa e integrable fX,Y (x, y) : R2 → [0, ∞), tal que, para todo (x, y) en R2 , se cumple la
igualdad Z Z x y
FX,Y (x, y) = f (u, v)dvdu.
−∞ −∞

A la función fX,Y (x, y) se le denota por fX,Y (x, y), y se le llama función de densidad conjunta de
X y Y.

Se cumplen las suientes propiedades

1. fX,Y (x, y) ≥ 0.

2. Z ∞ Z ∞
fX,Y (x, y)dxdy = 1.
−∞ −∞

3.
∂2
fX,Y (x, y) = FX,Y (x, y)
∂y∂x

Devis Alvarado: Resumen libros y propio 2


Ejemplo 1 Demuestre que la siguiente función es de densidad.
Calcule P (X = Y ),
P (X = 1) y
P (X + Y = n + 1).
¿Puede usted calcular la correspondiente función de distribución?
(
4xy
n2 (n+1)2
, x, y = 1, 2, · · · , n,
fX,Y (x, y) =
0 o.c.

Solución:

1.
n X
n n X n
X 4xy 4 X
= xy
n2 (n + 1)2 n2 (n + 1)2
x=1 y=1 x=1 y=1
n
! n 
4 X X
= x  y
n2 (n + 1)2
x=1 y=1
  
4 n(n + 1) n(n + 1)
=
n2 (n + 1)2 2 2
= 1.

2.
X
P (X = Y ) = P (X = Y = x)
x
n
X 4x2
=
n2 (n + 1)2
x=1
4 n(n + 1)(2n + 1)
=
n2 (n+ 1) 2 6
2(2n + 1)
= .
3n(n + 1)

3.
n
X
P (X = 1) = P (X = 1, Y = y)
y=1
n
X 4(1)y
=
n2 (n
+ 1)2
y=1

Devis Alvarado: Resumen libros y propio 3


4.
X
P (X + Y = n + 1) = P (X + Y = n + 1, X = x)
x
n
X
= P (Y = n + 1 − x, X = x)
x=1
n
X 4x(n + 1 − x)
=
n2 (n + 1)2
x=1
n
4 X
= x(n + 1 − x)
n2 (n + 1)2
x=1
 
4 n(n + 1) n(n + 1)(2n + 1)
= (n + 1) −
n2 (n + 1)2 2 6
 
4 n + 1 2n + 1
= −
n(n + 1) 2 6
2(n + 2)
=
3n(n + 1)

Ejemplo 2 Demuestre que la siguiente función es de densidad. Encuentre la correspondiente


función de distribución y calcule P (1 < X < 2, 1 < Y < 2), P (X > 1) y P (Y + X > 2).
 3 2 2
f (x, y) = 16 (x + y ), si 0 < x < y < 2,
0, o.c.

Solución:

1.
Z ∞ Z ∞ Z 2Z 2
3 3 2
f (x, y)dxdy = (x + y 2 )dydx
−∞ −∞ 16
0 x 16
Z 2
y 3 2

3 2
= x y+ dx
16 0 3 x
Z 2 
2 8 4 3
= 2x + − x dx
0 3 3
 
3 2 3 8 1 4 2
= x + x− x
16 3 3 3 0
= 1.

Z 2Z 2
3 2
P (1 < X < 2, 1 < Y < 2) = (x + y 2 )dydx
1 x 16
Z 2 
3 2 8 4 3
= 2x + − x dx
16 1 3 3
 
3 2 3 8 1 4 2
= x + x− x
16 3 3 3 1
 
3 16 7
= −3 = .
16 3 16

Devis Alvarado: Resumen libros y propio 4


Si x, y cumplen que 0 < x < y < 2
Z x Z y
F (x, y) = f (u, v)dvdu
Z−∞ −∞
xZ y
3 2
= (u + v 2 )dvdu
0 u 16
Z x
v 3 y

3 2
= u v+ du
16 0 3 u
Z x
y3 4 3

3 2
= u y+ − u du
16 0 3 3
 3 3 4

3 x y y x x
= + −
16 3 3 3

Z 2Z y
3 2
P (X + Y > 2) = (x + y 2 )dxdy
1 2−y 16

0.1.1 Distribución marginal


Definición 7 (Funcion de distribución marginal). Sea (X, Y ) un vector con función de distribución
FX,Y (x, y). A la función
FX (x) = lim FX,Y (x, y)
y→∞
se le conoce como la función de distribución marginal de X. Análogamente se define la función de
distribución marginal de Y como
FY (y) = lim FX,Y (x, y).
x→∞

Definición 8 (Funcion de densidad marginal). Sea (X, Y ) un vector absolutamente continuo con
función de densidad fX,Y (x, y). A la función
Z ∞
fX (x) = fX,Y (x, y)dy
−∞
se le conoce como la función de densidad marginal de X.
Análogamente se define la función de densidad marginal de Y como
Z ∞
fY (y) = fX,Y (x, y)dx.
−∞

Si (X, Y ) es un vector discreto la integral se reemplaza por una suma.

Ejemplo 3 Sea 0 < a < 1 y defina la función f (x, y) = ax (1 − a)y , para x, y = 1, 2, · · · . De-
muestre que f (x, y) es una función de densidad y calcule las funciones de densidad y de distribución
marginales. Calcule además FX,Y (x, y).
Solución:
1.
∞ X
X ∞ ∞ X
X ∞
f (x, y) = ax (1 − a)y
x=1 y=1 x=1 y=1
∞ ∞
!
X X
x
= a (1 − a)y
x=1 y=1
a 1−a
= ·
1−a 1 − (1 − a)
a 1−a
= · =1
1−a a

Devis Alvarado: Resumen libros y propio 5


2.

X
fX (x) = f (x, y)
y=1

X
= ax (1 − a)y
y=1

X
= ax (1 − a)y
y=1
1−a
= ax = (1 − a)ax−1 .
a


X
fY (y) = fX,Y (x, y)
x=1
X∞
= ax (1 − a)y
x=1
a
= (1 − a)y = a(1 − a)y−1 .
1−a

3.
y
x X
X
FX,Y (x, y) = f (s, t)
s=1 t=1
Xx X y
= as (1 − a)t
s=1 t=1
1 − ax 1 − (1 − a)y
= a (1 − a)
1−a a
= (1 − ax )(1 − (1 − a)y )

FX (x) = lim FX,Y (x, y)


y→∞
= lim (1 − ax )(1 − (1 − a)y )
y→∞
= 1 − ax

Ejemplo 4 Encuentre la constante c que hace a f una función de densidad. Encuentre además
las funciones de densidad marginales.

1.
f (x, y) = c min{x, y} para 0 < x, y < 1.

2.
f (x, y) = c max{x + y − 1, 0} para 0 < x, y < 1.

Solución:

Devis Alvarado: Resumen libros y propio 6


1.

2.

Ejemplo 5

Solución:

0.1.2 Distribución condicional


Definición 9 (Funcion de densidad condicional). Sea (X, Y ) un vector con función de densidad
fX,Y (x, y), y sea y tal que fY (y) 6= 0. A la función

fX,Y (x, y)
fX|Y (x|y) =
fY (y)

se le conoce como la función de densidad condicional de X dado que Y toma el valor y.

Definición 10 (Funcion de distribución condicional). Sea (X, Y ) un vector aleatorio absoluta-


mente continuo con función de densidad fX,Y (x, y), y sea y tal que fY (y) 6= 0. A la función
Z x
FX|Y (x|y) = fX|Y (u|y)du
−∞

se le conoce como la función de distribución condicional de X dado que Y toma el valor y. Cuando
el vector aleatorio (X, Y ) es discreto la integral se substituye por la suma correspondiente.

Se cumple

fX|Y (x|y) = F (x|y).
∂x X|Y

Definición 11 Sea (X, Y ) un vector con función de distribución FX,Y (x, y), y sea y un valor tal
que fY (y) 6= 0. Si X tiene esperanza finita, entonces se define
Z ∞ Z ∞
E(X|Y = y) = xdFX|Y (x|y) = xfX|Y =y (x|y)dx
−∞ −∞

Ejemplo 6 Calcule las funciones condicionales fX|Y (x|y) y FX|Y (x|y), para las siguientes funciones
de densidad.

Devis Alvarado: Resumen libros y propio 7


1.
f (x, y) = 24x(1 − x − y), para x, y > 0, x + y < 1.

2.
f (x, y) = 14 (x + 2y), para 0 < x < 2, 0 < y < 2.

Solución:

1.

Z ∞
fY (y) = fX,Y (x, y)dx
−∞
Z 1−y
= 24x(1 − x − y)dx
0
x2 x3 x2 y 1−y
 
= 24 − −
2 3 2

0
2 (1 − y)3 (1 − y)2
 
(1 − y)
= 24 − − y
2 3 2
= 4(1 − y)2 [3 − 2(1 − y) − 3y]
= 4(1 − y)3 .

ası́
fX,Y (x, y)
fX|Y (x|y) =
fY (y)
24x(1 − x − y)
=
4(1 − y)3
6x(1 − x − y)
= .
(1 − y)3

Si x < 0 o y < 0, se tiene FX|y (x|y) = 0.


Si 0 < x < 1 y x + y < 1
Z x
FX|Y (x|y) = fX|Y (u|y)du
−∞
Z x 
6u(1 − u − y)
= du
0 (1 − y)3
Z x
6
u − u2 − uy du

= 3
(1 − y) 0
 2 x
6 u u3 u2
= − − y
(1 − y)3 2 3 2 0
x2
= (3 − 2x − 3y).
(1 − y)3

Devis Alvarado: Resumen libros y propio 8


2.

Ejemplo 7 Sea (X, Y ) un vector con función de densidad f (x, y) = 8xy, para 0 < x < y < 1.
Grafique y compruebe que f (x, y) es una función de densidad. Calcule además

fX (x) fY (y) FX,Y (x, y)

fX|Y (x, y) FX|Y (x|y) E(X)

P (XY < 0.5) P (X + Y < 1) E(Y |X = x).

Solución:

1.

2.

3.

4.

5.

6.

7.

8.

9.

Definición 12 (Independencia de dos variables aleatorias). Se dice que X y Y son independientes,


y a menudo se escribe X ⊥ Y , si para cada par de conjuntos de Borel A, B de R, se cumple la
igualdad
P (X ∈ A, Y ∈ B) = P (X ∈ A)P (X ∈ B)
En particular
fX,Y (x, y) = fX (x)fY (y).

Devis Alvarado: Resumen libros y propio 9


Proposición 3 (Independencia de dos variables aleatorias). Las variables aleatorias X y Y son
independientes si, y sólo si, para cada (x, y) en R2 se cumple la igualdad

FX,Y (x, y) = FX (x)FY (y).

Definición 13 (Independencia de varias variables aleatorias). Se dice que las variables X1 , · · · , Xn


son independientes si para cualesquiera Borelianos A1 , · · · , An de R, se cumple

P (X1 ∈ A1 , · · · , Xn ∈ An ) = P (X1 ∈ A1 ) · · · P (Xn ∈ An ).

Más aún, una colección infinita de variables aleatorias es independiente si cualquier subconjunto
finito de ella lo es.

Proposición 4 Sean X y Y independientes, y sean g y h dos funciones de R en R, Borel medibles.


Entonces las variables aleatorias g(X) y h(Y ) también son independientes.

Ejemplo 8 Determine si las siguientes son funciones de densidad de variables aleatorias indepen-
dientes.

1. f (x, y) = 2e−x−y , 0 < x < y.

2. f (x, y) = e−x−y , x, y > 0.

3. f (x, y) = 3x(1 − xy), para 0 < x, y < 1.

Solución:

1.
Z ∞
fX (x) = fX,Y (x, y)dy
Z−∞

= 2e−x−y dy
x
Z ∞
= 2e−x e−y dy
x
−x
 −y  ∞
= 2e −e
x
= 2e−2x

Z ∞
fY (y) = fX,Y (x, y)dx
Z−∞
y
= 2e−x−y dx
0
 y
= 2e−y −e−x

0
= 2e−y (1 − e−y ).

y fX,Y (x, y) = 2e−x−y 6= fX (x)fY (y) = 4e−2x−y (1 − e−y ), por lo que no son independientes.

2.

Devis Alvarado: Resumen libros y propio 10


3.
∞ 1
y 2 1
Z Z   h xi
fX (x) = fX,Y (x, y)dy = 3x(1 − xy)dy = 3x y − x = 3x 1 −
−∞ 0 2 0 2
y

Ejemplo 9 Sean X y Y independientes con valores enteros naturales y con esperanza finita. De-
muestre que
X∞
E (min{X, Y }) = P (X ≥ n)P (Y ≥ n).
n=1

Solución:

Ejemplo 10 Sean X y Y independientes con distribución exp(λ1 ) y exp(λ2 ) respectivamente.


Demuestre que P (Y > X) = λ1λ+λ
1
2
.

Solución:

Ejemplo 11 Sea (X, Y ) un vector con función de densidad f (x, y) = c(1 − x), para 0 < x < y < 1.
1. Encuentre el valor de c que hace a f (x, y) una función de densidad y grafique esta función.
2. Calcule P (X + Y > 1) y P (X ≤ 12 ).
3. Encuentre las funciones de densidad marginales fX (x) y fY (y).
4. Determine si X y Y son independientes.

Solución:
1.
Z ∞ Z ∞
fX,Y (x, y)dydx = 1
−∞ −∞
Z 1Z 1
⇒ c(1 − x)dydx = 1
0 x
Z 1 1
⇒ c [(1 − x)y] dx = 1

0 x
Z 1
⇒ c (1 − x)2 dx = 1
0
(1 − x)3 1
⇒ −c =1
3 0
⇒ c = 3.

Devis Alvarado: Resumen libros y propio 11


2.
Z 1Z y
P (X + Y > 1) = fX,Y (x, y)dxdy
1
2
1−y
Z 1Z y
= 3(1 − x)dxdy
1
2
1−y
Z 1 
3 2 y
= 3x − x dy
1 2 1−y
2
Z 1 
3 3
= 3y − y 2 − 3(1 − y) + (1 − y)2 dy
1 2 2
2
Z 1 
3
= 3y − dy
1 2
2
 
3 2 3 1
= y − y 1
2 2 2
 
3 3 3 3 3
= − − + = .
2 2 8 4 8

  Z 1Z 1
1 2
P X≤ = 3(1 − x)dydx
2 0 x
Z 1
2
= 3 (1 − x)2 dx
0
1
2 2
= −(1 − x)
0
1
= − +1
4
3
= .
4

3.

4.

Teorema 1 (Esperanza de una funcion de un vector aleatorio).


Sea (X, Y ) un vector aleatorio, y sea ψ : R2 → R una función Borel medible tal que la variable
aleatoria ψ(X, Y ) tiene esperanza finita. Entonces
Z Z ∞Z ∞
E[ψ(X, Y )] = ψ(x, y)dFX,Y (x, y) = ψ(x, y)fX,Y (x, y)dxdy.
R2 −∞ −∞

Definición 14 (Covarianza). La covarianza de X y Y , denotada por Cov(X, Y ), es el número

Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))] = E(XY ) − E(X)E(Y ).

Ejemplo 12 Sean X y Y variables aleatorias independientes con varianza finita. Demuestre que

V ar(XY ) = V ar(X)V ar(Y ) + E 2 (X)V ar(Y ) + E 2 (Y )V ar(X).

Devis Alvarado: Resumen libros y propio 12


Solución: Veamos que

V ar(XY ) = E X 2 Y 2 − E 2 (XY )


= E X 2 E Y 2 − E 2 (X)E 2 (Y )
 

= V ar(X) + E 2 (X) V ar(Y ) + E 2 (Y ) − E 2 (X)E 2 (Y )


 

= V ar(X)V ar(Y ) + E 2 (X)V ar(Y ) + E 2 (Y )V ar(X)

Ejemplo 13 Sea (X, Y ) un vector aleatorio con función de densidad dada por

8xy si 0 < y < x < 1,
f (x, y) =
0 0.c.

1. Grafique f (x, y) y compruebe que efectivamente es una función de densidad conjunta.

2. Encuentre y grafique las densidades marginales fX (x) y fY (y). Verifique que ambas son
efectivamente funciones de densidad.

3. Demuestre que X y Y no son independientes.

4. Calcule E(XY ) y fX+Y (u).

Solución:

1.

2.

3.

4.

5.

X1 +···+Xn
Ejemplo 14 Sean X1 , · · · , Xn independientes y con idéntica distribución. Defina X = n .
Demuestre que para cada k = 1, · · · , n, Cov(Xk − X, X) = 0.

Devis Alvarado: Resumen libros y propio 13


Solución:

n
  1 X
Cov Xk − X, X = Cov Xk , X − V ar(X) = Cov Xk , Xj  − V ar(X)
n
j=1

n
1X 1 1 σ2
= Cov(Xk , Xj ) − V ar(X) = V ar(Xk ) − V ar(X) − σ 2 −
n n n n
j=1
     
n n n
1 X 1 X 1 X X
V ar(X) = V ar  Xj  = 2 V ar  Xj  = 2  V ar(Xj ) + 2 Cov(Xj , Xi )
n n n
j=1 j=1 j=1 j<i
n n
1 X 1 X 2 σ2
= 2 V ar(Xj ) = 2 σ = .
n n n
j=1 j=1

Definición 15 (Coeficiente de correlacion).


El coeficiente de correlación de las variables aleatorias X y Y , denotado por ρ(X, Y ), es el número

Cov(X, Y ) σXY
ρ(X, Y ) = p =
V ar(X)V ar(Y ) σX σY

Proposición 5 El coeficiente de correlación satisface las siguientes propiedades.

1. Si X y Y son independientes, entonces ρ(X, Y ) = 0.

2. −1 ≤ ρ(X, Y ) ≤ 1.

3. |ρ(X, Y )| = 1 si, y sólo si, existen constantes a y b tales que, con probabilidad uno, Y = aX +b,
con a > 0 si ρ(X, Y ) = 1, y a < 0 si ρ(X, Y ) = −1.

Demostración:

1. Si X y Y son independientes, entonces Cov(X, Y ) = 0, y por lo tanto ρ(X, Y ) = 0.

2. Suponga primero que X y Y son tales que E(X) = E(Y ) = 0, y V ar(X) = V ar(Y ) = 1.
Para cualquier valor de λ,
0 ≤ V ar(X + λY )
= E(X + λY )2 − E 2 (X + λY )
= 1 + 2λE(XY ) + λ2 .
El caso λ = 1 produce el resultado E(XY ) ≥ −1, mientras que para λ = −1 se obtiene
E(XY ) ≤ 1. Es decir, −1 ≤ E(XY ) ≤ 1. Ahora se aplica este resultado a las variables
aleatorias X−µ
σX
X
y Y −µY
σY , que evidentemente son centradas y con varianza unitaria. Entonces
  
X − µX Y − µY
−1 ≤ E ≤ 1.
σX σY

El término de enmedio es ρ(X, Y ).

3. Si X y Y son tales que Y = aX + b con a 6= 0 y b constantes, entonces

Cov(X, aX + b) a
ρ(X, Y ) = = .
V ar(X)V ar(aX + b) |a|

Devis Alvarado: Resumen libros y propio 14


Por lo tanto ρ(X, Y ) = 1 cuando a > 0, y ρ(X, Y ) = −1 cuando a < 0.
X−µX
Inversamente, suponga que X y Y son tales que |ρ(X, Y )| = 1. Defina U = σX yV =
Y −µY
σY . Entonces claramente E(U ) = E(V ) = 0, y V ar(U ) = V ar(V ) = 1 Por lo tanto
ρ(U, V ) = E(U V ).
Es fácil ver también que |ρ(U, V )| = |ρ(X, Y )| = 1.
Si ρ(U, V ) = 1, entonces

V ar(U − V ) = E(U − V )2 − E 2 (U − V ) = E(U − V )2

= 2(1 − E(U V )) = 0.
Esto significa que con probabilidad uno, la variable U − V es constante. Esto es, para alguna
constante c, con probabilidad uno, U − V = c. Pero esta constante c debe ser cero pues
E(U − V ) = 0. Por lo tanto,
X − µX Y − µY
=
σX σY
de donde se obtiene Y = µY + X−µ X
σX σY . Esto establece una relación lineal directa entre X
y Y . Elotro caso es similar, usamos U + V .

Proposición 6 Si (X, Y ) es un vector con distribución normal bivariada tal que ρ(X, Y ) = 0,
entonces X y Y son independientes.

Ejemplo 15 Sea X con distribución bin(n, p) y sea Y = n − X. Demuestre que Cov(X, Y ) =


−np(1 − p), y por lo tanto ρ(X, Y ) = −1.

Solución:

Proposición 7 Si (X, Y ) es un vector con distribución normal bivariada tal que ρ(X, Y ) = 0,
entonces X y Y son independientes.

Demostración: La función de densidad conjunta de X, Y es la función de densidad de la normal


bivaridad es
 2     2 
x−µ1 x−µ y−µ2 y−µ
1 − √1 σ1
−2ρ σ 1 σ
+ σ 2
fX,Y (x, y) = p e 2 1−ρ2 1 2 2

2πσ1 σ2 1 − ρ2

donde µ1 = E(X), σ12 = V ar(X), µ2 = E(Y ), σ22 = V ar(Y ) y ρ ∈ (−1, 1)

Definición 16 (Esperanza y varianza de un vector). Sea X el vector aleatorio (X1 , · · · , Xn ).


Cuando cada coordenada del vector tiene esperanza finita se define la esperanza de X como el
vector numérico
E(X) = (E(X1 ), · · · , E(Xn )) .
Si cada coordenada del vector aleatorio tiene segundo momento finito, entonces la varianza de X
se define como la matriz cuadrada
 
V ar(x1 ) Cov(X1 , X2 ) ··· Cov(X1 , Xn )
 Cov(X2 , X1 )
 V ar(X2 ) ··· Cov(X2 , Xn )

 .. .. .. 
 . . ··· . 
Cov(Xn , X1 ) Cov(XN , X2 ) · · · V ar(Xn )

Devis Alvarado: Resumen libros y propio 15


La varianza de un vector X puede expresarse como sigue

E (X − E(X))(X − E(X))t
 

La matriz de la varianza es semi definida positiva.


Se puede también definir la matriz de coeficientes de correlación del vector X como sigue
 
1 ρ(X1 , X2 ) · · · ρ(X1 , Xn )
 ρ(X2 , X1 )
 1 · · · ρ(X2 , Xn )
 .. .. .. 
 . . ··· . 
ρ(Xn , X1 ) ρ(XN , X2 ) · · · 1

Definición 17 (Esperanza condicional). Sea X una variable aleatoria con esperanza finita, y sea
G una sub-σ-álgebra de F . La esperanza condicional de X dado G , es una variable aleatoria
denotada por E(X|G ), que cumple las siguientes tres propiedades.

1. Es G -medible.

2. Tiene esperanza finita.

3. Para cualquier evento G en G ,


Z Z
E(X|G )dP = XdP.
G G

Notación.

1. Cuando la σ-álgebra G es igual a σ(Y ), para alguna variable aleatoria Y , la esperanza condi-
cional se escribe simplemente como E(X|Y ), en lugar de E(X|σ(Y )).

2. Si A es un evento, entonces la esperanza condicional E(1A |G ) se denota por P (A|G ).

Proposición 8 (Esperanza condicional, caso discreto). Sea X una variable aleatoria integrable, y
sea Y discreta con valores y1 , y2 , · · · . La función E(X|Y ) : Ω → R
mathbbR dada por
E(X|Y )(ω) = E(X|Y = yj )
si Y (ω) = yj , es una variable aleatoria que cumple las siguientes propiedades.

1. Es σ(Y )−medible.

2. Tiene esperanza finita.

3. Para cualquier evento G en σ(Y ),


Z Z
E(X|Y )dP = XdP.
G G

Proposición 9 Sea Xcon esperanza finita, y sean A y B eventos tales que 0 < P (B) < 1. Entonces

1. E(X|{φ, Ω}) = E(X).

2. E(1A |{φ, Ω}) = P (A).

3. E(1A |{φ, B, B c , Ω}) = P (A|B)1B + P (A|B c )1B c .

Devis Alvarado: Resumen libros y propio 16


Proposición 10 Sean X y Y variables aleatorias con esperanza finita y sea c una constante.
Entonces
1. Si X ≥ 0, entonces E(X|G ) ≥ 0.
2. E(cX + Y |G ) = cE(X|G ) + E(Y |G ).
3. Si X ≤ Y , entonces E(X|G ) ≤ E(Y |G ).
4. E(E(X|G )) = E(X).
5. Si X es G −medible, entonces E(X|G ) = X c.s. En particular, E(c|G ) = c.
6. Si G1 ⊆ G2 entonces
E(E(X|G1 )|G2 ) = E(E(X|G2 )|G1 ) = E(X|G1 ).

Ejemplo 16 Sea B1 , · · · , Bn una partición finita de Ω en donde cada elemento tiene probabilidad
positiva, y sean b1 , · · · , bn constantes cualesquiera. Defina la variable aleatoria discreta
n
X
Y = bi 1Bi .
i=1

Sea X con segundo momento finito. Demuestre que la distancia entre X y Y definida por d(X, Y ) =
1
E(X − Y )2 2 es mı́nima cuando bi = E(X|Bi ), es decir, cuando la variable Y es la esperanza


condicional E(X|Y ).
Solución:
1
d(X, Y ) = E(X − Y )2 2 ⇒ d2 (X, Y ) = E(X − Y )2


Ejemplo 17 Sea X ≥ 0 integrable. Demuestre que para cualquier constante ε > 0,


1
P (X ≥ ε|G ) ≤ E(X|G ).
ε
Solución:

0.2 Transformaciones
Teorema 2 (Teorema de cambio de variable 1.) Sea X una variable aleatoria continua con valores
dentro de un intervalo (a, b) ⊆ R, y con función de densidad fX (x). Sea ϕ : (a, b) → R una función
continua, estrictamente creciente o decreciente, y con inversa diferenciable. Entonces la variable
aleatoria Y = ϕ(X) toma valores dentro del intervalo ϕ(a, b), y tiene función de densidad
(  d −1
fX ϕ−1 (y) dy ϕ (y) , y ∈ ϕ(a, b).
fY (y) =
0, 0.c

Devis Alvarado: Resumen libros y propio 17


Demostración: Suponga primero el caso ϕ estrictamente creciente. Entonces para y ∈ ϕ(a, b),

FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y)

= P X ≤ ϕ−1 (y) = FX ϕ−1 (y)


 

Derivando se obtiene
d d  d −1
FX ϕ−1 (y) = fX ϕ−1 (y)

fY (y) = FY (y) = ϕ (y)
dy dy dy
Para el caso decreciente

FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y)
= P X ≥ ϕ−1 (y) = 1 − FX ϕ−1 (y)
 

Derivando se obtiene
 
d d  −1
 −1
 d −1
fY (y) = FY (y) = 1 − FX ϕ (y) = fX ϕ (y) − ϕ (y)
dy dy dy

Teorema 3 (Teorema de cambio de variable 2.) Sea X una variable aleatoria continua con valores
dentro de un intervalo (a, c) ⊆ R, y con función de densidad fX (x). Sea ϕ : (a, c) → R una función
tal que admite la descomposición

ϕ1 (x), x ∈ ϕ(a, b).
ϕ(x) =
ϕ2 (x), x ∈ ϕ(b, c),

en donde a < b < c, y cada una de las funciones ϕ1 (x) : (a, b) → R y ϕ2 (x) : (b, c) → R es continua,
estrictamente creciente o decreciente, y con inversa diferenciable. Entonces la variable aleatoria
Y = ϕ(X) toma valores dentro del intervalo ϕ(a, c), y tiene función de densidad

−1
 d −1 −1
 d −1
fY (y) = fX ϕ1 (y) ϕ1 (y) · 1ϕ1 (a,b) (y) + fX ϕ2 (y) ϕ2 (y) · 1ϕ2 (b,c) (y).
dy dy
Demostración: La prueba es similar al caso anterior, únicamente hay que hacer el análisis sobre
cada uno de los intervalos de monotonı́a estricta. Para cualquier y en R,

FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y)

= P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a, b))] + P [(ϕ2 (X) ≤ y) ∩ (X ∈ (b, c))] .


Nos interesa el comportamiento de estas probabilidades como funciones de y, puesto que calculare-
mos la derivada de ellas para encontrar fY (y). Por ejemplo P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a, b))], se puede
ver como una función de y, que se puede suponer quepermanece constante para y 6∈ ϕ1 (a, b), de
modo que, si por ejemplo ϕ1 es creciente, para y ∈ ϕ1 (a, b),
d d
P [(ϕ1 (X) ≤ y) ∩ (X ∈ (a, b))] = P [(X ≤ ϕ−1
1 (y)) ∩ (X ∈ (a, b))]
dy dy
d d d −1
= P [a < X ≤ ϕ−11 (y)] = FX (ϕ−1 −1
1 (y)) = fX (ϕ1 (y)) · ϕ (y).
dy dy dy 1
De manera similar se procede respecto del segundo sumando, considerando también el caso cuando
se presenta la monotonı́a decreciente. De esta forma se obtiene la fórmula enunciada.
Ejemplo 18 Sea X con distribución uniforme en el intervalo (0, 1). Demuestre que la función de
densidad de la variable Y = 4X(1 − X) es
(
√1 , 0<y<1
fY (y) = 2 1−y
0, o.c

Devis Alvarado: Resumen libros y propio 18


Solución: La función ϕ(x) = 4x(1 − x) es creciente en 0, 12 y decreciente en 12 , 1 ,
 

ası́ ϕ1 (x) = 4x(1 − x) en 0, 21 y la inversa es ϕ−1 1 d −1 √1
  
1 (y) = 2 1 − 1 − y y dy ϕ2 (y) = 4 1−y
, para
y ∈ (0, 1). Similarmente se obtine para el otro caso y
 
1
ϕ2 (x) = 4x(1 − x), x ∈ ,1
2
y
1h i d −1
ϕ−1 1 + 1 − y , ϕ−1
p
2 (y) = 2 (y) = √
2 dy 4 1−y
   
1 p 1 1 p 1
fY (y) = fX (1 − 1 − y) √ · 1ϕ1 (0, 1 ) (y) + fX (1 + 1 − y) √ · 1 1 (y)
2 4 1−y 2 2 4 1 − y ϕ2 ( 2 ,1)
   
1 p 1 1 p 1
= fX (1 − 1 − y) √ · 1(0,1) (y) + fX (1 + 1 − y) √ ·1 (y).
2 4 1−y 2 4 1 − y (0,1)
1 1 1
= √ + √ = √ .
4 1−y 4 1−y 2 1−y
Observemos que
1h p i
1 − 1 − y ∈ (0, 1)
2
1 p p p
0 < (1 − 1 − y) < 1 ⇒ −1 < 1 − y < 1 ⇒ 0 < 1 − y < 1 ⇒ 0 < y < 1.
2
Ejemplo 19 Sea X con distribución normal estándar. Demuestre que la variable aleatoria Y = |X|
tiene función de densidad ( q 2
2 − y2
e , y≥0
fY (y) = π
0, y < 0.

Solución: Si y < 0, entonces FY (y) = P (Y ≤ y) = P (|X| ≤ y) = 0 → fY (y) = 0.


Si y ≥ 0, entonces

FY (y) = P (Y ≤ y)
= P (|X| ≤ y)
= P (−y ≤ X ≤ y)
= P (X ≤ y) − P (X ≤ −y)
= FX (y) − FX (−y)
r
1 y2 2 − y2
⇒ fY (y) = fX (y) + fX (−y) = 2fX (y) = 2 √ e− 2 = e 2.
2π π

Ejemplo 20 Sea X con distribución


√ uniforme en el intervalo [−1, 1]. Encuentre la función de
densidad de la variable Y = 1 − X 2

Solución:
Teorema 4 (Teorema de transformación integral) Sea X una variable aleatoria con función de
distribuación FX (x) continua y defina la variable aleatoria Y como Y = FX (X). Entonces Y tiene
distribución uniforme en (0, 1), es decir P (Y ≤ y) = y, para 0 < y < 1.

Demostración: Para Y = FX (X) tnemos, y para 0 < y < 1,

FY (y) = P (Y ≤ y) = P (FX (X) ≤ y) = P X ≤ FX−1 (y) = FX FX−1 (y) = y.


 

Si y ≤ 0, se tiene que FY (y) = P (Y ≤ y) = 0, y si y ≥ 1, se tiene FY (y) = P (Y ≤ y) = 1.

Devis Alvarado: Resumen libros y propio 19


Teorema 5 (Teorema de cambio de variable 3.) Sea (X, Y ) un vector continuo con valores en
I ⊆ R2 , y con función de densidad fX,Y (x, y). Sea ϕ(x, y) : I → R2 una función continua con
inversa ϕ−1 (u, v) diferenciable. Entonces el vector (U, V ) = ϕ(X, Y ) toma valores en ϕ(I) y tiene
función de densidad
fX,Y ϕ−1 (u, v) |J(u, v)|, (u, v) ∈ ϕ(I).
 
fU,V (u, v) =
0, o.c
en donde
∂ −1 ∂ −1

∂u ϕ1 ∂v ϕ1

J(u, v) = ∂ −1 ∂ −1

∂u ϕ2 ∂v ϕ2

Caso particular
Proposición 11 ( Transformación de una suma) Sea (X, Y ) un vector absolutamente continuo
con función de densidad fX,Y (x, y). Entonces X + Y tiene función de densidad
Z ∞
fX+Y (u) = fX,Y (u − v, v)dv
−∞

Demostración: Se usa la transformación ϕ(x, y) = (x + y, y). También casos partuclares son la


distribución de la diferencia, producto y cociente de dos variables aleatorias.
Ejemplo 21 Sean X y Y variables aleatorias independientes Poisson con parámetros θ y λ, re-
spectivamente. Demuestre que X + Y es Poisson.

Solución: La densidad conjunta de X y Y es


θx e−θ λy e−λ
fX,Y (x, y) = fX (x)fY (y) = ·
x! y!
con x, y = 0, 1, · · · . Sea U = X + Y y V = Y . Los valores de las variables son u = x + y y v = y,
entonces y = v y x = u − v, como x, y ≥ 0, entonces v = y ≥ 0, u − v = x ≥ 0 ⇒ v ≤ u. Entonces
θu−v e−θ λv e−λ
fU,V (u, v) = fX,Y (u − v, v) = ·
(u − v)! v!
con v = 0, 1, · · · y u = v, v + 1, · · · . Calculemos la marginal de U ,
u
X X θu−v e−θ λv e−λ
fU (u) = fU,V (u, v) = ·
v
(u − v)! v!
v=0
u u  
−θ−λ
X θu−v λv e−θ−λ X u u−v v e−θ−λ
=e = θ λ = (θ + λ)u .
(u − v)! v! u! v u!
v=0 v=0
Es decir U = X + Y ∼ P oisson(θ + λ).
Ejemplo 22 Sea X ∼ beta(α, β), Y ∼ beta(α+β, γ) variables aleatorias independientes. Encontrar
la distribución de XY .

Solución: La dsitribución conjunta de X, Y es


Γ(α + β) α−1 Γ(α + β + γ) α+β−1
fX,Y (x, y) = fX (x)fY (y) = x (1 − x)β−1 y (1 − y)γ−1
Γ(α)Γ(β) Γ(α + β)Γ(γ)
con 0 < x < 1 y 0 < y < 1.
u
Sea U = XY y V = Y , ası́ se tiene u = xy, v = y, entonces x = v,y = v con 0 < v < 1 y
0 < x < 1 ⇒ 0 < uv < 1 ⇒ 0 < u < v. El Jacoviano es
∂x ∂x 1
− vu2 1


∂u ∂v
J(u, v) = ∂y ∂y =
v = .
∂u ∂v
0 1 v

Devis Alvarado: Resumen libros y propio 20


Ası́
u 1
Γ(α + β)  u α−1  u β−1 Γ(α + β + γ) α+β−1 1
fU,V (u, v) = fX,Y ,v = 1− v (1 − v)γ−1
v v Γ(α)Γ(β) v v Γ(α + β)Γ(γ) v
Γ(α + β + γ)  u α−1  u β−1 α+β−1 1
= 1− v (1 − v)γ−1
Γ(α)Γ(β)Γ(γ) v v v
con 0 < u < v < 1. Encontremos la distribución marginal de U ,
Z 1
Γ(α + β + γ)  u α−1  u β−1 α+β−1 1
fU (u) = 1− v (1 − v)γ−1 dv
u Γ(α)Γ(β)Γ(γ) v v v
Z 1
Γ(α + β + γ) α−1
= u (v − u)β−1 (1 − v)γ−1 dv.
Γ(α)Γ(β)Γ(γ) u
v−u 1
Sea y = 1−u y dy = ⇒ dv = (1 − u)dy, entonces
1−u dv

Γ(α + β + γ) α−1 1
Z
fU (u) = u (v − u)β−1 (1 − v)γ−1 dv
Γ(α)Γ(β)Γ(γ) u
Z 1
Γ(α + β + γ) α−1
= u ((1 − u)y)β−1 ((1 − u)(1 − y))γ−1 (1 − u)dy
Γ(α)Γ(β)Γ(γ) 0
Z 1
Γ(α + β + γ) α−1 β+γ−1
= u (1 − u) y β−1 (1 − y)γ−1 dy
Γ(α)Γ(β)Γ(γ) 0
Γ(α + β + γ) α−1 Γ(β)Γ(γ) Γ(α + β + γ) α−1
= u (1 − u)β+γ−1 = u (1 − u)β+γ−1 .
Γ(α)Γ(β)Γ(γ) Γ(β + γ) Γ(α)Γ(β + γ)
Es decir U = XY ∼ Γ(α, β + γ).
X
Ejemplo 23 Sean X y Y independientes con distribución normal estándar. Demuestre que Y
tiene distribución Cauchy.
Solución: Sea U = X x
Y , V = Y la tranformación y u = y , v = y los valores respectivos de las
variables, entonces y = v y x = uv, y ası́
∂x ∂x
v u
∂u ∂v
J(u, v) = ∂y ∂y =
=v
∂u ∂v
0 1

con esto
1 (uv)2 1 v2
fU,V (u, v) = fX,Y (uv, v)v = fX (uv)fY (v)v = √ e− 2 · √ e− 2 · v
2π 2π
1 − v2 (u2 +1)
= ve 2

2
calculando la marginal de U , y haciendo el cambio de variable z = v2 (u2 + 1) → dz = v(u2 + 1)dv,
Z ∞ Z ∞
1 v2 2
fU (u) = fU,V (u, v)dv = |v|e− 2 (u +1) dv
−∞ −∞ 2π
Z ∞   Z ∞
1 −z dz 1 1
=2 e 2
= 2
e−z dz = .
0 2π 1+u π(1 + u ) 0 π(1 + u2 )
X
Es decir U = Y ∼ Cauchy(0, 1).
X
Ejemplo 24 Encuentre la función de densidad de Y cuando X y Y tienen función de densidad
conjunta ( 2 2 3(x +y )
, 0 < x < y < 2,
fX,Y (x, y) = 16
0, o.c
Solución:

Devis Alvarado: Resumen libros y propio 21

También podría gustarte