DistribBivariadas Actual
DistribBivariadas Actual
DistribBivariadas Actual
Facultad Ciencias
Escuela de Matemáticas
Tegucigalpa, M.D.C., Honduras, C.A.
Proposición 1 Una función (X1 · · · , Xn ) : Ω → Rn es un vector aleatorio si, y sólo si, cada
coordenada es una variable aleatoria.
Definición 2 (Vector discreto y continuo). Se dice que el vector (X, Y ) es discreto si cada coorde-
nada es una variable aleatoria discreta, y se dice que es continuo en caso de que cada coordenada
lo sea.
Proposición 2 Toda función de distribución conjunta FX,Y (x, y) satisface las siguientes propiedades.
Definición 4 (Funcion de distribución conjunta). Una función cualquiera FX,Y (x, y) : R2 → [0, 1],
no necesariamente definida en términos de un vector aleatorio, es una función de distribución
conjunta si cumple con las cinco propiedades enunciadas en la proposición anterior.
Definición 6 (Funcion de densidad conjunta). Sea (X, Y ) un vector continuo con función de
distribución FX,Y (x, y). Se dice que (X, Y ) es absolutamente continuo si existe una función no
negativa e integrable fX,Y (x, y) : R2 → [0, ∞), tal que, para todo (x, y) en R2 , se cumple la
igualdad Z Z x y
FX,Y (x, y) = f (u, v)dvdu.
−∞ −∞
A la función fX,Y (x, y) se le denota por fX,Y (x, y), y se le llama función de densidad conjunta de
X y Y.
1. fX,Y (x, y) ≥ 0.
2. Z ∞ Z ∞
fX,Y (x, y)dxdy = 1.
−∞ −∞
3.
∂2
fX,Y (x, y) = FX,Y (x, y)
∂y∂x
Solución:
1.
n X
n n X n
X 4xy 4 X
= xy
n2 (n + 1)2 n2 (n + 1)2
x=1 y=1 x=1 y=1
n
! n
4 X X
= x y
n2 (n + 1)2
x=1 y=1
4 n(n + 1) n(n + 1)
=
n2 (n + 1)2 2 2
= 1.
2.
X
P (X = Y ) = P (X = Y = x)
x
n
X 4x2
=
n2 (n + 1)2
x=1
4 n(n + 1)(2n + 1)
=
n2 (n+ 1) 2 6
2(2n + 1)
= .
3n(n + 1)
3.
n
X
P (X = 1) = P (X = 1, Y = y)
y=1
n
X 4(1)y
=
n2 (n
+ 1)2
y=1
Solución:
1.
Z ∞ Z ∞ Z 2Z 2
3 3 2
f (x, y)dxdy = (x + y 2 )dydx
−∞ −∞ 16
0 x 16
Z 2
y 3 2
3 2
= x y+ dx
16 0 3 x
Z 2
2 8 4 3
= 2x + − x dx
0 3 3
3 2 3 8 1 4 2
= x + x− x
16 3 3 3 0
= 1.
Z 2Z 2
3 2
P (1 < X < 2, 1 < Y < 2) = (x + y 2 )dydx
1 x 16
Z 2
3 2 8 4 3
= 2x + − x dx
16 1 3 3
3 2 3 8 1 4 2
= x + x− x
16 3 3 3 1
3 16 7
= −3 = .
16 3 16
Z 2Z y
3 2
P (X + Y > 2) = (x + y 2 )dxdy
1 2−y 16
Definición 8 (Funcion de densidad marginal). Sea (X, Y ) un vector absolutamente continuo con
función de densidad fX,Y (x, y). A la función
Z ∞
fX (x) = fX,Y (x, y)dy
−∞
se le conoce como la función de densidad marginal de X.
Análogamente se define la función de densidad marginal de Y como
Z ∞
fY (y) = fX,Y (x, y)dx.
−∞
Ejemplo 3 Sea 0 < a < 1 y defina la función f (x, y) = ax (1 − a)y , para x, y = 1, 2, · · · . De-
muestre que f (x, y) es una función de densidad y calcule las funciones de densidad y de distribución
marginales. Calcule además FX,Y (x, y).
Solución:
1.
∞ X
X ∞ ∞ X
X ∞
f (x, y) = ax (1 − a)y
x=1 y=1 x=1 y=1
∞ ∞
!
X X
x
= a (1 − a)y
x=1 y=1
a 1−a
= ·
1−a 1 − (1 − a)
a 1−a
= · =1
1−a a
∞
X
fY (y) = fX,Y (x, y)
x=1
X∞
= ax (1 − a)y
x=1
a
= (1 − a)y = a(1 − a)y−1 .
1−a
3.
y
x X
X
FX,Y (x, y) = f (s, t)
s=1 t=1
Xx X y
= as (1 − a)t
s=1 t=1
1 − ax 1 − (1 − a)y
= a (1 − a)
1−a a
= (1 − ax )(1 − (1 − a)y )
Ejemplo 4 Encuentre la constante c que hace a f una función de densidad. Encuentre además
las funciones de densidad marginales.
1.
f (x, y) = c min{x, y} para 0 < x, y < 1.
2.
f (x, y) = c max{x + y − 1, 0} para 0 < x, y < 1.
Solución:
2.
Ejemplo 5
Solución:
fX,Y (x, y)
fX|Y (x|y) =
fY (y)
se le conoce como la función de distribución condicional de X dado que Y toma el valor y. Cuando
el vector aleatorio (X, Y ) es discreto la integral se substituye por la suma correspondiente.
Se cumple
∂
fX|Y (x|y) = F (x|y).
∂x X|Y
Definición 11 Sea (X, Y ) un vector con función de distribución FX,Y (x, y), y sea y un valor tal
que fY (y) 6= 0. Si X tiene esperanza finita, entonces se define
Z ∞ Z ∞
E(X|Y = y) = xdFX|Y (x|y) = xfX|Y =y (x|y)dx
−∞ −∞
Ejemplo 6 Calcule las funciones condicionales fX|Y (x|y) y FX|Y (x|y), para las siguientes funciones
de densidad.
2.
f (x, y) = 14 (x + 2y), para 0 < x < 2, 0 < y < 2.
Solución:
1.
Z ∞
fY (y) = fX,Y (x, y)dx
−∞
Z 1−y
= 24x(1 − x − y)dx
0
x2 x3 x2 y 1−y
= 24 − −
2 3 2
0
2 (1 − y)3 (1 − y)2
(1 − y)
= 24 − − y
2 3 2
= 4(1 − y)2 [3 − 2(1 − y) − 3y]
= 4(1 − y)3 .
ası́
fX,Y (x, y)
fX|Y (x|y) =
fY (y)
24x(1 − x − y)
=
4(1 − y)3
6x(1 − x − y)
= .
(1 − y)3
Ejemplo 7 Sea (X, Y ) un vector con función de densidad f (x, y) = 8xy, para 0 < x < y < 1.
Grafique y compruebe que f (x, y) es una función de densidad. Calcule además
Solución:
1.
2.
3.
4.
5.
6.
7.
8.
9.
Más aún, una colección infinita de variables aleatorias es independiente si cualquier subconjunto
finito de ella lo es.
Ejemplo 8 Determine si las siguientes son funciones de densidad de variables aleatorias indepen-
dientes.
Solución:
1.
Z ∞
fX (x) = fX,Y (x, y)dy
Z−∞
∞
= 2e−x−y dy
x
Z ∞
= 2e−x e−y dy
x
−x
−y ∞
= 2e −e
x
= 2e−2x
Z ∞
fY (y) = fX,Y (x, y)dx
Z−∞
y
= 2e−x−y dx
0
y
= 2e−y −e−x
0
= 2e−y (1 − e−y ).
y fX,Y (x, y) = 2e−x−y 6= fX (x)fY (y) = 4e−2x−y (1 − e−y ), por lo que no son independientes.
2.
Ejemplo 9 Sean X y Y independientes con valores enteros naturales y con esperanza finita. De-
muestre que
X∞
E (min{X, Y }) = P (X ≥ n)P (Y ≥ n).
n=1
Solución:
Solución:
Ejemplo 11 Sea (X, Y ) un vector con función de densidad f (x, y) = c(1 − x), para 0 < x < y < 1.
1. Encuentre el valor de c que hace a f (x, y) una función de densidad y grafique esta función.
2. Calcule P (X + Y > 1) y P (X ≤ 12 ).
3. Encuentre las funciones de densidad marginales fX (x) y fY (y).
4. Determine si X y Y son independientes.
Solución:
1.
Z ∞ Z ∞
fX,Y (x, y)dydx = 1
−∞ −∞
Z 1Z 1
⇒ c(1 − x)dydx = 1
0 x
Z 1 1
⇒ c [(1 − x)y] dx = 1
0 x
Z 1
⇒ c (1 − x)2 dx = 1
0
(1 − x)3 1
⇒ −c =1
3 0
⇒ c = 3.
Z 1Z 1
1 2
P X≤ = 3(1 − x)dydx
2 0 x
Z 1
2
= 3 (1 − x)2 dx
0
1
2 2
= −(1 − x)
0
1
= − +1
4
3
= .
4
3.
4.
Ejemplo 12 Sean X y Y variables aleatorias independientes con varianza finita. Demuestre que
V ar(XY ) = E X 2 Y 2 − E 2 (XY )
= E X 2 E Y 2 − E 2 (X)E 2 (Y )
Ejemplo 13 Sea (X, Y ) un vector aleatorio con función de densidad dada por
8xy si 0 < y < x < 1,
f (x, y) =
0 0.c.
2. Encuentre y grafique las densidades marginales fX (x) y fY (y). Verifique que ambas son
efectivamente funciones de densidad.
Solución:
1.
2.
3.
4.
5.
X1 +···+Xn
Ejemplo 14 Sean X1 , · · · , Xn independientes y con idéntica distribución. Defina X = n .
Demuestre que para cada k = 1, · · · , n, Cov(Xk − X, X) = 0.
n
1X 1 1 σ2
= Cov(Xk , Xj ) − V ar(X) = V ar(Xk ) − V ar(X) − σ 2 −
n n n n
j=1
n n n
1 X 1 X 1 X X
V ar(X) = V ar Xj = 2 V ar Xj = 2 V ar(Xj ) + 2 Cov(Xj , Xi )
n n n
j=1 j=1 j=1 j<i
n n
1 X 1 X 2 σ2
= 2 V ar(Xj ) = 2 σ = .
n n n
j=1 j=1
Cov(X, Y ) σXY
ρ(X, Y ) = p =
V ar(X)V ar(Y ) σX σY
2. −1 ≤ ρ(X, Y ) ≤ 1.
3. |ρ(X, Y )| = 1 si, y sólo si, existen constantes a y b tales que, con probabilidad uno, Y = aX +b,
con a > 0 si ρ(X, Y ) = 1, y a < 0 si ρ(X, Y ) = −1.
Demostración:
2. Suponga primero que X y Y son tales que E(X) = E(Y ) = 0, y V ar(X) = V ar(Y ) = 1.
Para cualquier valor de λ,
0 ≤ V ar(X + λY )
= E(X + λY )2 − E 2 (X + λY )
= 1 + 2λE(XY ) + λ2 .
El caso λ = 1 produce el resultado E(XY ) ≥ −1, mientras que para λ = −1 se obtiene
E(XY ) ≤ 1. Es decir, −1 ≤ E(XY ) ≤ 1. Ahora se aplica este resultado a las variables
aleatorias X−µ
σX
X
y Y −µY
σY , que evidentemente son centradas y con varianza unitaria. Entonces
X − µX Y − µY
−1 ≤ E ≤ 1.
σX σY
Cov(X, aX + b) a
ρ(X, Y ) = = .
V ar(X)V ar(aX + b) |a|
= 2(1 − E(U V )) = 0.
Esto significa que con probabilidad uno, la variable U − V es constante. Esto es, para alguna
constante c, con probabilidad uno, U − V = c. Pero esta constante c debe ser cero pues
E(U − V ) = 0. Por lo tanto,
X − µX Y − µY
=
σX σY
de donde se obtiene Y = µY + X−µ X
σX σY . Esto establece una relación lineal directa entre X
y Y . Elotro caso es similar, usamos U + V .
Proposición 6 Si (X, Y ) es un vector con distribución normal bivariada tal que ρ(X, Y ) = 0,
entonces X y Y son independientes.
Solución:
Proposición 7 Si (X, Y ) es un vector con distribución normal bivariada tal que ρ(X, Y ) = 0,
entonces X y Y son independientes.
2πσ1 σ2 1 − ρ2
E (X − E(X))(X − E(X))t
Definición 17 (Esperanza condicional). Sea X una variable aleatoria con esperanza finita, y sea
G una sub-σ-álgebra de F . La esperanza condicional de X dado G , es una variable aleatoria
denotada por E(X|G ), que cumple las siguientes tres propiedades.
1. Es G -medible.
Notación.
1. Cuando la σ-álgebra G es igual a σ(Y ), para alguna variable aleatoria Y , la esperanza condi-
cional se escribe simplemente como E(X|Y ), en lugar de E(X|σ(Y )).
Proposición 8 (Esperanza condicional, caso discreto). Sea X una variable aleatoria integrable, y
sea Y discreta con valores y1 , y2 , · · · . La función E(X|Y ) : Ω → R
mathbbR dada por
E(X|Y )(ω) = E(X|Y = yj )
si Y (ω) = yj , es una variable aleatoria que cumple las siguientes propiedades.
1. Es σ(Y )−medible.
Proposición 9 Sea Xcon esperanza finita, y sean A y B eventos tales que 0 < P (B) < 1. Entonces
Ejemplo 16 Sea B1 , · · · , Bn una partición finita de Ω en donde cada elemento tiene probabilidad
positiva, y sean b1 , · · · , bn constantes cualesquiera. Defina la variable aleatoria discreta
n
X
Y = bi 1Bi .
i=1
Sea X con segundo momento finito. Demuestre que la distancia entre X y Y definida por d(X, Y ) =
1
E(X − Y )2 2 es mı́nima cuando bi = E(X|Bi ), es decir, cuando la variable Y es la esperanza
condicional E(X|Y ).
Solución:
1
d(X, Y ) = E(X − Y )2 2 ⇒ d2 (X, Y ) = E(X − Y )2
0.2 Transformaciones
Teorema 2 (Teorema de cambio de variable 1.) Sea X una variable aleatoria continua con valores
dentro de un intervalo (a, b) ⊆ R, y con función de densidad fX (x). Sea ϕ : (a, b) → R una función
continua, estrictamente creciente o decreciente, y con inversa diferenciable. Entonces la variable
aleatoria Y = ϕ(X) toma valores dentro del intervalo ϕ(a, b), y tiene función de densidad
( d −1
fX ϕ−1 (y) dy ϕ (y) , y ∈ ϕ(a, b).
fY (y) =
0, 0.c
FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y)
Derivando se obtiene
d d d −1
FX ϕ−1 (y) = fX ϕ−1 (y)
fY (y) = FY (y) = ϕ (y)
dy dy dy
Para el caso decreciente
FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y)
= P X ≥ ϕ−1 (y) = 1 − FX ϕ−1 (y)
Derivando se obtiene
d d −1
−1
d −1
fY (y) = FY (y) = 1 − FX ϕ (y) = fX ϕ (y) − ϕ (y)
dy dy dy
Teorema 3 (Teorema de cambio de variable 2.) Sea X una variable aleatoria continua con valores
dentro de un intervalo (a, c) ⊆ R, y con función de densidad fX (x). Sea ϕ : (a, c) → R una función
tal que admite la descomposición
ϕ1 (x), x ∈ ϕ(a, b).
ϕ(x) =
ϕ2 (x), x ∈ ϕ(b, c),
en donde a < b < c, y cada una de las funciones ϕ1 (x) : (a, b) → R y ϕ2 (x) : (b, c) → R es continua,
estrictamente creciente o decreciente, y con inversa diferenciable. Entonces la variable aleatoria
Y = ϕ(X) toma valores dentro del intervalo ϕ(a, c), y tiene función de densidad
−1
d −1 −1
d −1
fY (y) = fX ϕ1 (y) ϕ1 (y) · 1ϕ1 (a,b) (y) + fX ϕ2 (y) ϕ2 (y) · 1ϕ2 (b,c) (y).
dy dy
Demostración: La prueba es similar al caso anterior, únicamente hay que hacer el análisis sobre
cada uno de los intervalos de monotonı́a estricta. Para cualquier y en R,
FY (y) = P (Y ≤ y) = P (ϕ(X) ≤ y)
FY (y) = P (Y ≤ y)
= P (|X| ≤ y)
= P (−y ≤ X ≤ y)
= P (X ≤ y) − P (X ≤ −y)
= FX (y) − FX (−y)
r
1 y2 2 − y2
⇒ fY (y) = fX (y) + fX (−y) = 2fX (y) = 2 √ e− 2 = e 2.
2π π
Solución:
Teorema 4 (Teorema de transformación integral) Sea X una variable aleatoria con función de
distribuación FX (x) continua y defina la variable aleatoria Y como Y = FX (X). Entonces Y tiene
distribución uniforme en (0, 1), es decir P (Y ≤ y) = y, para 0 < y < 1.
Caso particular
Proposición 11 ( Transformación de una suma) Sea (X, Y ) un vector absolutamente continuo
con función de densidad fX,Y (x, y). Entonces X + Y tiene función de densidad
Z ∞
fX+Y (u) = fX,Y (u − v, v)dv
−∞
Γ(α + β + γ) α−1 1
Z
fU (u) = u (v − u)β−1 (1 − v)γ−1 dv
Γ(α)Γ(β)Γ(γ) u
Z 1
Γ(α + β + γ) α−1
= u ((1 − u)y)β−1 ((1 − u)(1 − y))γ−1 (1 − u)dy
Γ(α)Γ(β)Γ(γ) 0
Z 1
Γ(α + β + γ) α−1 β+γ−1
= u (1 − u) y β−1 (1 − y)γ−1 dy
Γ(α)Γ(β)Γ(γ) 0
Γ(α + β + γ) α−1 Γ(β)Γ(γ) Γ(α + β + γ) α−1
= u (1 − u)β+γ−1 = u (1 − u)β+γ−1 .
Γ(α)Γ(β)Γ(γ) Γ(β + γ) Γ(α)Γ(β + γ)
Es decir U = XY ∼ Γ(α, β + γ).
X
Ejemplo 23 Sean X y Y independientes con distribución normal estándar. Demuestre que Y
tiene distribución Cauchy.
Solución: Sea U = X x
Y , V = Y la tranformación y u = y , v = y los valores respectivos de las
variables, entonces y = v y x = uv, y ası́
∂x ∂x
v u
∂u ∂v
J(u, v) = ∂y ∂y =
=v
∂u ∂v
0 1
con esto
1 (uv)2 1 v2
fU,V (u, v) = fX,Y (uv, v)v = fX (uv)fY (v)v = √ e− 2 · √ e− 2 · v
2π 2π
1 − v2 (u2 +1)
= ve 2
2π
2
calculando la marginal de U , y haciendo el cambio de variable z = v2 (u2 + 1) → dz = v(u2 + 1)dv,
Z ∞ Z ∞
1 v2 2
fU (u) = fU,V (u, v)dv = |v|e− 2 (u +1) dv
−∞ −∞ 2π
Z ∞ Z ∞
1 −z dz 1 1
=2 e 2
= 2
e−z dz = .
0 2π 1+u π(1 + u ) 0 π(1 + u2 )
X
Es decir U = Y ∼ Cauchy(0, 1).
X
Ejemplo 24 Encuentre la función de densidad de Y cuando X y Y tienen función de densidad
conjunta ( 2 2 3(x +y )
, 0 < x < y < 2,
fX,Y (x, y) = 16
0, o.c
Solución: