Vectores Aleatorios PDF
Vectores Aleatorios PDF
Vectores Aleatorios PDF
TEMA 1
VARIABLES ALEATORIAS MULTIDIMENSIONALES
Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el
espacio muestral asociado a un experimento aleatorio en un espacio cuantitativo, lo que se
consigue asignando un valor real a cada resultado elemental del experimento (a cada elemento
del espacio muestral). Este valor se obtiene midiendo una determinada caracterı́stica numérica
de los resultados del experimento que describa alguna propiedad de interés.
En muchas ocasiones, para describir las propiedades de interés de los resultados de un experi-
mento es preciso considerar varias caracterı́sticas. Por ejemplo, en el experimento consistente en
la elección de un individuo de una determinada población, se consideran las variables “altura”
y “peso”. Si se extraen cinco bolas de una urna con bolas blancas, negras y rojas, podemos
estar interesados en el número de bolas de cada color.
Es evidente que al considerar diversas caracterı́sticas para describir los resultados de un
experimento aleatorio (o sea, diversas variables aleatorias), estas estarán a menudo relacionadas,
por lo que será conveniente realizar un estudio conjunto de ellas que refleje dichas relaciones,
más que analizarlas individualmente.
De esta forma aparece el concepto de variable aleatoria multidimensional o vector aleatorio
que, en términos generales, puede definirse como una función que asigna a cada elemento del
espacio muestral un conjunto finito de números reales que describen el valor da cada una de
las caracterı́sticas bajo estudio en dicho elemento.
Como en el caso unidimensional, al considerar un vector aleatorio definido en relación a
un experimento, los conjuntos de interés estarán definidos en términos de dicho vector y, para
poder calcular sus probabilidades, es preciso exigir determinadas propiedades. La definición
formal y el tratamiento de las variables aleatorias multidimensionales son análogas a los de
unidimensionales.
B n = σ(Y n )
- Igual que en el caso unidimensional, todo intervalo, y en particular, todo punto y, por tanto,
todo conjunto numerable de Rn es un conjunto de Borel.
Teorema: Caracterización de B n
B n coincide con la σ−álgebra generada por los intervalos de la forma (−∞, x], x ∈ Rn .
∀x = (x1 , . . . , xn ) ∈ Rn .
Dem
= X −1 (R × · · · × R × (−∞, xi ] × · · · × R) ∈ A
n
\
X −1
((−∞, x]) = {ω / Xi (ω) ≤ xi ∀i = 1, . . . , n} = Xi−1 ((−∞, xi ]) ∈ A
i=1
{ω ∈ Ω / X(ω) ∈ B} = X −1 (B) = {X ∈ B} ∈ A
PX = P ◦ X −1 : B n −→ [0, 1]
B 7−→ PX (B) = P{X −1 (B)} = P{X ∈ B}
Teorema: Propiedades de FX
La función de distribución de un vector aleatorio X satisface:
n
X
+ FX (x1 +1 , . . . , xi−1 +i−1 , xi , xi+1 +i+1 , . . . , xj−1 +j−1 , xj , xj+1 +j+1 , . . . , xn +n )+
i,j=1
i<j
+ · · · + (−1)n FX (x1 , . . . , xn ) ≥ 0
Ejemplo
0 x<0 o y <0 o x+y <1
F (x, y) =
1 x ≥ 0, y ≥ 0, x + y ≥ 1
Es no decreciente en x e y.
Es continua a la derecha en x e y.
a) ∀(x1 , . . . , xn ) ∈ Rn ,
∃ lim
→0
FX (x1 , . . . , xi−1 , xi − , xi+1 . . . , xn ) =
>0
b) ∀(x1 , . . . , xn ) ∈ Rn ,
P{X1 ≤ x1 , . . . , Xi−1 ≤ xi−1 , Xi = xi , Xi+1 ≤ xi+1 , . . . , Xn ≤ xn } =
FX (x1 , . . . , xi−1 , xi , xi+1 , . . . , xn ) − FX (x1 , . . . , xi−1 , x−
i , xi+1 , . . . , xn )
P [a ≤ X1 ≤ b, c < X2 < d]
P [a ≤ X1 < b, c ≤ X2 < d]
P [a < X1 ≤ b, c ≤ X2 < d]
P [a ≤ X1 ≤ b, c ≤ X2 < d]
P [a ≤ X1 < b, c < X2 ≤ d]
P [a < X1 ≤ b, c < X2 ≤ d]
P [a ≤ X1 ≤ b, c < X2 ≤ d]
P [a < X1 < b, c ≤ X2 ≤ d]
P [a ≤ X1 < b, c ≤ X2 ≤ d]
P [a < X1 ≤ b, c ≤ X2 ≤ d]
P [a ≤ X1 ≤ b, c ≤ X2 ≤ d]
p : EX −→ [0, 1]
xn 7−→ P{X = xn } = pn
P
que satisface pn ≥ 0 y x∈EX pn = 1 y determina completamente la distribución del vector y,
por tanto, su función de distribución:
X
• PX (B) = P{X ∈ B} = P{X = x} ∀B ∈ B n
X x∈B∩EX
•FX (x) = P{X = xj } ∀x ∈ Rn
xj ∈EX
xj ≤x
Ya hemos visto que un vector aleatorio no es más que un conjunto de variables aleatorias
unidimensionales. Vemos a continuación que los vectores discretos están formados por variables
aleatorias discretas y recı́procamente.
Se deduce entonces que un vector aleatorio n-dimensional de tipo discreto no es más que un
conjunto de n variables aleatorias unidimensionales de tipo discreto.
Ejemplo: Se lanza un dado equilibrado y se observa la cara superior. Se definen las variables
aleatorias
−2 si sale 1, 2, 3
−1 si el resultado es impar
X1 = X2 = 0 si sale 4
1 si el resultado es par
3 si sale 5, 6
X2
−2 0 3
X1
−1 2/6 0 1/6
1 1/6 1/6 1/6
Función de distribución
0 x1 < −1 o x2 < −2
2/6 −1 ≤ x1 < 1, −2 ≤ x2 < 0
2/6 −1 ≤ x1 < 1, 0 ≤ x2 < 3
FX (x1 , x2 ) = 1/2 −1 ≤ x1 < 1, x2 ≥ 3
3/6 x1 ≥ 1, −2 ≤ x2 < 0
4/6 x1 ≥ 1, 0 ≤ x2 < 3
1 x1 ≥ 1, x2 ≥ 3
∂ n FX (x1 , . . . , xn )
= fX (x1 , . . . , xn )
∂x1 · · · ∂xn
3) fX puede ser cambiada en conjuntos de medida nula sin afectar a la integral, o sea, a FX .
Por tanto, notamos que fX no es única. Elegiremos siempre una versión de ella que sea,
en la medida de lo posible, continua.
R
Teorema. Toda función f : Rn −→ R no negativa, integrable y tal que Rn f (t)dt = 1 es la
función de densidad de algún vector aleatorio n-dimensional de tipo continuo.
• En el caso discreto hemos visto que los vectores pueden caracterizarse como conjuntos de
variables aleatorias unidimensionales discretas. Sin embargo, en el caso continuo esto no es
cierto.
Si bien las componentes de un vector aleatorio continuo son también de tipo continuo, el
recı́proco no es cierto. Probamos lo primero en la siguiente proposición y lo segundo con un
contraejemplo.
Entonces si definimos
Z +∞ Z +∞
fi (ti ) = ··· f (t1 , . . . , ti , . . . , tn )dt1 · · · dti−1 dti+1 . . . dtn
−∞ −∞
Sin embargo, es evidente que P{X1 = X2 } = 1. Por tanto, deducimos que (X1 , X2 ) no puede
ser de tipo continuo.
Z x Z y
F (x, y) = f (s, t)dtds =
−∞ −∞
0 x<0oy<0
RxRy Rx R y −t
e−s−t dtds = e−s ds −x −y
0 0 0 0
e dt = (1 − e )(1 − e ) x, y ≥ 0
f (x, y) = 1 0 ≤ x, y ≤ 1
Calcular:
a) P{X + Y ≤ 1}
b) P{1/3 ≤ X + Y ≤ 3/2}
c) P{X ≥ 2Y }
a) Z 1 Z 1−y Z 1 1
P{X + Y ≤ 1} = dxdy = (1 − y)dy = (y − y 2 /2)0 = 1/2
0 0 0
o bien Z 1 Z 1−x Z 1 1
dydx = (1 − x)dx = (x − x2 /2)0 = 1/2
0 0 0
b)
Z 1/3 Z 1 Z 1/2 Z 1 Z 1 Z 3/2−y
59
P{1/3 ≤ X + Y ≤ 3/2} = dydx + dydx + dydx =
0 1/3−x 1/3 0 1/2 0 72
c)
Z 1/2 Z 1 Z 1 Z x/2
1
P{X ≥ 2Y } = dxdy = dydx =
0 2y 0 0 4
Distribuciones marginales
Al considerar un vector aleatorio como conjunto de variables aleatorias unidimensionales
la distribución del vector se denomina distribución conjunta (función de distribución conjunta,
función masa de probabilidad conjunta o función de densidad conjunta) y a la distribución de
cada componente se le denomina distribución marginal de dicha componente.
Veamos a continuación cómo pueden obtenerse las distribuciones marginales de cada com-
ponente a partir de la conjunta.
Función de distribución marginal
Si X = (X1 , . . . , Xn ) es un vector aleatorio con función de distribución FX
Análogamente,
FXi1 ,...,Xik (xi1 , . . . , xik ) = FX (+∞, . . . , +∞, xi1 , +∞, . . . , +∞, xik , +∞, . . . , +∞)
Sin embargo, ya que nosotros trabajamos con vectores discretos o continuos cuyas componentes,
como hemos visto, son variables aleatorias discretas o continuas, lo que nos interesa es el cálculo
de las f.m.p o funciones de densidad marginales a partir de la conjunta.
Distribuciones marginales de vectores discretos
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto con P{X ∈ EX } = 1 y función masa de
probabilidad conocida: P{X = x} ∀x ∈ EX .
Si Xi es una componente arbitraria (ya sabemos que es discreta y que toma valores en el
conjunto EXi = {xi ∈ R / ∃x ∈ EX : (x)i = xi }) su función masa de probabilidad puede
obtenerse a partir de la de X por la siguiente relación
X
P{Xi = xi } = P{X = x} =
x∈EX
(x)i =xi
X
P{X1 = x1 , . . . , Xi−1 = xi−1 , Xi = xi , Xi+1 = xi+1 , . . . , Xn = xn }
x1 ,...,xi−1 ,xi+1 ,...,xn
(x1 ,...,xi ,...,xn )∈EX
Ejemplo: Se lanza una moneda tres veces y se define X : Número de caras e Y : Diferencia, en
valor absoluto, de número de caras y cruces. Calcular las distribuciones marginales a partir de
la conjunta.
La función masa de probabilidad conjunta y marginales son (sin más que sumar por filas y por
columnas)
X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1
Por tanto, esta es la función de densidad de Xi que, como observamos se obtiene integrando la
conjunta en el resto de las componentes, fijando en la componente i-ésima el punto de interés
ti .
o bien,
Z 1/2 Z 1
19
P{Y ≤ 1/2} = 10x2 ydxdy =
0 y 48
FXi1 ,...,Xik (xi1 , . . . , xik ) = FX (+∞, . . . , +∞, xi1 , . . . , xik , +∞, . . . , +∞) =
Z xi Z xi Z +∞ Z +∞
1 k
··· ··· fX (t1 , . . . , tn )dtn · · · dtik +1 dtik −1 · · · dti1 +1 dti1 −1 , · · · , dt1
−∞ −∞ −∞ −∞
de lo que se deduce
Z +∞ Z +∞
fi1 ,...,ik (ti1 ,...,tik ) = ··· fX (t1 , . . . , tn )dtn . . . dtik +1 dtik −1 · · · dti1 +1 dti1 −1 , · · · , dt1
−∞ −∞
Distribuciones condicionadas
En el análisis conjunto de variables aleatorias surge una importante cuestión, como es
el estudio del comportamiento de un subconjunto de ellas, cuando el resto está sujeto a
alguna condición y, en particular, cuando se conoce su valor. Aparece ası́, el concepto de
distribución condicionada.
Analizamos a continuación cómo pueden obtenerse las distribuciones condicionadas a partir
de la conjunta distinguiendo entre vectores discretos y continuos.
X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1
• X|Y = 1
P{X = 0|Y = 1} = 0, P{X = 1|Y = 1} = 1/2, P{X = 2|Y = 1} = 1/2, P{X = 3|Y = 1} = 0
• X|Y = 3
P{X = 0|Y = 3} = 1/2, P{X = 1|Y = 3} = 0, P{X = 2|Y = 3} = 0, P{X = 3|Y = 3} = 1/2
• Y |X = 0
fX (x1 , x∗2 )
fX1 |X2 =x∗2 (x1 /x∗2 ) =
fX2 (x∗2 )
Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con función de densidad fX . Sea
Xi una componente arbitraria y x∗i ∈ R tal que fXi (x∗i ) > 0. Se define la distribución condicio-
nada de (X1 , . . . , Xi−1 , Xi+1 , . . . , Xn ) a {Xi = x∗i } (distribución de (X1 , . . . , Xi−1 , Xi+1 , . . . , Xn )
dado Xi = x∗i ) como la determinada por la función de densidad
fX (x1 , . . . , x∗i , . . . , xn )
fX1 ,...,Xi−1 ,Xi+1 ,...,Xn |Xi =x∗i (x1 , . . . , xi−1 , xi+1 , . . . , xn |x∗i ) =
fXi (x∗i )
fX1 ,...,Xi1 −1 ,Xi1 +1 ,...,Xik −1 ,Xik +1 ,...,Xn |Xi1 =x∗i ,...,Xik =x∗
i
(x1 , . . . , xi1 −1 , xi1 +1 , . . . , xik −1 , xik +1 , . . . , xn /x∗i1 , . . . , x∗ik ) =
1 k
X/Y = y0 ∼ U (0, y0 )
A partir de la función de densidad condicionada podemos calcular la función de distribución
condicionada
0 x<0
Z x 1
x
FX/Y =y0 (x/y0 ) = FX/Y =y0 (x) = dt = 0 ≤ x < y0
0 y0 y=
1 x1 ≥ x2
DISTRIBUCIÓN DE Y /X = x0
Z 1
f1 (x) = 2dy = 2 − 2x 0<x<1
x
Si 0 < x0 < 1
f (x0 , y) 2 1
fY /X=x0 (y/x0 ) = fY /X=x0 (y) = = = x0 < y < 1
f1 (x0 ) 2 − 2x0 1 − x0
es decir,
Y /X = x0 ∼ U (x0 , 1)
A partir de la función de densidad condicionada podemos calcular la función de distribución
condicionada
0 y < x0
y−x
0
FY /X=x0 (y/x0 ) = FY /X=x0 (y) = x0 ≤ y < 1
1 − x 1
1 y≥1
Por otra parte
Z
P{Y ≥ 1/2 / X = 1/2} = fY /X=1/2 (y)dy = 1 dado que Y /X = 1/2 ∼ U (1/2, 1)
{y≥1/2}
Z Z 2/3
3 31 1
P{X ≥ 1/3 / Y = 2/3} = fX/Y =2/3 (x)dx = dx = =
{x≥1/3} 1/3 2 23 2
dado que X/Y = 2/3 ∼ U (0, 2/3). También se podı́an haber calculado a partir de las corres-
pondientes funciones de distribución.
discreto con valores en g(EX ) y su función masa de probabilidad se puede obtener a partir de
la de X como
X
P [Y = y] = P [X ∈ g −1 (y)] = P [X = x], y ∈ g(EX ).
x∈g −1 (y)
Ejemplo 1
Sea X = (X1 , X2 ) un vector aleatorio discreto con función masa de probabilidad
x1
−1 0 1
x2
−2 1/6 1/12 1/6
1 1/6 1/12 1/6
2 1/12 0 1/12
Calcular la función masa de probabilidad de Y = (|X1 |, X22 )
Y toma valores en {(1, 4), (1, 1), (0, 4), (0, 1)}
1 1 1 1 6
P [Y = (1, 4)] = P [X1 = ±1, X2 = ±2] = + + + =
6 6 12 12 12
1 1 4
P [Y = (1, 1)] = P [X1 = ±1, X2 = 1] = + =
6 6 12
1
P [Y = (0, 4)] = P [X1 = 0, X2 = ±2] =
12
1
P [Y = (0, 1)] = P [X1 = 0, X2 = 1] =
12
Cambio de variable de continuo a discreto
Si X es un vector aleatorio n-dimensional continuo con función de densidad fX y g : (Rn , B n ) −→
(Rm , B m ) es una transformación medible tal que Y = g(X) es un vector aleatorio m-dimensional
discreto, su función masa de probabilidad se puede obtener a partir de la función de densidad
de X como
Z
−1
P [Y = y] = P [X ∈ g (y)] = fX (x) dx.
g −1 (y)
Ejemplo 2
Sea X = (X1 , X2 ) con función de densidad
Z ∞ Z ∞
P [Y = 0] = P [X1 > X2 ] = λµe−λx1 e−µx2 dx1 dx2
0 x2
Z ∞ Z ∞ Z ∞
−µx2 −λx1
∞
µe−µx2 −e−λx1 x2 dx2
= µe λe dx1 dx2 =
0 x2 0
Z ∞ −(µ+λ)x2 ∞
e = µ
= µe−(µ+λ)x2 dx2 = µ
0 −(µ + λ) 0 µ+λ
λ
P [Y = 1] =
µ+λ
Z
−1
FY (y) = P [Y ≤ y] = P [g(X) ≤ Y ] = P [X ∈ g ((−∞, y])] = fX (x) dx
g −1 ((−∞,y])
Ejemplo 3
Sea X = (X, Y ) con función de densidad
X u
P ≤ u = (X + Y > 0) = P [X ≤ uX + uY ] = (1 + u > 0) = P X ≤ Y
X +Y 1−u
Z ∞Z u y Z ∞ h
1−u u
i
= −x −y
e e dx dy = ey 1 − e− 1−u y dy
Z0 ∞ 0 Z ∞ 0
u
= e−y dy − e−y(1+ 1−u ) dy = u
0 0
Ası́,
0 u<0
FU (u) = u 0≤u<1
1 u≥1
y, por tanto,
fU (u) = 1, 0 < u < 1,
X
es decir, ∼ U (0, 1).
X +Y
fY (y) = fX (g −1 (y))|J|, ∀y ∈ Rn
k(y)
X
fY (y) = |Ji |fX (gi−1 (y))
i=1
Ejemplo 3
Sea X = (X, Y ) con función de densidad
X = UV
Y = V (1 − U )
con jacobiano
v u
J = =v
−v 1 − u
Ası́,
f(U,V ) (u, v) = f (uv, v(1−u))|v| = e−uv−v(1−u) |v| = ve−v , uv > 0, v(1−u) > 0 (0 < u < 1, v > 0),
de donde
Z ∞
fU (u) = ve−v dv = 1, 0 < u < 1
0
Dado que estas transformaciones no satisfacen, en general, las condiciones de los Teoremas de
Cambio de variable, para obtener su distribución usamos la fórmula general.
P [M ≤ x] = FX (x, . . . , x) x<y
F(M,N ) (x, y) = P [M ≤ x, N ≤ y] =
P [M ≤ x] − P [M ≤ x, N > y]
= P [M ≤ x] − P [y < Xi ≤ x, ∀i = 1, . . . , n] x≥y
Ejemplo
Sea X = (X1 , X2 ) un vector aleatorio discreto con función masa de probabilidad
• M = max(X1 , X2 ) : 0, 1, 2, . . .
x
X x
X
2
P [M ≤ x] = P [X1 ≤ x, X2 ≤ x] = P [X1 = x1 , X2 = x2 ] = p (1 − p)x1 +x2
x1 ,x2 =0 x1 ,x2 =0
x
!2 2
(1 − p)x+1 − 1
X
2 x1 2
= p (1 − p) =p = (1 − (1 − p)x+1 )2
x1 =0
−p
de donde se deduce
P [M = x] = P [M ≤ x] − P [M ≤ x − 1] = (1 − (1 − p)x+1 )2 − (1 − (1 − p)x )2
También se podrı́a haber hecho directamente
de donde se deduce
P [N = x] = P [N ≤ x] − P [N ≤ x − 1] = (1 − p)2x − (1 − p)2x+2
También se podrı́a haber hecho directamente
P [M = m, N = m] = P [X1 = m, X2 = m] = p2 (1 − p)2m , m = n
P [M = m, N = n] = P [X1 = m, X2 = n] + P [X1 = n, X2 = m] = 2p2 (1 − p)m+n , m 6= n
∀x1 , . . . , xn ∈ R
∀B1 , . . . , Bn ∈ B
Dem
⇐] Si la relación es cierta ∀B1 , . . . , Bn ∈ B, tomando Bi = (−∞, xi ] se tiene la definición de
independencia.
⇒] Caso discreto: X1 , . . . , Xn V.A. discretas
X X
P [X1 ∈ B1 , . . . , Xn ∈ Bn ] = P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] · · · P [Xn = xn ]
x1 ∈B1 x1 ∈B1
··· ···
xn ∈Bn xn ∈Bn
! !
X X
= P [X1 = x1 ] · · · P [Xn = xn ]
x1 ∈B1 xn ∈Bn
= P [X1 ∈ B1 ] · · · P [Xn ∈ Bn ]
⇒] Caso continuo: X1 , . . . , Xn V.A. continuas (si las variables son independientes y continuas,
el vector aleatorio formado por ellas es continuo)
Z Z
P [X1 ∈ B1 , . . . , Xn ∈ Bn ] = ··· fX (x1 , . . . , xn ) dxn . . . dx1
B1 Bn
Z Z
= ··· fX1 (x1 ), · · · , fXn (xn ) dxn . . . dx1
B1 Bn
Z Z
= fX1 (x1 ) dx1 · · · fXn (xn ) dxn
B1 Bn
= P [X1 ∈ B1 ] · · · P [Xn ∈ Bn ]
A continuación damos otra caracterización, de gran interés práctico, para variables discretas y
continuas. Su interés radica en que no es preciso calcular las funciones masa de probabilidad o
funciones de densidad marginales para comprobar la independencia.
Ejemplos
• f (x, y) = 1, 0 < x < 1, 0 < y < 1 −→ Independientes
Propiedades de independencia
Teorema 1
Una variable aleatoria degenerada es independiente de cualquier otra.
Dem
X1 ≡ c, X2 arbitraria
0 = P [X1 ≤ x1 ]P [X2 ≤ x2 ] si x1 < c
F (x1 , x2 ) = P [X1 ≤ x1 , X2 ≤ x2 ] =
P [X2 ≤ x2 ] = P [X1 ≤ x1 ]P [X2 ≤ x2 ] si x1 ≥ c
Teorema 2
Si X1 , . . . , Xn son independientes y gi : (R, B) −→ (R, B) son funciones medibles (i = 1, . . . , n),
entonces las variables g1 (X1 ), . . . , gn (Xn ) son indepedientes.
Dem
P [g1 (X1 ) ≤ y1 , . . . , gn (Xn ) ≤ yn ] = P [X1 ∈ g1−1 ((−∞, y1 ]), . . . , Xn ∈ gn−1 ((−∞, yn ])]
= P [X1 ∈ g1−1 ((−∞, y1 ])] · · · P [Xn ∈ gn−1 ((−∞, yn ])]
= P [g1 (X1 ) ≤ y1 ] · · · P [gn (Xn ) ≤ yn ]
Teorema 3
Si X1 , . . . , Xn son independientes, cualquier subcolección Xi1 , . . . , Xik también lo son.
Dem
Teorema 4
X1 , . . . , Xn son independientes ⇔ las distribuciones condicionadas de cualquier subvector a
cualquier otro coinciden con la marginal del primero.
Puesto que cualquier subcolección de variables aleatoria independientes lo son, es claro que
INDEPENDENCIA MUTUA ⇒ INDEPENDENCIA DOS A DOS
Sin embargo, el recı́proco no es cierto como se prueba en el siguiente ejemplo.
X1 y X3 son independientes:
P [X3 = ±1] = 1/2
1
• P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
• P [X1 = 1, X3 = −1] = P [X1 = 1, X2 = −1] = (por indep.) = = P [X1 = 1]P [X3 = −1]
4
1
• P [X1 = −1, X3 = 1] = P [X1 = −1, X2 = −1] = (por indep.) = = P [X1 = −1]P [X3 = 1]
4
1
• P [X1 = −1, X3 = −1] = P [X1 = −1, X2 = 1] = (por indep.) = = P [X1 = −1]P [X3 = −1]
4
Definición
Dada una familia arbitraria de variables aleatorias definidas sobre el mismo espacio de proba-
bilidad, se dice que dichas variables son independientes si cualquier subcoleción finita de ellas
son VA independientes.
∀n ∈ N, X1 , . . . , Xn son independientes.
Definición
Si X 1 , . . . , X m son vectores aleatorios definidos sobre un mismo espacio de probabilidad, con
dimensiones n1 , . . . , nm , respectivamente,
siendo X = (X 1 , . . . , X m ).