Vectores Aleatorios PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 28

CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

TEMA 1
VARIABLES ALEATORIAS MULTIDIMENSIONALES
Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el
espacio muestral asociado a un experimento aleatorio en un espacio cuantitativo, lo que se
consigue asignando un valor real a cada resultado elemental del experimento (a cada elemento
del espacio muestral). Este valor se obtiene midiendo una determinada caracterı́stica numérica
de los resultados del experimento que describa alguna propiedad de interés.
En muchas ocasiones, para describir las propiedades de interés de los resultados de un experi-
mento es preciso considerar varias caracterı́sticas. Por ejemplo, en el experimento consistente en
la elección de un individuo de una determinada población, se consideran las variables “altura”
y “peso”. Si se extraen cinco bolas de una urna con bolas blancas, negras y rojas, podemos
estar interesados en el número de bolas de cada color.
Es evidente que al considerar diversas caracterı́sticas para describir los resultados de un
experimento aleatorio (o sea, diversas variables aleatorias), estas estarán a menudo relacionadas,
por lo que será conveniente realizar un estudio conjunto de ellas que refleje dichas relaciones,
más que analizarlas individualmente.
De esta forma aparece el concepto de variable aleatoria multidimensional o vector aleatorio
que, en términos generales, puede definirse como una función que asigna a cada elemento del
espacio muestral un conjunto finito de números reales que describen el valor da cada una de
las caracterı́sticas bajo estudio en dicho elemento.
Como en el caso unidimensional, al considerar un vector aleatorio definido en relación a
un experimento, los conjuntos de interés estarán definidos en términos de dicho vector y, para
poder calcular sus probabilidades, es preciso exigir determinadas propiedades. La definición
formal y el tratamiento de las variables aleatorias multidimensionales son análogas a los de
unidimensionales.

Espacio de Borel multidimensional


Sobre el conjunto Rn se define la σ-álgebra de borel B n , como la mı́nima clase, con estructura
de σ-álgebra, que contiene a todos los intervalos de Rn .

Un intervalo de Rn es un subconjunto de la forma I1 × · · · × In , donde Ii ∈ Y =


{intervalos de R}.

Notando por Y n a la clase formada por los intervalos de Rn , se tiene

B n = σ(Y n )

(Rn , B n ) −→ Espacio de Borel n-dimensional


B ⊂ B n −→ B : Conjunto de Borel

- Igual que en el caso unidimensional, todo intervalo, y en particular, todo punto y, por tanto,
todo conjunto numerable de Rn es un conjunto de Borel.

Patricia Román Román 1


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

- Puede probarse que, como en el caso unidimensional, la σ−álgebra de Borel B n es la ge-


nerada por intervalos de cualquier tipo y, en particular, por intervalos del tipo (−∞, x1 ] ×
· · · , ×(−∞, xn ], que notaremos (−∞, x], siendo x = (x1 , . . . , xn ) ∈ Rn

Teorema: Caracterización de B n
B n coincide con la σ−álgebra generada por los intervalos de la forma (−∞, x], x ∈ Rn .

Variables aleatorias multidimensionales (vectores aleatorios)


Definición: Una variable aleatoria n-dimensional sobre un espacio de probabilidad (Ω, A, P) es
una función X : Ω −→ Rn medible (X −1 (B) ∈ A, ∀B ∈ B n )
Notación: X : (Ω, A, P) −→ (Rn , B n )

Caracterizaciones de vectores aleatorios:

X = (X1 , . . . , Xn ) : (Ω, A, P) −→ (Rn , B n ) es un vector aleatorio si y sólo si

X −1 ((−∞, x]) = {ω ∈ Ω / X(ω) ≤ x} = {ω ∈ Ω / X1 (ω) ≤ x1 , . . . , Xn (ω) ≤ xn } ∈ A

∀x = (x1 , . . . , xn ) ∈ Rn .

X = (X1 , . . . , Xn ) : (Ω, A, P) −→ (Rn , B n ) es un vector aleatorio si y sólo si

∀i = 1, . . . , n Xi : (Ω, A, P) −→ (R, B) es variable aleatoria

Dem

=⇒] Sea xi ∈ R : Xi−1 ((−∞, xi )] = {ω ∈ Ω / Xi (ω) ≤ xi , Xj (ω) ∈ R ∀j 6= i} =

= X −1 (R × · · · × R × (−∞, xi ] × · · · × R) ∈ A

⇐=] Sea x = (x1 . . . , xn ) ∈ Rn :

n
\
X −1
((−∞, x]) = {ω / Xi (ω) ≤ xi ∀i = 1, . . . , n} = Xi−1 ((−∞, xi ]) ∈ A
i=1

Distribución de probabilidad de un vector aleatorio


Como ocurrı́a en el caso unidimensional, al considerar un vector aleatorio X = (X1 , . . . , Xn )
sobre un espacio de probabilidad, los únicos sucesos de interés son los que se expresan en
términos de dicho vector:
{ω ∈ Ω / X(ω) ∈ B}, B ∈ B n

{ω ∈ Ω / X(ω) ∈ B} = X −1 (B) = {X ∈ B} ∈ A

Patricia Román Román 2


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

y las probabilidades de estos sucesos describen completamente el comportamiento del vector


X.

Definición: Dado un vector aleatorio X = (X1 , . . . , Xn ) : (Ω, A, P) −→ (Rn , B n ), se denomina


distribución de probabilidad de X o probabilidad inducida por X en (Rn , B n ) a la función
de conjunto

PX = P ◦ X −1 : B n −→ [0, 1]
B 7−→ PX (B) = P{X −1 (B)} = P{X ∈ B}

Justificación: X −1 (B) ∈ A y se puede aplicar P.

Teorema: PX es una medida de probabilidad sobre (Rn , B n )


Por tanto, X transforma el espacio probabilı́stico original (Ω, A, P) en un nuevo espacio
probabilı́stico
X = (X1 , . . . , Xn ) : (Ω, A, P) −→ (Rn , B n , PX )
y el interés se centra exclusivamente en el estudio de este nuevo espacio, o sea, en el estudio de
PX .
Este estudio se llevará a cabo, como en R, a través de la función de distribución.

Función de distribución de un vector aleatorio


Definición: Dado X = (X1 , . . . , Xn ) : (Ω, A, P) −→ (Rn , B n , PX ), se define la denominada
función de distribución de X como la función
FX : Rn −→ [0, 1]
x 7−→ FX (x) = PX ((−∞, x]) = P(X −1 ((−∞, x])) = P{X ≤ x}

Dado que x = (x1 , . . . , xn ), se escribe también FX (x1 , . . . , xn ) = P{X1 ≤ x1 , . . . , Xn ≤ xn }

Teorema: Propiedades de FX
La función de distribución de un vector aleatorio X satisface:

1) Es monótona no decreciente en cada argumento.

2) Es continua a la derecha en cada argumento.

3) ∃ lim FX (x1 , . . . , xn ) = FX (+∞, . . . , +∞) = 1


x1 ,...,xn →+∞

∃ lim FX (x1 , . . . , xi , . . . , xn ) = FX (x1 , . . . , xi−1 , −∞, xi+1 . . . , xn ) = 0


xi →−∞

∀xi , . . . , xi−1 , xi+1 , . . . , xn

4) ∀(x1 , . . . , xn ) ∈ Rn , ∀(1 , . . . , n ) ∈ Rn+ :


n
X
FX (x1 + 1 , . . . , xn + n ) − FX (x1 + 1 , . . . , xi−1 + i−1 , xi , xi+1 + i+1 , . . . , xn + n )+
i=1

Patricia Román Román 3


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

n
X
+ FX (x1 +1 , . . . , xi−1 +i−1 , xi , xi+1 +i+1 , . . . , xj−1 +j−1 , xj , xj+1 +j+1 , . . . , xn +n )+
i,j=1
i<j

+ · · · + (−1)n FX (x1 , . . . , xn ) ≥ 0

La demostración son análogas al caso unidimensional. Vamos a probar la 4) para el caso n = 2


y en general se probarı́a por inducción.

FX (x1 + 1 , x2 + 2 ) − FX (x1 , x2 + 2 ) − FX (x1 + 1 , x2 ) + FX (x1 , x2 ) =


P[X1 ≤ x1 + 1 , X2 ≤ x2 + 2 ] − P[X1 ≤ x1 , X2 ≤ x2 + 2 ]−
− (P[X1 ≤ x1 + 1 , X2 ≤ x2 ] − P[X1 ≤ x1 , X2 ≤ x2 ]) =
P[x1 < X1 ≤ x1 + 1 , X2 ≤ x2 + 2 ] − P[x1 < X1 ≤ x1 + 1 , X2 ≤ x2 ] =
P[x1 < X1 ≤ x1 + 1 , x2 < X2 ≤ x2 + 2 ]
Nota: Observar que, para n = 1, esta última propiedad es FX (x1 + 1 ) − FX (x1 ) ≥ 0, ∀x1 ∈
R, 1 ∈ R+ y es, por tanto, junto con 1) generalización del no decrecimiento de funciones de
distribución en R.
De hecho, como probamos en el siguiente ejemplo, las propiedades 1), 2) y 3) no bastan
para que FX sea la función de distribución de un vector aleatorio.

Ejemplo

 0 x<0 o y <0 o x+y <1
F (x, y) =
1 x ≥ 0, y ≥ 0, x + y ≥ 1

Es no decreciente en x e y.

Es continua a la derecha en x e y.

F (+∞, +∞) = 1 y F (x, −∞) = F (−∞, y) = 0, ∀x, y ∈ R

Patricia Román Román 4


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

F (1, 1) − F (1, 0) − F (0, 1) + F (0, 0) = 1 − 1 − 1 + 0 = −1 < 0

Luego no es función de distribución, porque de ser la función de distribución de (X, Y ), la


última expresión serı́a P[0 < X ≤ 1, 0 < Y ≤ 1].

Nota: Estas propiedades caracterizan a la funciones de distribución multidimensionales en el


sentido de que toda función de Rn en R que las cumpla es la función de distribución de algún
vector aleatorio

Otras propiedades de la función de distribución

a) ∀(x1 , . . . , xn ) ∈ Rn ,
∃ lim
→0
FX (x1 , . . . , xi−1 , xi − , xi+1 . . . , xn ) =
>0

P{X1 ≤ x1 , . . . , Xi−1 ≤ xi−1 , Xi < xi , Xi+1 ≤ xi+1 , . . . , Xn ≤ xn }


y se nota FX (x1 , . . . , xi−1 , x−
i , xi+1 , . . . , xn )

b) ∀(x1 , . . . , xn ) ∈ Rn ,
P{X1 ≤ x1 , . . . , Xi−1 ≤ xi−1 , Xi = xi , Xi+1 ≤ xi+1 , . . . , Xn ≤ xn } =
FX (x1 , . . . , xi−1 , xi , xi+1 , . . . , xn ) − FX (x1 , . . . , xi−1 , x−
i , xi+1 , . . . , xn )

c) FX es continua en el argumento i-ésimo en el punto xi ∈ R si y sólo si

P{X1 ≤ x1 , . . . , Xi−1 ≤ xi−1 , Xi = xi , Xi+1 ≤ xi+1 , . . . , Xn ≤ xn } = 0

La importancia de la función de distribución (al igual que en el caso unidimensional) es que


determina la distribución de probabilidad y, por tanto, el comportamiento del vector aleatorio;
esto es, conocida FX se puede calcular P (X ∈ B), ∀B ∈ B. La forma de hacerlo para con-
juntos de Borel arbitrarios requiere usar técnicas de integración que escapan a nuestro nivel.
Sin embargo si se trabajan con intervalos, lo que generalmente ocurre en la práctica, estas
probabilidades se calculan de forma de forma simple.

Variables bidimensionales: Cálculo de probabilidades de intervalos

P{a < X1 ≤ b, X2 ∈ I} = P{X1 ≤ b, X2 ∈ I} − P{X1 ≤ a, X2 ∈ I}

P{a < X1 < b, X2 ∈ I} = P{X1 < b, X2 ∈ I} − P{X1 ≤ a, X2 ∈ I}

P{a ≤ X1 < b, X2 ∈ I} = P{X1 < b, X2 ∈ I} − P{X1 < a, X2 ∈ I}

P{a ≤ X1 ≤ b, X2 ∈ I} = P{X1 ≤ b, X2 ∈ I} − P{X1 < a, X2 ∈ I}

P{X1 ≤ b, c < X2 ≤ d} = P{X1 ≤ b, X2 ≤ d} − P{X1 ≤ b, X2 ≤ c} = F (b, d) − F (b, c)

Patricia Román Román 5


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

P{X1 ≤ b, c < X2 < d} = P{X1 ≤ b, X2 < d} − P{X1 ≤ b, X2 ≤ c} = F (b, d− ) − F (b, c)

P{X1 ≤ b, c ≤ X2 ≤ d} = F (b, d) − F (b, c− )

P{X1 ≤ b, c ≤ X2 < d} = F (b, d− ) − F (b, c− )

P{X1 < b, c < X2 ≤ d} = F (b− , d) − F (b− , c)

P{X1 < b, c < X2 < d} = F (b− , d− ) − F (b− , c)

P{X1 < b, c ≤ X2 ≤ d} = F (b− , d) − F (b− , c− )

P{X1 < b, c ≤ X2 < d} = F (b− , d− ) − F (b− , c− )

Ejercicio propuesto. Dar la expresión de las siguientes probabilidades en términos de la función


de distribución del vector aleatorio X = (X1 , X2 ):

P [a < X1 < b, c < X2 < d]

P [a ≤ X1 < b, c < X2 < d]

P [a < X1 ≤ b, c < X2 < d]

P [a ≤ X1 ≤ b, c < X2 < d]

P [a < X1 < b, c ≤ X2 < d]

P [a ≤ X1 < b, c ≤ X2 < d]

P [a < X1 ≤ b, c ≤ X2 < d]

P [a ≤ X1 ≤ b, c ≤ X2 < d]

P [a < X1 < b, c < X2 ≤ d]

P [a ≤ X1 < b, c < X2 ≤ d]

P [a < X1 ≤ b, c < X2 ≤ d]

P [a ≤ X1 ≤ b, c < X2 ≤ d]

P [a < X1 < b, c ≤ X2 ≤ d]

P [a ≤ X1 < b, c ≤ X2 ≤ d]

P [a < X1 ≤ b, c ≤ X2 ≤ d]

P [a ≤ X1 ≤ b, c ≤ X2 ≤ d]

Patricia Román Román 6


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Vectores aleatorios discretos


Definición: X = (X1 , . . . , Xn ) : (Ω; A, P) −→ (Rn , B n , PX ) es de tipo discreto si ∃EX ⊂ Rn
numerable tal que P{X ∈ EX } = 1

El tratamiento de este tipo de vectores es totalmente análogo al de las variables discretas,


mediante la función masa de probabilidad

p : EX −→ [0, 1]
xn 7−→ P{X = xn } = pn
P
que satisface pn ≥ 0 y x∈EX pn = 1 y determina completamente la distribución del vector y,
por tanto, su función de distribución:
X
• PX (B) = P{X ∈ B} = P{X = x} ∀B ∈ B n
X x∈B∩EX
•FX (x) = P{X = xj } ∀x ∈ Rn
xj ∈EX
xj ≤x

Teorema.- Toda colección numerable de números no negativos y de suma la unidad constituyen


los valores de la f.m.p. de algún vector aleatorio n-dimensional de tipo discreto.

Ya hemos visto que un vector aleatorio no es más que un conjunto de variables aleatorias
unidimensionales. Vemos a continuación que los vectores discretos están formados por variables
aleatorias discretas y recı́procamente.

Teorema: Caracterización de vectores aleatorios discretos por sus componentes


X = (X1 , . . . , Xn ) : (Ω, A, P) −→ (Rn , B n , PX ) es discreto si y sólo si ∀i = 1, . . . , n las compo-
nentes Xi : (Ω, A, P) −→ (R, B) son discretas
=⇒] Sea EX el conjunto de valores de X: P{X ∈ EX } = 1 y sea
i
EX = {xi ∈ R / ∃x ∈ EX : (x)i = xi } → PROYECCIÓN DE Ex sobre el lado i
i
Es evidente que, puesto que EX es numerable, EX también lo es y
i i
P{Xi ∈ EX } = P{X1 ∈ R, . . . , Xi−1 ∈ R, Xi ∈ EX , Xi+1 ∈ R, . . . , Xn ∈ R} ≥ P{X ∈ EX } = 1
Por tanto, Xi es también de tipo discreto.
=⇒] Supongamos ahora que Xi es discreta ∀i = 1, . . . , n y P{Xi ∈ Ei } = 1.
Entonces, puesto que E1 , . . . , En son numerables, es claro que E1 × · · · × En ⊂ Rn es también
numerable y
P{X ∈ E1 × · · · × En } ≥ P{X1 ∈ E1 , . . . Xn ∈ En } = 1 1
1
Tn
Si A1 , . . . An son sucesos seguros ⇒ P ( i=1 Ai ) = 1
n
! n
! n
\ [ X
P Ai = 1 − P Aci ≥ 1− P(Aci ) = 1 − 0 = 1
i=1 i=1 subadit i=1

Patricia Román Román 7


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Se deduce entonces que un vector aleatorio n-dimensional de tipo discreto no es más que un
conjunto de n variables aleatorias unidimensionales de tipo discreto.

Ejemplo: Se lanza un dado equilibrado y se observa la cara superior. Se definen las variables
aleatorias

 
 −2 si sale 1, 2, 3
−1 si el resultado es impar


 
X1 = X2 = 0 si sale 4
1 si el resultado es par
 



3 si sale 5, 6

Determinar la función masa de probabilidad y la función de distribución de (X1 , X2 ).


EX = {(−1, −2), (−1, 3), (1, −2), (1, 0), (1, 3)}
Función masa de probabilidad

X2
−2 0 3
X1
−1 2/6 0 1/6
1 1/6 1/6 1/6

Función de distribución


 0 x1 < −1 o x2 < −2
2/6 −1 ≤ x1 < 1, −2 ≤ x2 < 0




 2/6 −1 ≤ x1 < 1, 0 ≤ x2 < 3


FX (x1 , x2 ) = 1/2 −1 ≤ x1 < 1, x2 ≥ 3
3/6 x1 ≥ 1, −2 ≤ x2 < 0




4/6 x1 ≥ 1, 0 ≤ x2 < 3




1 x1 ≥ 1, x2 ≥ 3

Vectores aleatorios continuos


Definición: X = (X1 , . . . , Xn ) : (Ω, A, P) −→ (Rn , B n , PX ) es de tipo continuo si ∃fX : Rn −→
R no negativa e integrable tal que
Z x
FX (x) = fX (t)dt ∀x ∈ Rn
−∞
Z xn Z xn−1 Z x1
FX (x1 , . . . , xn ) = ··· fX (t1 , . . . , tn )dt1 · · · dtn ∀x1 , . . . , xn ∈ R
−∞ −∞ −∞

La función fX se denomina función de densidad del vector aleatorio X y, como vemos en la


definición, fX determina FX y, por tanto, PX :
Z
PX (B) = P{X ∈ B} = fX (t)dt
B

lo cual implica, que si E es numerable, P{X ∈ E} = 0.

Patricia Román Román 8


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Además, fX tiene propiedades análogas a las del caso unidimensional.


Propiedades de fX
R +∞ R +∞ R +∞
1) fX es no negativa, integrable y −∞
fX (t)dt = −∞
··· −∞
fX (t1 , . . . , tn )dt1 · · · dtn = 1.

2) fX es continua salvo en un conjunto con medida de Lebesgue nula, y en los puntos de


continuidad de fX , FX es derivable y

∂ n FX (x1 , . . . , xn )
= fX (x1 , . . . , xn )
∂x1 · · · ∂xn

3) fX puede ser cambiada en conjuntos de medida nula sin afectar a la integral, o sea, a FX .
Por tanto, notamos que fX no es única. Elegiremos siempre una versión de ella que sea,
en la medida de lo posible, continua.

R
Teorema. Toda función f : Rn −→ R no negativa, integrable y tal que Rn f (t)dt = 1 es la
función de densidad de algún vector aleatorio n-dimensional de tipo continuo.
• En el caso discreto hemos visto que los vectores pueden caracterizarse como conjuntos de
variables aleatorias unidimensionales discretas. Sin embargo, en el caso continuo esto no es
cierto.
Si bien las componentes de un vector aleatorio continuo son también de tipo continuo, el
recı́proco no es cierto. Probamos lo primero en la siguiente proposición y lo segundo con un
contraejemplo.

Proposición: Si X = (X1 , . . . , Xn ) : (Ω; A, P) −→ (Rn , B n , PX ) es un vector aleatorio de tipo


continuo, entonces Xi : (Ω; A, P) −→ (R, B, PXi ) es de tipo continuo ∀i = 1, . . . , n.
Dem.- Fijado i = 1, . . . n, FXi (xi ) = P[Xi ≤ xi ] = P[X1 ∈ R, . . . , Xi−1 ∈ R, Xi ≤ xi , Xi+1 ∈
R, . . . , Xn ∈ R] =

lim P[X1 ≤ x1 , . . . , Xi−1 ≤ xi−1 , Xi ≤ xi , Xi+1 ≤ xi+1 , . . . , Xn ≤ xn ] =


xj →+∞
j6=i

FX (+∞, . . . , +∞, xi , +∞, . . . , +∞) =


Z +∞ Z +∞ Z xi Z +∞ Z +∞
··· ··· f (t1 , . . . , ti , . . . , tn )dt1 · · · dtn =
−∞ −∞ −∞ −∞ −∞
Z xi Z +∞ Z +∞ 
··· f (t1 , . . . , ti , . . . , tn )dt1 · · · dti−1 dti+1 . . . dtn dti
−∞ −∞ −∞

Entonces si definimos
Z +∞ Z +∞
fi (ti ) = ··· f (t1 , . . . , ti , . . . , tn )dt1 · · · dti−1 dti+1 . . . dtn
−∞ −∞

Patricia Román Román 9


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

se cumple que fi es una función real de variable real, no negativa, integrable y


Z xi
FXi (xi ) = fi (ti ) dti
−∞

Por tanto, Xi es de tipo continuo, con función de densidad fi .

Ejemplo: Variables continuas no tienen por qué componer un vector continuo.


Sea X1 una variable aleatoria unidimensional de tipo continuo y X2 = X1 . Supongamos que
el vector X = (X1 , X2 ) es de tipo continuo. En tal caso, tendrá una función de densidad f (x1 , x2 )
y podemos calcular la probabilidad de que X pertenezca a cualquier conjunto integrando en él.
Z +∞ Z x2
P{X1 = X2 } = f (x1 , x2 )dx1 dx2 = 0
−∞ x2

Sin embargo, es evidente que P{X1 = X2 } = 1. Por tanto, deducimos que (X1 , X2 ) no puede
ser de tipo continuo.

Ejemplo 1: Calcular la función de distribución de un vector aleatorio (X, Y ) con función de


densidad
f (x, y) = e−x−y , x > 0, y > 0

Z x Z y
F (x, y) = f (s, t)dtds =
−∞ −∞

 0 x<0oy<0
 RxRy Rx  R y −t
e−s−t dtds = e−s ds −x −y

0 0 0 0
e dt = (1 − e )(1 − e ) x, y ≥ 0

Ejemplo 2: Sea (X, Y ) un vector aleatorio con función de densidad

f (x, y) = 1 0 ≤ x, y ≤ 1

Calcular:
a) P{X + Y ≤ 1}
b) P{1/3 ≤ X + Y ≤ 3/2}
c) P{X ≥ 2Y }

a) Z 1 Z 1−y Z 1 1
P{X + Y ≤ 1} = dxdy = (1 − y)dy = (y − y 2 /2) 0 = 1/2
0 0 0
o bien Z 1 Z 1−x Z 1 1
dydx = (1 − x)dx = (x − x2 /2) 0 = 1/2
0 0 0

Patricia Román Román 10


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

b)
Z 1/3 Z 1 Z 1/2 Z 1 Z 1 Z 3/2−y
59
P{1/3 ≤ X + Y ≤ 3/2} = dydx + dydx + dydx =
0 1/3−x 1/3 0 1/2 0 72

o bien Z 1/3 Z 1/3−y Z 1 Z 1


59
1− dxdy − dxdy =
0 0 1/2 3/2−y 72

c)
Z 1/2 Z 1 Z 1 Z x/2
1
P{X ≥ 2Y } = dxdy = dydx =
0 2y 0 0 4

Distribuciones marginales
Al considerar un vector aleatorio como conjunto de variables aleatorias unidimensionales
la distribución del vector se denomina distribución conjunta (función de distribución conjunta,
función masa de probabilidad conjunta o función de densidad conjunta) y a la distribución de
cada componente se le denomina distribución marginal de dicha componente.
Veamos a continuación cómo pueden obtenerse las distribuciones marginales de cada com-
ponente a partir de la conjunta.
Función de distribución marginal
Si X = (X1 , . . . , Xn ) es un vector aleatorio con función de distribución FX

∀i = 1, . . . , n FXi (xi ) = FX (+∞, . . . , +∞, xi , +∞, . . . , +∞) ∀xi ∈ R

Análogamente,

FXi1 ,...,Xik (xi1 , . . . , xik ) = FX (+∞, . . . , +∞, xi1 , +∞, . . . , +∞, xik , +∞, . . . , +∞)

Sin embargo, ya que nosotros trabajamos con vectores discretos o continuos cuyas componentes,
como hemos visto, son variables aleatorias discretas o continuas, lo que nos interesa es el cálculo
de las f.m.p o funciones de densidad marginales a partir de la conjunta.
Distribuciones marginales de vectores discretos
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto con P{X ∈ EX } = 1 y función masa de
probabilidad conocida: P{X = x} ∀x ∈ EX .

Patricia Román Román 11


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Si Xi es una componente arbitraria (ya sabemos que es discreta y que toma valores en el
conjunto EXi = {xi ∈ R / ∃x ∈ EX : (x)i = xi }) su función masa de probabilidad puede
obtenerse a partir de la de X por la siguiente relación
X
P{Xi = xi } = P{X = x} =
x∈EX
(x)i =xi

X
P{X1 = x1 , . . . , Xi−1 = xi−1 , Xi = xi , Xi+1 = xi+1 , . . . , Xn = xn }
x1 ,...,xi−1 ,xi+1 ,...,xn
(x1 ,...,xi ,...,xn )∈EX

relación que se obtiene inmediatamente de P{Xi = xi } = P{Xi = xi , X ∈ EX }.


Análogamente se obtiene la función masa de probabilidad de cualquier subvector que será tam-
bién de tipo discreto puesto que todas sus componentes los son.
X
P{Xi1 = xi1 , . . . , Xik = xik } = P{X = x} =
x∈EX
(x)i =xi ,j=1,...,k
j j
X
P{X1 = x1 , . . . Xi1 −1 = xi1 −1 , Xi1 = xi1 , Xi1 +1 = xi1 +1 , . . . , Xi −1 = xi −1 , Xi = xi , Xi +1 = xi +1 , . . . , Xn = xn }
k k k k k k
x1 ,...,xi −1 ,xi +1 ,
1 1
...,xi −1 ,xi +1 ,...,xn
k k

Ejemplo: Se lanza una moneda tres veces y se define X : Número de caras e Y : Diferencia, en
valor absoluto, de número de caras y cruces. Calcular las distribuciones marginales a partir de
la conjunta.
La función masa de probabilidad conjunta y marginales son (sin más que sumar por filas y por
columnas)

X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1

Distribuciones marginales de vectores continuos


Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con función de densidad fX
conocida. En el apartado anterior vimos que cada componente Xi es de tipo continuo y su
función de distribución es Z xi
FXi (xi ) = fi (ti )dti
−∞
con Z +∞ Z +∞
fi (ti ) = ··· fX (t1 , . . . , ti , . . . , tn )dt1 · · · dti−1 dti+1 · · · dtn ∀ti ∈ R
−∞ −∞

Por tanto, esta es la función de densidad de Xi que, como observamos se obtiene integrando la
conjunta en el resto de las componentes, fijando en la componente i-ésima el punto de interés
ti .

Patricia Román Román 12


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Ejemplo: Sea (X, Y ) un vector aleatorio continuo con función de densidad

f (x, y) = 10x2 y 0≤y≤x≤1

Calcular las marginales y P{Y ≤ 1/2}


Z x 2 x

2 2y
f1 (x) = 10x ydy = 10x = 5x4 0≤x≤1
0 2 0
Z 1 1
x3 10
f2 (y) = 10x ydx = 10y = y(1 − y 3 )
2
0≤y≤1
y 3 y 3
La probabilidad P{Y ≤ 1/2} se puede calcular de dos formas, con la marginal
Z 1/2
10 19
P{Y ≤ 1/2} = y(1 − y 3 )dy =
0 3 48
o con la conjunta,
Z 1/2 Z x Z 1 Z 1/2
2 19
P{Y ≤ 1/2} = 10x ydydx + 10x2 ydydx =
0 0 1/2 0 48

o bien,
Z 1/2 Z 1
19
P{Y ≤ 1/2} = 10x2 ydxdy =
0 y 48

Con un razonamiento similar se obtiene la distribución marginal de un subvector (de dimensión


mayor que uno) de un vector continuo

FXi1 ,...,Xik (xi1 , . . . , xik ) = FX (+∞, . . . , +∞, xi1 , . . . , xik , +∞, . . . , +∞) =
Z xi Z xi Z +∞ Z +∞ 
1 k
··· ··· fX (t1 , . . . , tn )dtn · · · dtik +1 dtik −1 · · · dti1 +1 dti1 −1 , · · · , dt1
−∞ −∞ −∞ −∞

de lo que se deduce

Z +∞ Z +∞
fi1 ,...,ik (ti1 ,...,tik ) = ··· fX (t1 , . . . , tn )dtn . . . dtik +1 dtik −1 · · · dti1 +1 dti1 −1 , · · · , dt1
−∞ −∞

Distribuciones condicionadas
En el análisis conjunto de variables aleatorias surge una importante cuestión, como es
el estudio del comportamiento de un subconjunto de ellas, cuando el resto está sujeto a
alguna condición y, en particular, cuando se conoce su valor. Aparece ası́, el concepto de
distribución condicionada.
Analizamos a continuación cómo pueden obtenerse las distribuciones condicionadas a partir
de la conjunta distinguiendo entre vectores discretos y continuos.

Patricia Román Román 13


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Distribuciones condicionadas de vectores discretos


Caso bidimensional: X = (X1 , X2 )
Si tenemos un vector aleatorio X = (X1 , X2 ) definido en relación a un experimento aleatorio
y se sabe que, por ejemplo, la variable X1 ha tomado un determinado valor, x∗1 , (P{X1 = x∗1 } =6
0), este conocimiento afecta a la distribución de la variable X2 . De hecho, las probabilidades
de los distintos valores de X2 habrá que calcularlas teniendo en cuenta que X1 = x∗1 y serán,
por tanto, distribuciones condicionadas:
P{X1 = x∗1 , X2 = x2 }

si x2 ∈ EX2


P{X1 = x∗1 }

P {X2 = x2 | X1 = x∗1 } =


0 si x2 ∈
/ EX2

X
Notemos que P {X2 = x2 | X1 = x∗1 } ≥ 0 y P {X2 = x2 | X1 = x∗1 } = 1, por lo que estos
x2 ∈EX2
valores proporcionan una función masa de probabilidad sobre EX2 .
La distribución determinada por esta f.m.p. se denomina distribución condicionada de X2
a X1 = x∗1 (distribución de X2 dado X1 = x∗1 ).
Notemos que ∀x∗1 / P{X1 = x∗1 } > 0 puede definirse la distribución de X2 dado X1 = x∗1 y, de
forma análoga, ∀x∗2 / P{X2 = x∗2 } > 0 se define la distribución condicionada de X1 a X2 = x∗2 .
Caso general: X = (X1 , . . . , Xn )
La definición de distribuciones condicionadas en el caso bidimensional se generaliza de forma
inmediata al caso de vectores de dimensión arbitraria, caso en el que puede condicionarse bien
al valor de una sola variable o de varias.
Definición: Distribución condicionada al valor de una variable
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto. Sea Xi una componente arbitraria y x∗i ∈
R / P{Xi = x∗i } > 0. Se define la distribución condicionada de (X1 , . . . , Xi−1 , Xi+1 , . . . , Xn ) a
{Xi = x∗i } (distribución de (X1 , . . . , Xi−1 , Xi+1 , . . . , Xn ) dado Xi = x∗i ) como la determinada
por la función masa de probabilidad:
P{X1 = x1 , . . . , Xi−1 = xi−1 , Xi+1 = xi+1 , . . . , Xn = xn / Xi = x∗i } =
P{X1 = x1 , . . . , Xi−1 = xi−1 , Xi = x∗i , Xi+1 = xi+1 , . . . , Xn = xn }
P{Xi = x∗i }
∀(x1 , . . . , xi−1 , xi+1 , . . . , xn ) / (x1 , . . . , xi−1 , x∗i , xi+1 , . . . , xn ) ∈ EX
EJEMPLO: Se lanza una moneda tres veces y se define X : número de caras e Y : diferencia,
en valor absoluto, entre el número de caras y cruces. Calcular las distribuciones condicionadas
de X a Y = 1, de X a Y = 3 y de Y a X = 0.

X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1

Patricia Román Román 14


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

• X|Y = 1

P{X = 0|Y = 1} = 0, P{X = 1|Y = 1} = 1/2, P{X = 2|Y = 1} = 1/2, P{X = 3|Y = 1} = 0

• X|Y = 3

P{X = 0|Y = 3} = 1/2, P{X = 1|Y = 3} = 0, P{X = 2|Y = 3} = 0, P{X = 3|Y = 3} = 1/2

• Y |X = 0

P{Y = 1|X = 0} = 0, P{Y = 3|X = 0} = 1 −→ Degenerada en 3

Definición: Distribución condicionada a valores de varias variables


Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto y sea (Xi1 , . . . , Xik ) un subvector ar-
bitrario y (x∗i1 , . . . , x∗ik ) ∈ Rk / P{Xi1 = x∗i1 , . . . , Xik = x∗ik } > 0. Se define la distribución
condicionada de (X1 , . . . , Xi1 −1 , Xi1 +1 , . . . , Xik −1 , Xik +1 , . . . , Xn ) a {Xi1 = x∗i1 , . . . , Xik = x∗ik }
como la determinada por la función masa de probabilidad:

P{X1 = x1 , . . . , Xi1 −1 = xi1 −1 , Xi1 +1 = xi1 +1 , . . . ,

Xik −1 = xik −1 , Xik +1 = xik +1 , . . . , Xn = xn / Xi1 = x∗i1 , . . . , Xik = x∗ik } =


P{X1 = x1 , . . . , Xi1 = x∗i1 , . . . , Xik = x∗ik , . . . , Xn = xn }
P{Xi1 = x∗i1 , . . . , Xik = x∗ik }
∀(x1 , . . . , xi1 −1 , xi1 +1 , . . . , xik −1 , xik +1 . . . , xn ) / (x1 , . . . , x∗i1 , . . . , x∗ik , . . . , xn ) ∈ EX

Distribuciones condicionadas de vectores continuos


Si X = (X1 , . . . , Xn ) es un vector aleatorio continuo, ∀i = 1, . . . , n, Xi es continua y P{Xi =
x∗i } = 0 ∀x∗i ∈ R. No es posible, por tanto, definir la probabilidad condicionada al suceso
{Xi = x∗i } como en el caso discreto.
Para obtener de forma rigurosa las distribuciones condicionadas debe realizarse un procedi-
miento de paso al lı́mite que escapa a los contenidos de este curso. Veamos simplemente las
definiciones.
Caso bidimensional
Sea X = (X1 , X2 ) un vector aleatorio de tipo continuo con función de densidad fX . Sea
x∗2 ∈ R tal que fX2 (x∗2 ) > 0. Se define la distribución condicionada de X1 a {X2 = x∗2 }
(distribución de X1 dado X2 = x∗2 ) como la determinada por la función de densidad

fX (x1 , x∗2 )
fX1 |X2 =x∗2 (x1 /x∗2 ) =
fX2 (x∗2 )

Caso general: X = (X1 , . . . , Xn )


Definición 1: Distribución condicionada al valor de una variable

Patricia Román Román 15


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con función de densidad fX . Sea
Xi una componente arbitraria y x∗i ∈ R tal que fXi (x∗i ) > 0. Se define la distribución condicio-
nada de (X1 , . . . , Xi−1 , Xi+1 , . . . , Xn ) a {Xi = x∗i } (distribución de (X1 , . . . , Xi−1 , Xi+1 , . . . , Xn )
dado Xi = x∗i ) como la determinada por la función de densidad
fX (x1 , . . . , x∗i , . . . , xn )
fX1 ,...,Xi−1 ,Xi+1 ,...,Xn |Xi =x∗i (x1 , . . . , xi−1 , xi+1 , . . . , xn |x∗i ) =
fXi (x∗i )

Definición 2: Distribución condicionada a valores de varias variables


Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con función de densidad fX y
sea (Xi1 , . . . , Xik ) un subvector arbitrario y (x∗i1 , . . . , x∗ik ) ∈ Rk / fXi1 ,...,Xik (x∗i1 , . . . , x∗ik ) > 0. Se
define la distribución condicionada de (X1 , . . . , Xi1 −1 , Xi1 +1 , . . . , Xik −1 , Xik +1 , . . . , Xn ) a {Xi1 =
x∗i1 , . . . , Xik = x∗ik } como la determinada por la función de densidad:

fX1 ,...,Xi1 −1 ,Xi1 +1 ,...,Xik −1 ,Xik +1 ,...,Xn |Xi1 =x∗i ,...,Xik =x∗
i
(x1 , . . . , xi1 −1 , xi1 +1 , . . . , xik −1 , xik +1 , . . . , xn /x∗i1 , . . . , x∗ik ) =
1 k

fX (x1 , . . . , x∗i1 , . . . , x∗ik , . . . , xn )


=
fXi1 ,...,Xik (x∗i1 , . . . , x∗ik )
EJEMPLO: Sea (X, Y ) un vector aleatorio con función de densidad
f (x, y) = 2, 0<x<y<1
Calcular las funciones de densidad y de distribución condicionadas. Calcular también las pro-
babilidades
P{Y ≥ 1/2 / X = 1/2} P{X ≥ 1/3 / Y = 2/3}
DISTRIBUCIÓN DE X/Y = y0
Z y
f2 (y) = 2dx = 2y 0<y<1
0
Si 0 < y0 < 1
f (x, y) 2 1
fX/Y =y0 (x/y0 ) = fX/Y =y0 (x) = = = 0 < x < y0
fY (y0 ) 2y0 y0
es decir,

X/Y = y0 ∼ U (0, y0 )
A partir de la función de densidad condicionada podemos calcular la función de distribución
condicionada


 0 x<0



 Z x 1

x
FX/Y =y0 (x/y0 ) = FX/Y =y0 (x) = dt = 0 ≤ x < y0

 0 y0 y=




 1 x1 ≥ x2

Patricia Román Román 16


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

DISTRIBUCIÓN DE Y /X = x0
Z 1
f1 (x) = 2dy = 2 − 2x 0<x<1
x

Si 0 < x0 < 1
f (x0 , y) 2 1
fY /X=x0 (y/x0 ) = fY /X=x0 (y) = = = x0 < y < 1
f1 (x0 ) 2 − 2x0 1 − x0

es decir,

Y /X = x0 ∼ U (x0 , 1)
A partir de la función de densidad condicionada podemos calcular la función de distribución
condicionada

 0 y < x0




 y−x
0
FY /X=x0 (y/x0 ) = FY /X=x0 (y) = x0 ≤ y < 1

 1 − x 1




1 y≥1
Por otra parte
Z
P{Y ≥ 1/2 / X = 1/2} = fY /X=1/2 (y)dy = 1 dado que Y /X = 1/2 ∼ U (1/2, 1)
{y≥1/2}

Z Z 2/3
3 31 1
P{X ≥ 1/3 / Y = 2/3} = fX/Y =2/3 (x)dx = dx = =
{x≥1/3} 1/3 2 23 2
dado que X/Y = 2/3 ∼ U (0, 2/3). También se podı́an haber calculado a partir de las corres-
pondientes funciones de distribución.

Funciones de vectores aleatorios: Cambio de variable


Como en el caso unidimensional, si X es un vector aleatorio n-dimensional y g : (Rn , B n ) −→
(Rm , B m ) es una transformación medible, Y = g(X) es un vector aleatorio m-dimensional
(composición de funciones medibles) cuya distribución puede hallarse a partir de la de X.

Fórmula general de cambio de variable

FY (y) = P [Y ≤ y] = P [g(X) ≤ Y ] = P [X ∈ g −1 ((−∞, y])]

Cambio de variable de discreto a discreto


Si X es un vector aleatorio n-dimensional discreto con valores en EX y g : (Rn , B n ) −→
(Rm , B m ) es una transformación medible, Y = g(X) es un vector aleatorio m-dimensional

Patricia Román Román 17


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

discreto con valores en g(EX ) y su función masa de probabilidad se puede obtener a partir de
la de X como
X
P [Y = y] = P [X ∈ g −1 (y)] = P [X = x], y ∈ g(EX ).
x∈g −1 (y)

Ejemplo 1
Sea X = (X1 , X2 ) un vector aleatorio discreto con función masa de probabilidad

x1
−1 0 1
x2
−2 1/6 1/12 1/6
1 1/6 1/12 1/6
2 1/12 0 1/12
Calcular la función masa de probabilidad de Y = (|X1 |, X22 )

Y toma valores en {(1, 4), (1, 1), (0, 4), (0, 1)}
1 1 1 1 6
P [Y = (1, 4)] = P [X1 = ±1, X2 = ±2] = + + + =
6 6 12 12 12
1 1 4
P [Y = (1, 1)] = P [X1 = ±1, X2 = 1] = + =
6 6 12
1
P [Y = (0, 4)] = P [X1 = 0, X2 = ±2] =
12
1
P [Y = (0, 1)] = P [X1 = 0, X2 = 1] =
12
Cambio de variable de continuo a discreto
Si X es un vector aleatorio n-dimensional continuo con función de densidad fX y g : (Rn , B n ) −→
(Rm , B m ) es una transformación medible tal que Y = g(X) es un vector aleatorio m-dimensional
discreto, su función masa de probabilidad se puede obtener a partir de la función de densidad
de X como
Z
−1
P [Y = y] = P [X ∈ g (y)] = fX (x) dx.
g −1 (y)

Ejemplo 2
Sea X = (X1 , X2 ) con función de densidad

f (x1 , x2 ) = λµe−λx1 e−µx2 , x1 , x2 > 0 (λ, µ > 0)


Sea

0 X1 > X2
Y =
1 X1 < X2
Calcular su distribución.

Patricia Román Román 18


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Z ∞ Z ∞
P [Y = 0] = P [X1 > X2 ] = λµe−λx1 e−µx2 dx1 dx2
0 x2
Z ∞ Z ∞  Z ∞
−µx2 −λx1
∞
µe−µx2 −e−λx1 x2 dx2

= µe λe dx1 dx2 =
0 x2 0
Z ∞ −(µ+λ)x2 ∞

e = µ
= µe−(µ+λ)x2 dx2 = µ
0 −(µ + λ) 0 µ+λ

λ
P [Y = 1] =
µ+λ

Cambio de variable de continuo a continuo


Si X es un vector aleatorio n-dimensional continuo con función de densidad fX y g : (Rn , B n ) −→
(Rm , B m ) es una transformación medible tal que Y = g(X) es un vector aleatorio m-dimensional
continuo, su función de densidad se puede obtener derivando su función de distribución que se
obtiene como

Z
−1
FY (y) = P [Y ≤ y] = P [g(X) ≤ Y ] = P [X ∈ g ((−∞, y])] = fX (x) dx
g −1 ((−∞,y])

Ejemplo 3
Sea X = (X, Y ) con función de densidad

f (x, y) = e−x−y , x, y > 0


X
Calcular la función de densidad de U =.
X +Y

X  0 u<0
U= ∈ (0, 1) −→ FU (u) = (∗) 0≤u<1
X +Y
1 u≥1

   
X u
P ≤ u = (X + Y > 0) = P [X ≤ uX + uY ] = (1 + u > 0) = P X ≤ Y
X +Y 1−u
Z ∞Z u y Z ∞ h
1−u u
i
= −x −y
e e dx dy = ey 1 − e− 1−u y dy
Z0 ∞ 0 Z ∞ 0
u
= e−y dy − e−y(1+ 1−u ) dy = u
0 0

Ası́,

 0 u<0
FU (u) = u 0≤u<1
1 u≥1

Patricia Román Román 19


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

y, por tanto,
fU (u) = 1, 0 < u < 1,
X
es decir, ∼ U (0, 1).
X +Y

Teorema: Cambio de variable de continuo a continuo


Sea X : (Ω, A, P ) −→ (Rn , B n , PX ) un vector aleatorio con función de densidad fX y g :
(Rn , B n ) −→ (Rn , B n ) una función medible tal que

1) g = (g1 , . . . , gn ) admite inversa g −1 = (g1∗ , . . . , gn∗ ).


∂gi∗ (y1 , . . . , yn )
2) ∀i, j = 1, . . . , n, ∃ .
∂yj
 
∂gi∗ (y1 , . . . , yn )
3) J = 6= 0.

∂yj i,j

En estas condiciones, el vector aleatorio n-dimensional Y = g(X) es de tipo continuo y su


función de densidad es

fY (y) = fX (g −1 (y))|J|, ∀y ∈ Rn

NOTA 1: Si el vector transformado es de dimensión menor que el original se consideran variables


auxiliares y luego se calcula la marginal correspondiente.

NOTA 2: Si g no admite inversa pero cada y ∈ Rn tiene un número finito de antiimágenes,


g1−1 (y), . . . , gk(y)
−1
(y), y cada una de las antiimágenes satisface las hipótesis del Teorema, entonces

k(y)
X
fY (y) = |Ji |fX (gi−1 (y))
i=1

siendo Ji el jacobiano correspondiente a gi−1 .

Ejemplo 3
Sea X = (X, Y ) con función de densidad

f (x, y) = e−x−y , x, y > 0


X
Calcular la función de densidad de U = .
X +Y
X
U=
X +Y
V =X +Y
de forma que 0 < u < 1, v > 0. La transformación inversa es

Patricia Román Román 20


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

X = UV
Y = V (1 − U )
con jacobiano
v u
J = =v
−v 1 − u
Ası́,

f(U,V ) (u, v) = f (uv, v(1−u))|v| = e−uv−v(1−u) |v| = ve−v , uv > 0, v(1−u) > 0 (0 < u < 1, v > 0),

de donde
Z ∞
fU (u) = ve−v dv = 1, 0 < u < 1
0

Distribución del máximo y del mı́nimo de variables aleatorias


Un tipo de transformaciones que aparecen comúnmente en la práctica son el máximo y el
mı́nimo de variables aleatorias.
Sea X = (X1 , . . . , Xn ) un vector aleatorio, se define M = max(X1 , . . . , Xn ) como una variable
aleatoria tal que

M (ω) = max{X1 (ω), X2 (ω), . . . , Xn (ω)}


y N = min(X1 , . . . , Xn ) como una variable aleatoria tal que

N (ω) = min{X1 (ω), X2 (ω), . . . , Xn (ω)}

Dado que estas transformaciones no satisfacen, en general, las condiciones de los Teoremas de
Cambio de variable, para obtener su distribución usamos la fórmula general.

Distribución del máximo: M = max(X1 , . . . , Xn )


Sea X = (X1 , . . . , Xn ) un vector aleatorio con función de distribución FX . Entonces

FM (x) = P [M ≤ x] = P [X1 ≤ x, . . . , Xn ≤ x] = FX (x, . . . , x)


y, a partir de aquı́ se obtiene su función masa de probabilidad, en el caso discreto, o su función
de densidad, en el caso continuo.

Distribución del mı́nimo: N = min(X1 , . . . , Xn )

FN (x) = P [N ≤ x] = 1 − P [N > x] = 1 − P [X1 > x, . . . , Xn > x]


y, a partir de aquı́ se obtiene su función masa de probabilidad, en el caso discreto, o su función
de densidad, en el caso continuo.

Patricia Román Román 21


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Distribución conjunta: (M, N )



 P [M ≤ x] = FX (x, . . . , x) x<y

F(M,N ) (x, y) = P [M ≤ x, N ≤ y] =

 P [M ≤ x] − P [M ≤ x, N > y]
= P [M ≤ x] − P [y < Xi ≤ x, ∀i = 1, . . . , n] x≥y

Ejemplo
Sea X = (X1 , X2 ) un vector aleatorio discreto con función masa de probabilidad

P [X1 = x1 , X2 = x2 ] = p2 (1 − p)x1 +x2 , xi = 0, 1, 2, . . . , i = 1, 2 (0 < p < 1).


Calcular la función masa de probabilidad de M = max(X1 , X2 ), N = min(X1 , X2 ) y la conjunta
de M y N .

• M = max(X1 , X2 ) : 0, 1, 2, . . .
x
X x
X
2
P [M ≤ x] = P [X1 ≤ x, X2 ≤ x] = P [X1 = x1 , X2 = x2 ] = p (1 − p)x1 +x2
x1 ,x2 =0 x1 ,x2 =0
x
!2 2
(1 − p)x+1 − 1
X 
2 x1 2
= p (1 − p) =p = (1 − (1 − p)x+1 )2
x1 =0
−p
de donde se deduce

P [M = x] = P [M ≤ x] − P [M ≤ x − 1] = (1 − (1 − p)x+1 )2 − (1 − (1 − p)x )2
También se podrı́a haber hecho directamente

P [M = m] = P [X1 = m, X2 < m] + P [X1 < m, X2 = m] + P [X1 = m, X2 = m]


m−1
X m−1
X
2 m+x2
= p (1 − p) + p2 (1 − p)m+x1 + p2 (1 − p)2m
x2 =0 x1 =0
m−1
X
= 2p2 (1 − p)m (1 − p)x + p2 (1 − p)2m
x=0
(1 − p)m − 1
= 2p2 (1 − p)m + p2 (1 − p)2m
−p
= 2p(1 − p)m (1 − (1 − p)m ) + p2 (1 − p)2m , m = 0, 1, 2, . . .
• M = min(X1 , X2 ) : 0, 1, 2, . . .

X ∞
X
P [N ≤ x] = 1 − P [X1 > x, X2 > x] = 1 − P [X1 = x1 , X2 = x2 ] = 1 − p2 (1 − p)x1 +x2
x1 ,x2 =x+1 x1 ,x2 =x+1

!2
x+1 2
 
X (1 − p)
= 1 − p2 (1 − p)x1 = 1 − p2 = 1 − (1 − p)2x+2
x1 =x+1
p

Patricia Román Román 22


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

de donde se deduce

P [N = x] = P [N ≤ x] − P [N ≤ x − 1] = (1 − p)2x − (1 − p)2x+2
También se podrı́a haber hecho directamente

P [N = n] = P [X1 = n, X2 > n] + P [X1 > n, X2 = n] + P [X1 = n, X2 = n]


X ∞ ∞
X
2 n+x2
= p (1 − p) + p2 (1 − p)n+x1 + p2 (1 − p)2n
x2 =n+1 x1 =n+1

2
X (1 − p)n+1
= 2p (1 − p)n+x2 + p2 (1 − p)2n = 2p2 (1 − p)n + p2 (1 − p)2n
x=n+1
−p
= −2p(1 − p)n (1 − p)n+1 + p2 (1 − p)2n , n = 0, 1, 2, . . .

• (M, N ) toma valores en {(m, n) / m, n = 0, 1, . . . , m ≥ n}


Calculamos directamente su función masa de probabilidad

P [M = m, N = m] = P [X1 = m, X2 = m] = p2 (1 − p)2m , m = n
P [M = m, N = n] = P [X1 = m, X2 = n] + P [X1 = n, X2 = m] = 2p2 (1 − p)m+n , m 6= n

Independencia de variables aleatorias


El concepto de independencia de variables aleatorias es esencial en el Cálculo de Probabilidades.
La distribución conjunta de un conjunto de variables aleatorias determina de forma única las
distribuciones marginales. Sin embargo, el recı́proco no es cierto en general.
A continuación estudiamos una situación en la que si se cumple este hecho: las marginales
determinan de forma única la distribución conjunta.
Definición y caracterizaciones de independencia
Definición
Sean X1 , . . . , Xn variables aleatorias unidimensionales definidas sobre el mismo espacio de pro-
babilidad y sea X = (X1 , . . . , Xn ). Decimos que las variables X1 , . . . , Xn son mutuamente
independientes (completamente independientes) o, simplemente, independientes si

FX (x1 , . . . , xn ) = FX1 (x1 ) · · · · · FXn (xn ), ∀x1 , . . . , xn ∈ R

Caracterización para variables aleatorias discretas


Sean X1 , . . . , Xn variables aleatorias unidimensionales discretas definidas sobre el mismo espacio
de probabilidad

X1 , . . . , Xn son independientes ⇔ P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] · · · P [Xn = xn ],

∀x1 , . . . , xn ∈ R

Patricia Román Román 23


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Caracterización para variables aleatorias continuas


Sean X1 , . . . , Xn variables aleatorias unidimensionales continuas definidas sobre el mismo espa-
cio de probabilidad

 X = (X1 , . . . , Xn ) es de tipo continuo
X1 , . . . , Xn son independientes ⇔
fX (x1 , . . . , xn ) = fX1 (x1 ) · · · fXn (xn ), ∀x1 , . . . , xn ∈ R

El siguiente teorema de caracterización de independencia establece la relación entre la indepen-


dencia de variables aleatorias y la independencia de sucesos expresados en términos de dichas
variables.

Caracterización de independencia por conjuntos de Borel


Sean X1 , . . . , Xn variables aleatorias unidimensionales definidas sobre el mismo espacio de pro-
babilidad

X1 , . . . , Xn son independientes ⇔ P [X1 ∈ B1 , . . . , Xn ∈ Bn ] = P [X1 ∈ B1 ] · · · P [Xn ∈ Bn ],

∀B1 , . . . , Bn ∈ B

Dem
⇐] Si la relación es cierta ∀B1 , . . . , Bn ∈ B, tomando Bi = (−∞, xi ] se tiene la definición de
independencia.
⇒] Caso discreto: X1 , . . . , Xn V.A. discretas
X X
P [X1 ∈ B1 , . . . , Xn ∈ Bn ] = P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] · · · P [Xn = xn ]
x1 ∈B1 x1 ∈B1
··· ···
xn ∈Bn xn ∈Bn
! !
X X
= P [X1 = x1 ] · · · P [Xn = xn ]
x1 ∈B1 xn ∈Bn
= P [X1 ∈ B1 ] · · · P [Xn ∈ Bn ]

⇒] Caso continuo: X1 , . . . , Xn V.A. continuas (si las variables son independientes y continuas,
el vector aleatorio formado por ellas es continuo)
Z Z
P [X1 ∈ B1 , . . . , Xn ∈ Bn ] = ··· fX (x1 , . . . , xn ) dxn . . . dx1
B1 Bn
Z Z
= ··· fX1 (x1 ), · · · , fXn (xn ) dxn . . . dx1
B1 Bn
Z  Z 
= fX1 (x1 ) dx1 · · · fXn (xn ) dxn
B1 Bn
= P [X1 ∈ B1 ] · · · P [Xn ∈ Bn ]

Patricia Román Román 24


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

A continuación damos otra caracterización, de gran interés práctico, para variables discretas y
continuas. Su interés radica en que no es preciso calcular las funciones masa de probabilidad o
funciones de densidad marginales para comprobar la independencia.

Caracterización de independencia por factorización


a) Sean X1 , . . . , Xn variables aleatorias unidimensionales discretas definidas sobre el mismo
espacio de probabilidad

X1 , . . . , Xn son independientes ⇔ P [X1 = x1 , . . . , Xn = xn ] = h1 (x1 ) · · · hn (xn ), ∀x1 , . . . , xn ∈ R

b) Sean X1 , . . . , Xn variables aleatorias unidimensionales continuas definidas sobre el mismo


espacio de probabilidad

 X = (X1 , . . . , Xn ) es continuo
X1 , . . . , Xn son independientes ⇔
fX (x1 , . . . , xn ) = h1 (x1 ) · · · hn (xn ), ∀x1 , . . . , xn ∈ R

Ejemplos
• f (x, y) = 1, 0 < x < 1, 0 < y < 1 −→ Independientes

• f (x, y) = 2, 0 < x < y < 1 −→ No son independientes



1 x>0
f (x, y) = 2(x) (y − x) (1 − y) con (x) =
0 x≤0
De hecho las marginales son

f1 (x) = 2(1 − x), 0 < x < 1, f2 (y) = 2y, 0 < y < 1

Propiedades de independencia

Teorema 1
Una variable aleatoria degenerada es independiente de cualquier otra.

Dem
X1 ≡ c, X2 arbitraria


 0 = P [X1 ≤ x1 ]P [X2 ≤ x2 ] si x1 < c
F (x1 , x2 ) = P [X1 ≤ x1 , X2 ≤ x2 ] =
P [X2 ≤ x2 ] = P [X1 ≤ x1 ]P [X2 ≤ x2 ] si x1 ≥ c

Patricia Román Román 25


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Teorema 2
Si X1 , . . . , Xn son independientes y gi : (R, B) −→ (R, B) son funciones medibles (i = 1, . . . , n),
entonces las variables g1 (X1 ), . . . , gn (Xn ) son indepedientes.

Dem

P [g1 (X1 ) ≤ y1 , . . . , gn (Xn ) ≤ yn ] = P [X1 ∈ g1−1 ((−∞, y1 ]), . . . , Xn ∈ gn−1 ((−∞, yn ])]
= P [X1 ∈ g1−1 ((−∞, y1 ])] · · · P [Xn ∈ gn−1 ((−∞, yn ])]
= P [g1 (X1 ) ≤ y1 ] · · · P [gn (Xn ) ≤ yn ]

Teorema 3
Si X1 , . . . , Xn son independientes, cualquier subcolección Xi1 , . . . , Xik también lo son.

Dem

P [Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ] =


P [X1 ∈ R, . . . , Xi1 −1 ∈ R, Xi1 ∈ Bi1 , Xi1 +1 ∈ R, . . . , Xik −1 ∈ R, Xik ∈ Bik , Xik +1 ∈ R, . . . , Xn ∈ R]
(por la caracterización de conjuntos de Borel)
= P [X1 ∈ R] · · · P [Xi1 −1 ∈ R]P [Xi1 ∈ Bi1 ]P [Xi1 +1 ∈ R] · · · P [Xik −1 ∈ R]P [Xik ∈ Bik ]P [Xik +1 ∈ R] · · · P [Xn ∈ R]

= P [Xi1 ∈ Bi1 ] · · · P [Xik ∈ Bik ]

Teorema 4
X1 , . . . , Xn son independientes ⇔ las distribuciones condicionadas de cualquier subvector a
cualquier otro coinciden con la marginal del primero.

Independencia dos a dos


Definición
Sean X1 , . . . , Xn variables aleatorias unidimensionales definidas sobre el mismo espacio de pro-
babilidad son independientes dos a dos si

∀i, j = 1, . . . , n, i 6= j, Xi y Xj son independientes.

Puesto que cualquier subcolección de variables aleatoria independientes lo son, es claro que
INDEPENDENCIA MUTUA ⇒ INDEPENDENCIA DOS A DOS
Sin embargo, el recı́proco no es cierto como se prueba en el siguiente ejemplo.

Patricia Román Román 26


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Ejemplo. Sean X1 y X2 variables aleatorias independientes y con idéntica distribución P [Xi =


±1] = 1/2, i = 1, 2. Sea X3 = X1 · X2 . Vamos a probar que X1 , X2 y X3 son independientes
dos a dos pero no mutuamente independientes.
Independencia dos a dos.

X1 y X2 son independientes por hipótesis.

X1 y X3 son independientes:
P [X3 = ±1] = 1/2
1
• P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
• P [X1 = 1, X3 = −1] = P [X1 = 1, X2 = −1] = (por indep.) = = P [X1 = 1]P [X3 = −1]
4
1
• P [X1 = −1, X3 = 1] = P [X1 = −1, X2 = −1] = (por indep.) = = P [X1 = −1]P [X3 = 1]
4
1
• P [X1 = −1, X3 = −1] = P [X1 = −1, X2 = 1] = (por indep.) = = P [X1 = −1]P [X3 = −1]
4

X2 y X3 son independientes (igual que el anterior)

Sin embargo, no son mutuamente independientes ya que


1
P [X1 = 1, X2 = 1, X3 = −1] = 0 6= = P [X1 = 1]P [X2 = 1]P [X3 = −1]
8

Familias arbitrarias de variables aleatorias independientes


La noción de independencia de variables aleatoria, que se ha definido para colecciones finitas,
se puede extender a familias arbitrarias.

Definición
Dada una familia arbitraria de variables aleatorias definidas sobre el mismo espacio de proba-
bilidad, se dice que dichas variables son independientes si cualquier subcoleción finita de ellas
son VA independientes.

Sucesiones de variables aleatorias independientes


Sea {Xn }n∈N una sucesión de variables aleatorias definidas sobre el mismo espacio de probabi-
lidad. Se dice que {Xn }n∈N es una sucesión de variables aleatorias independientes si cualquier
subcolección finita de variables de la sucesión son independientes o, equivalentemente, si

∀n ∈ N, X1 , . . . , Xn son independientes.

Patricia Román Román 27


CÁLCULO DE PROBABILIDADES II Grado en Estadı́stica

Independencia de vectores aleatorios


La definición de independencia de variables aleatoria se extiende de forma inmediata a vectores
aleatorios.

Definición
Si X 1 , . . . , X m son vectores aleatorios definidos sobre un mismo espacio de probabilidad, con
dimensiones n1 , . . . , nm , respectivamente,

X 1 , . . . X m son independientes ⇔ FX (x1 , . . . , xm ) = FX 1 (x1 ) · · · FX m (xm ), ∀x1 ∈ Rn1 , . . . , xm ∈ Rnm

siendo X = (X 1 , . . . , X m ).

Las caracterizaciones y propiedades se extienden al caso multidimensional.

Patricia Román Román 28

También podría gustarte