Variables Aleatorias Bidimensionales
Variables Aleatorias Bidimensionales
Variables Aleatorias Bidimensionales
Pintarelli
Hasta ahora hemos considerado el caso de variables aleatorias unidimensionales. Esto es, el resultado
del experimento de interés se registra como un único número real.
En muchos casos, sin embargo, nos puede interesar asociar a cada resultado de un experimento aleatorio,
dos o más características numéricas. Por ejemplo, de los remaches que salen de una línea de producción
nos puede interesar el diámetro X y la longitud Y. Teniendo en cuenta la inevitable variabilidad en las
dimensiones de los remaches debido a las numerosas causas presentes en el proceso de fabricación, los
podemos representar asociándoles dos variables aleatorias X e Y que pueden pensarse como una variable
aleatoria bidimensional: ( X , Y ) .
Al conjunto de valores que toma la variable aleatoria bidimensional (X,Y) lo llamaremos recorrido de la
v.a. (X,Y) y lo indicaremos RXY . En otras palabras RXY = ( x , y ) : x = X (s ) e y = Y (s ) con s ∈ S , es
decir, es la imagen por ( X ,Y ) del espacio muestral S.
Notar que el recorrido de (X,Y) es un subconjunto del espacio Euclidiano: RXY ⊆ R 2 . Como antes,
puede considerarse al recorrido RXY como un espacio muestral cuyos elementos son ahora pares de
números reales.
Como con cualquier espacio muestral, según el número de elementos que lo constituyen, podemos
clasificar a los recorridos RXY en numerables (finitos o infinitos) y no-numerables.
Los recorridos numerables son, en general, de la forma
RXY = (xi , y j ) con i = 1,2 ,..., n y j = 1,2 ,..m = {( x1 , y1 ),( x1 , y2 ),...,( xn , ym )} (finito)
RXY = (xi , y j ) con i = 1,2 ,... y j = 1,2 ,.. = {( x1 , y1 ),( x1 , y2 ),...} (infinito numerable)
Los recorridos no numerables son regiones o subconjuntos no numerables del plano Euclidiano. Por
ejemplo:
RXY = ( x , y ) : a ≤ x ≤ b; c ≤ y ≤ d (no numerable)
83
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
{
RXY = ( x, y ) : x 2 + y 2 ≤ 1 } (no numerable)
RXY = (x , y j ) : a ≤ x ≤ b , y j = c1 ,c2 ,c3 (no numerable “mixto”)
cuyas gráficas se pueden apreciar en la figura siguiente. Notar en el último recorrido, X es v.a. continua
e Y discreta.
y y y
3
d c3
2 c2
1
c c1
RXY
0 0
a 0 b x -1 0 1 2 a 0 b x
-1
Sea ( X ,Y ) una variable aleatoria bidimensional discreta y sea RXY su recorrido (numerable). Sea
p : RXY → R una función que a cada elemento (xi , y j ) le asigna un número real p (xi , y j ) tal que
P X = xi , Y = y j = p (xi , y j ) ∀(xi , y j ) ∈ RXY y que verifica.
a) p(xi , y j ) ≥ 0 ∀(xi , y j ) ∈ RXY
b) (
∑ p xi , y j = ∑∑ ) p xi , y j = 1( )
(xi , y j )∈R XY i j
Sea ( X ,Y ) una variable aleatoria bidimensional continua y sea RXY su recorrido (no numerable). Sea
f : RXY → R una función que, a cada punto ( x , y ) de RXY le asigna un número real f ( x , y ) tal que
P(B ) = ∫∫ f ( x, y )dxdy ∀B ⊆ R y que verifica.
B
a) f ( x, y ) ≥ 0 ∀( x, y ) ∈ R 2
b) ∫∫ f (x, y )dxdy = 1 .
R2
A esta función la llamaremos función de densidad de probabilidad conjunta de la variable aleatoria
bidimensional ( X ,Y ) . En forma abreviada la designaremos también fdp conjunta.
84
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Ejemplos:
1-Dos líneas de producción, señaladas I y II, manufacturan cierto tipo de artículo a pequeña escala.
Supóngase que la capacidad máxima de producción de la línea I es cinco artículos por día, mientras que
para la línea II es 3 artículos/día. Debido a los innumerables factores presentes en todo proceso de
producción, el número de artículos realmente producido por cada línea puede pensarse como una
variable aleatoria. En conjunto podemos pensar en una variable aleatoria bidimensional ( X ,Y ) discreta,
donde la primera componente X corresponde a la producción de la línea I y la segunda componente
Y a los artículos que salen de la línea II. La fdp conjunta correspondiente a variables aleatorias
bidimensionales suele presentarse, por comodidad, como una tabla. Supongamos que la para la v.a.
( X ,Y ) que nos interesa aquí la tabla correspondiente a p(xi , y j ) es
Y X 0 1 2 3 4 5
0 0 0.01 0.03 0.05 0.07 0.09
1 0.01 0.02 0.04 0.05 0.06 0.08
2 0.01 0.03 0.05 0.05 0.05 0.06
3 0.01 0.02 0.04 0.06 0.06 0.05
¿Cuál es la probabilidad de qué salgan más artículos de la línea I que de la línea II?
Antes de calcular la probabilidad que nos pide el problema, hagamos algunas consideraciones sobre la
tabla que representa a p (xi , y j ) .
Se trata de una tabla a doble entrada donde en la primera fila se indican los valores que puede tomar la
v.a. X (en este caso X=0,1,2,3,4,5) y la primera columna indica los valores que puede tomar la variable Y
( 0,1,2,3). Para determinar el valor de la p (xi , y j ) cuando la v.a. ( X ,Y ) toma el valor (xi , y j )
consideramos el número que se encuentra en la columna correspondiente a X = xi y la fila
correspondiente a Y = y j . Por ejemplo: p(4,2) = P( X = 4,Y = 2 ) = 0.05 .
Podemos verificar fácilmente que la fdp conjunta definida por esta bien definida. En efecto verifica las
condiciones a) p(xi , y j ) ≥ 0 ∀(xi , y j ) ∈ RXY y b) ∑ p (xi , y j ) = 1.
(xi , y j )∈R XY
Para contestar la pregunta del enunciado, consideremos el suceso B ⊂ RXY definido
B: “es el suceso que ocurre cuando la línea I produce más artículos que la línea II” o,
B = {X > Y }. Luego:
∑ ∑ p(x , y ) = 0.01+0.03+0.05+0.07+0.09+0.04+0.05+0.06+0.08+
3
P (B ) = P ( X > Y ) = i j
y j = 0x i > y j
+0.05+0.05+0.06+0.06+0.05=0.75.
2- Hay tres cajas registradoras a la salida de un supermercado. Dos clientes llegan a las cajas en
diferentes momentos cuando no hay otros clientes ante aquellas. Cada cliente escoge una caja al azar e
independientemente del otro.
Sean las variables aleatorias X: “ nº de clientes que escogen la caja 1” e Y: “nº de clientes que escogen la
caja 2”. Hallar la fdp conjunta de (X,Y)
Y\X 0 1 2
0 1/9 2/9 1/9
1 2/9 2/9 0
2 1/9 0 0
3- Supongamos que una partícula radiactiva se localiza aleatoriamente en un cuadrado con lados de
longitud unitaria. Es decir, si se consideran dos regiones de la misma área, la partícula tendrá igual
probabilidad de estar en cualquiera de ellas. Sean X e Y las coordenadas que localizan la partícula. Un
modelo adecuado para la distribución conjunta de X e Y sería considerar a (X, Y) continua con fdp dada
por
1 si 0 ≤ x ≤ 1; 0 ≤ y ≤ 1
f ( x, y ) =
0 caso contrario
Por lo tanto
0.40.2
P( X ≤ 0.2, Y ≤ 0.4) = ∫ ∫ 1dxdy = 0.2 × 0.4 = 0.08
0 0
{X ≤ 0.2, Y ≤ 0.4}
86
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Puesto que la condición de normalización exige ∫∫ f (x, y )dxdy = ∫∫ cdxdy = 1 debe ser
R2 R XY
1
c=
área (RXY )
y=x
0 y = x2
0 1 2 3 x
1 x
∫ (x − x )dx = 6 .
1
área (RXY ) = ∫ dx ∫ dy =
1
2
Por lo tanto
0
0 x2
En el ejemplo 1, supongamos que queremos saber cuál es la probabilidad de que el número de artículos
producidos por la línea I sea 2, o sea P( X = 2)
Como el evento {X = 2} es igual a {X = 2} ∩ ({Y = 0} ∪ {Y = 1} ∪ {Y = 2} ∪ {Y = 3}) , y a su vez
87
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
P( X = 2 ) =
= P({X = 2} ∩ {Y = 0}) + P({X = 2} ∩ {Y = 1}) + P({X = 2} ∩ {Y = 2}) + P({X = 2} ∩ {Y = 3}) =
3
= P( X = 2, Y = 0) + P( X = 2, Y = 1) + P( X = 2, Y = 2) + P( X = 2, Y = 3) = ∑ P( X = 2, Y = j )
j =0
Análogamente obtenemos
5
P(Y = j ) = ∑ P( X = i, Y = j ) j = 0,1,2,3
i =0
Que es la función de distribución de probabilidad de Y
Sea (X,Y) discreta y sea p (xi , y j ) (i=1,2,…n, j=1,2,…,m) su función de probabilidad conjunta
(Eventualmente n y/o m pueden ser ∞ ).
p( xi ) = P( X = xi ) = ∑ p (xi , y j )
m
(i=1,2,…,n)
j =1
i =1
Ejemplo:
Siguiendo con el ejemplo 1,
88
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
q(1) = P(Y = 1) = p(0,1) + p(1,1) + p(2,1) + p(3,1) + p(4,1) + p(5,1) = 0.01 + 0.02 + 0.04 + 0.05 + 0.06
= 0.26
Observemos que se verifica la condición de normalización para cada una de las marginales:
5
j
y j =0
0.2 ∞ 0.2 1
P( X ≤ 0.2) = P( X ≤ 0.2, − ∞ < Y < ∞) = ∫ ∫ f ( x, y )dydx = ∫ ∫ 1dydx = 0.2
0 −∞ 0 0
x ∞ x
P ( X ≤ x ) = P ( X ≤ x, − ∞ < Y < ∞ ) = ∫ ∫ f ( x, y )dydx = ∫ g ( x)dx
− ∞− ∞ −∞
∞
donde
−∞
∫ f ( x, y)dy = g ( x)
Por definición de fdp debe ser g ( x) la fdp de la v.a. X
Análogamente
y ∞ y
En general:
Sea (X,Y) continua y sea f ( x , y ) su función de densidad de probabilidad conjunta.
La función de densidad de probabilidad marginal de X es:
∞
g (x ) = ∫ f (x , y )dy
−∞
∞
h( y ) = ∫ f (x , y )dx
−∞
89
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
b ∞
P(a ≤ X ≤ b ) = P a ≤ X ≤ b , − ∞ < Y < ∞ = ∫ ∫ f (x , y )dydx =
a −∞
b
= ∫ g ( x )dx
a
Ejemplo: Consideremos nuevamente la v.a. continua (X,Y) uniformemente distribuida cuyo recorrido
RXY dibujamos otra vez
y
2
y=x
0 y = x2
0 1 2 3 x
∞ x
∫ f ( x , y )dy = ∫ (
6dy = 6 x − x 2 )
0 ≤ x ≤1
g ( x ) = − ∞ x2
0 para los demás valores
∞ y
∫ f (x, y )dx =
h( y ) = − ∞
∫ 6dx = 6(
y
y−y ) 0 ≤ y ≤1
90
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Caso discreto
Consideremos nuevamente el ejemplo de las dos líneas I y II que producen cierto artículo a pequeña
escala. Definimos la v.a. ( X ,Y ) cuya función de probabilidad conjunta p (xi , y j ) está dada por la tabla
anterior que repetimos
Y X 0 1 2 3 4 5 q(yj)
0 0 0.01 0.03 0.05 0.07 0.09 0.25
1 0.01 0.02 0.04 0.05 0.06 0.08 0.26
2 0.01 0.03 0.05 0.05 0.05 0.06 0.25
3 0.01 0.02 0.04 0.06 0.06 0.05 0.24
p(xi) 0.03 0.08 0.16 0.21 0.24 0.28 1
Supongamos que deseamos conocer la probabilidad de que la línea I produzca tres artículos sabiendo
que la línea II ha fabricado dos. Tenemos que calcular una probabilidad condicional. Entonces
P X = 3 , Y = 2
P(X = 3 Y = 2) = = p (3,2 ) = 0.05 = 0.2
P(Y = 2 ) q (2 ) 0.25
b) Caso continuo
Como ocurre con la variables aleatoria continuas en general, el definir la probabilidad condicional de
ocurrencia de un valor dado de una de las variables aleatorias del par ( X ,Y ) supuesto que ocurrió la
otra, presenta las dificultades conocidas relacionadas con el hecho de que la probabilidad de un punto es
( )
cero. Entonces probabilidades tales como P X = xi Y = y j tienen el problema que P (Y = y j ) = 0 .
Sea ( X ,Y ) una variable aleatoria bidimensional continua cuya fdp conjunta es f ( x , y ) . Sean g ( x ) y
h( y ) la fdp marginales de X e Y, respectivamente. Definimos la función de densidad de probabilidad de
X condicional a que Y=y, a la que denotaremos g (x y ) , de la siguiente manera:
f (x , y )
g (x y ) = con h( y ) > 0 .
h( y )
91
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
f (x , y )
h( y x ) = con g ( x ) > 0 .
g (x )
b ∫ f (x ,c )dx
P(a ≤ X ≤ b Y = c ) = ∫ g (x c )dx = a
a h(c )
Observemos que si quisiéramos calcular esta probabilidad usando la fdp conjunta, es decir, refiriéndonos
al recorrido completo, llegaríamos a una indeterminación:
b c
P[(a ≤ X ≤ b ) I (Y = c )] ∫ dx ∫ dyf (x , y )
P(a ≤ X ≤ b Y = c ) =
0
= a c
= .
P(Y = c ) +∞ c
0
∫ dx ∫ dyf (x , y )
−∞ c
∫ g (x )dx = P(a ≤ X ≤ b ) ,
a
mientras que
∫ g (x y )dx = P(a ≤ X ≤ b Y = y ) .
a
Ejemplo:
Una máquina vendedora de refrescos se llena al principio de un día dado con una cantidad aleatoria Y, y
se despacha durante el día una cantidad aleatoria X (medida en galones). No se le vuelve a surtir durante
el día y entonces X ≤ Y
Se ha observado que (X,Y) tienen la densidad conjunta
1 / 2 si 0 ≤ x ≤ y; 0 ≤ y ≤ 2
f ( x, y ) =
0 caso contrario
92
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Hallamos la densidad condicional de X dado Y. Para esto primero encontramos la fdp marginal de Y
∞ y
(1 / 2) y si 0 ≤ y ≤ 2
h( y ) = ∫ f ( x, y )dx = ∫
(1 / 2)dx si 0 ≤ y ≤ 2
=
−∞
0
0 caso contrario 0 caso contrario
1/ 2 1
f ( x, y ) si 0<x≤ y≤2 si 0 < x ≤ y ≤ 2
h( y | x) = = (1 / 2) y = y
g ( x) 0 0
caso contrario caso contrario
1/ 2 1/ 2
1
P( X ≤ 1 / 2 | Y = 1) = ∫ f ( x | y = 1)dx = ∫ (1)dx = 2
−∞ 0
Notar que si la máquina hubiera contenido 2 galones al principio del día, entonces
1/ 2 1/ 2
1
P( X ≤ 1 / 2 | Y = 2) = ∫ f ( x | y = 1)dx = ∫ dx =
1
2
−∞ 0
4
Ya se discutió el concepto de independencia entre dos eventos A y B. Esas mismas ideas podemos
trasladarlas en relación a dos variables aleatorias X e Y que, eventualmente, podemos considerarlas como
las componentes de una variable aleatoria bidimensional ( X ,Y ) .
De acuerdo con esto, intuitivamente decimos que dos variables, X e Y, son independientes si el valor que
toma una de ellas no influye de ninguna manera sobre el valor que toma la otra. Esto lo establecemos
más formalmente:
a) Sea ( X ,Y ) una variable aleatoria bidimensional discreta. Sea p (xi , y j ) su fdp conjunta y p( xi ) y
q ( y j ) las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias
independientes si y sólo si
f ( x , y ) = g ( x )h( y ) ∀( x , y ) ∈ R 2
93
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Observación: Notar que para poder afirmar la independencia de X e Y debe cumplirse la factorización
de la fdp conjunta como producto de las fdp marginales para todos los pares de valores de la v.a. ( X ,Y ) .
Por lo tanto, para verificar la independencia es necesario demostrar la validez de la factorización para
todos los pares. En cambio, es suficiente encontrar un solo par que no la verifica, para afirmar, de
acuerdo con la definición, que las variables X e Y son no independientes, es decir, que son dependientes.
Esto es, para demostrar la dependencia es suficiente con encontrar un solo par que no verifique la
factorización señalada.
Vimos que dos sucesos A y B son independientes si y sólo si P( A B ) = P( A) y P(B A) = P(B ) (donde
por supuesto debía ser P( A) ≠ 0 y P(B ) ≠ 0 ). En términos de variables aleatorias, esta forma de ver la
independencia se manifiesta en la igualdad entre las fdp condicionales y las correspondientes fdp
marginales, como demostramos en este
Teorema
a) Sea ( X ,Y ) una variable aleatoria bidimensional discreta cuyas fdp conjunta, condicionales y
( )
marginales son, respectivamente, p (xi , y j ) ; p xi y j , q ( y j xi ) y p( xi ) , q ( y j ) .
Entonces, X e Y son variables aleatorias independientes si y sólo si
( )
a1) p xi y j = p ( xi ) ∀(xi , y j ) ∈ RXY , o
b) Sea ( X ,Y ) una variable aleatoria bidimensional continua cuyas fdp conjunta, condicionales y
marginales son, respectivamente, f ( x , y ) ; g (x y ) , h( y x ) y g ( x ) , h( y ) .
Entonces, X e Y son variables aleatorias independientes si y sólo si
b1) g (x y ) = g ( x ) ∀( x , y ) ∈ R 2 , o
Dem.)
a) Demostraremos solamente a1). La equivalencia entre a1) y a2) la dejamos como ejercicio.
Para demostrar a1) verificaremos la doble equivalencia entre ésta y la definición de v.a. independientes.
⇒)
Sean X e Y variables aleatorias independientes. Entonces ∀(xi , y j )∈ R XY
(
p xi y j = ) pq(x(y, y) ) = p(xq()yq()y ) = p(x )
i j i j
i
j j
94
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Aquí, la primera implicación se debe a la definición de fdp condicional y la tercera a la definición de v.a.
independientes.
b) También demostramos sólo b1) y dejamos como ejercicio demostrar la equivalencia entre b1) y b2).
⇒)
Sean X e Y variables aleatorias independientes. Entonces ∀( x , y ) ∈ R 2
f ( x , y ) g ( x )h( y )
g (x y ) = = = g (x )
h( y ) h( y )
Aquí la primera igualdad es la definición de fdp condicional y la segunda sale de la definición de
independencia al suponer que X e Y son independientes.
⇐)
Supongamos que se verifica b1). Entonces ∀( x , y ) ∈ R 2
g (x , y )
g (x y ) = g ( x ) → = g ( x ) → f ( x , y ) = g ( x )h( y ) → X e Y independientes.
h( y )
Aquí, la primera implicación se debe a la definición de fdp condicional y la tercera a la definición de v.a.
independientes.
Ejemplos:
1- Supongamos que una máquina se usa para un trabajo específico a la mañana y para uno diferente en
la tarde. Representemos por X e Y el número de veces que la máquina falla en la mañana y en la tarde
respectivamente. Supongamos que la tabla siguiente da la función de probabilidad conjunta p (xi , y j ) de
la variable aleatoria bidimensional discreta ( X ,Y ) .
Y/X 0 1 2 q(yj)
0 0.1 0.2 0.2 0.5
1 0.04 0.08 0.08 0.2
2 0.06 0.12 0.12 0.3
P(xi) 0.2 0.4 0.4 1
95
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
( )
Podríamos haber usado las condiciones a1) p xi y j = p ( xi ) ∀(xi , y j ) ∈ RXY , o su equivalente
a2) q ( y j xi ) = q ( y j ) ∀(xi , y j ) ∈ RXY . Veamos, como muestra para un solo valor, que se verifica
p (2 ,1) 0.08
p (2 1) = = = 0.4 = p (2 ) . Para demostrar la independencia por este camino habría que
q (1) 0 .2
demostrar que se cumple la condición para el resto de los pares de valores. Se deja este cálculo como
ejercicio optativo.
2- Sean X e Y v.a. continuas que representan el tiempo de vida de dos dispositivos electrónicos.
Supongamos que la fdp conjunta de la v.a. continua ( X ,Y ) es:
e − ( x + y ) 0 ≤ x < ∞, 0 ≤ y < ∞
f ( x, y ) =
0 para los demás valores
+∞ +∞
g (x ) = ∫ f (x , y )dy = ∫ e
−(x + y )
dy =e − x
−∞ 0
+∞ +∞
h( y ) = ∫ f (x , y )dx = ∫ e
−( x + y )
dx =e − y
−∞ 0
Luego las marginales son:
e − x 0≤x<∞
g (x ) =
0 para los demás valores
e − y 0≤ y<∞
h( y ) =
0 para los demás valores
e −( x + y ) −x
f ( x, y ) − y = e 0≤ x<∞
g (x y ) = = e = g ( x ) ∀( x. y ) ∈ R
2
96
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
8 xy 0 ≤ x ≤ y ≤ 1
f ( x, y ) =
0 para los demás valores
y
2
y=x
1
RXY
0 x
0 1 2 3
Calculamos las fdp marginales de X e Y :
1
∫ 8 xydy = 4 x (1 − x ) 0 ≤ x ≤ 1
2
g (x ) = x
0 para los demás valores
y
∫ 8 xydx = 4 y 0 ≤ y ≤ 1
3
h( y ) = 0
0 para los demás valores
y podemos apreciar que para 0 ≤ x ≤ y ≤ 1 en general es
( )
f ( x , y ) = 8 xy ≠ 16 x 1 − x 2 y 3 = g ( x )h( y ) .
Observaciones
1- De la definición de las fdp marginales, vemos que tanto en el caso discreto como en el continuo, la
fdp conjunta determina unívocamente las fdp marginales. Es decir, si ( X ,Y ) es discreta del
conocimiento de la función de probabilidad conjunta p (xi , y j ) podemos determinar unívocamente las
funciones de probabilidad p( xi ) y q ( y j ) . Análogamente, si ( X ,Y ) es continua del conocimiento de la
97
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
2- Podemos observar del último ejemplo, que puede ocurrir que aún cuando la función f ( x , y ) ya esté
escrita en forma factorizada como una función sólo de x por una función sólo de y, las variables X e Y
no sean independientes puesto que el dominio es tal que hace que las variables sean dependientes. Así,
en el ejemplo anterior, el recorrido RXY = {( X ,Y ) : 0 ≤ x ≤ y ≤ 1} condiciona los valores que toma x a
los valores que toma y.
Existen muchas situaciones en las que dado una variable aleatoria bidimensional nos interesa considerar
otra variable aleatoria que es función de aquélla. Por ejemplo, supongamos que las variables aleatorias X
e Y denotan la longitud y el ancho, respectivamente, de una pieza, entonces Z = 2 X + 2Y es una v.a. que
representa el perímetro de la pieza, o la v.a. W = X .Y representa el área de la pieza. Tanto Z como W
son variables aleatorias.
Algunas variables aleatorias que son función de variables aleatorias bidimensionales son Z = X + Y ,
Z = X .Y , Z = X / Y , Z = mín( X ,Y ) , Z = máx( X ,Y ) , etc.
Lo anterior se puede generalizar si en lugar de dos variables aleatorias tenemos n variables aleatorias
X 1 , X 2 ,..., X n , y z = H ( x1 , x 2 ,...x n ) es una función de n variables a valores reales.
Ejemplos:
1- Sea Z ~ B ( n, p )
Podemos escribir a Z como suma de variables aleatorias de la siguiente forma.
Recordar que Z cuenta el número de éxitos en n repeticiones o ensayos del experimento ε
Si definimos
98
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Sea una variable aleatoria bidimensional ( X ,Y ) cuya fdp conjunta es la función de probabilidad
conjunta p (xi , y j ) si es discreta o la función de densidad de probabilidad conjunta f ( x , y ) si es continua
y sea una función real de dos variables z = H ( x , y ) de manera que podemos definir una variable
aleatoria Z que es función de la variable aleatoria bidimensional ( X ,Y ) de la forma Z = H ( X ,Y ) . Si la
fdp de Z es q ( zi ) , si Z es discreta, o q( z ) si es continua, entonces la esperanza matemática de Z es, de
acuerdo con la definición general,
Teorema Sea (X,Y) una variable aleatoria bidimensional y sea Z=H(X,Y) una variable aleatoria que es
función de (X,Y).
a) Si Z es variable aleatoria discreta que proviene de la variable aleatoria bidimensional discreta (X,Y)
cuyo recorrido es RXY y su fdp conjunta es p (xi , y j ) , entonces:
E (Z ) = E [H ( X ,Y )] = ∑ H (x , y )p(x , y )
( xi , y j )∈R XY
i j i j
b) Si Z es variable aleatoria continua que proviene de la variable aleatoria continua bidimensional (X,Y)
cuya fdp conjunta es f ( x , y ) , entonces:
99
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
∞ ∞
E (Z ) = E [H ( X ,Y )] = ∫ ∫ H (x , y ) f (x , y )dxdy .
−∞ −∞
Dem.) sin demostración
Ejemplo:
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un
circuito varían aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R
independientes. Supongamos que las correspondientes fdp son:
2i 0 ≤ i ≤1 r2
0≤r≤3
g (i ) = h(r ) = 9
0
demás valores
0 demás valores
Nos interesa considerar el voltaje v = i .r de manera que podemos definir la variable aleatoria V = I .R .
Específicamente deseamos conocer el valor esperado o esperanza matemática del voltaje: E (V ) .
Usando la propiedad establecida en el teorema anterior:
∞ ∞
E (V ) = ∫ ∫ H (i ,r ). f (i ,r )didr . Ahora bien, puesto que consideramos que I y R son variables aleatorias
−∞ −∞
independientes, la fdp conjunta de la v.a. bidimensional (I,R) es simplemete el producto de las
marginales o sea de las fdp de las variables aleatorias I y R tomadas como variables aleatorias
unidimensionales: f (i ,r ) = g (i ).h(r ) , es decir:
2 2
i .r si 0 ≤ i ≤ 1 y 0 ≤ r ≤ 3
f (i ,r ) = 9
0 demás valores
Entonces
3 1
2 2 23 3 1 2 3
E (V ) = ∫ dr ∫ di (i .r ). i .r = ∫ r dr ∫ i di =
0 0 9 90 0 2
E (Z ) = E[H ( X , Y )] = ∑ H (x , y )p(x , y ) = ∑ ( x
(xi , y j )∈R XY
i j i j
( xi , y j )∈R XY
i + y j ) p( xi , y j ) =
E (Z ) = ∑ (x i + y j ) p ( xi , y j ) = ∑x i p ( xi , y j ) + ∑y j p( xi , y j ) =
( xi , y j )∈R XY ( xi , y j )∈R XY ( xi , y j )∈R XY
100
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
= ∑∑ xi p ( xi , y j ) + ∑∑ y j p ( xi , y j ) = ∑ xi ∑ p ( xi , y j ) + ∑ y j ∑ p ( xi , y j ) =
i j i j i j j i
Pero ∑ p( x , y
j
i j ) = p ( xi ) y ∑ p( x , y
i
i j ) = q ( y j ) , por lo tanto
= ∑ xi p ( xi ) + ∑ y j q ( y j ) = E ( X ) + E (Y )
i j
n n
E ∑ X1 = ∑ E(X i )
i =1 i =1
n n
E ∑ ai X i = ∑ ai E ( X i ) .
i =1 i =1
Ejemplos:
1- Vamos a aplicar algunas de las propiedades anteriores para calcular de una manera alternativa la
esperanza matemática de una variable aleatoria X distribuida binomialmente.
Sea entonces una v.a. X∼B(n,p).
Ya vimos que podemos escribir X = X 1 + X 2 + ... + X n donde cada X i se la puede considerar B(1, p ) ,
y además X 1 , X 2 ,..., X n son independientes
Entonces
E ( X i ) = 1 × P( X i = 1) + 0 × P( X i = 0) = P( X i = 1) = p para cualquier i
Por lo tanto
E ( X ) = E ( X 1 + X 2 + ... + X n ) = E ( X 1 ) + E ( X 2 ) + ... + E ( X n ) = p + p + ... + p = np
14 4244 3
n veces
Observación: muchas veces es conveniente descomponer una variable aleatoria como suma de otras más
simples para facilitar los cálculos
101
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
1 N − 1
1 n − 1
E ( X i ) = P ( X i = 1) = = n
N N
n
Por lo tanto
n n n n nM
E ( X ) = E ( X 1 + X 2 + ... + X M ) = E ( X 1 ) + E ( X 2 ) + ... + E ( X Mr ) = + + ... + = M =
N 44
1 N2443 N N N
M veces
102
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
∞
E ( X .Y ) = ∫ (x.y ) f (x , y )dxdy . Pero siendo X e Y variables aleatorias independientes es
−∞
f ( x , y ) = g ( x )h( y ) , donde g ( x ) y h( y ) son las fdp marginales de X e Y que sabemos coinciden con las
fdp de X e Y tomadas como variables aleatorias unidimensionales. Luego:
∞ ∞ ∞
E ( X .Y ) = ∫ (x.y )g (x )h( y )dxdy = ∫ xg (x )dx ∫ yh( y )dy
−∞ −∞ −∞
= E ( X ).E (Y ) ,
Ejemplo:
Nuevamente consideramos el siguiente ejemplo
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un
circuito varían aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R
independientes. Supongamos que las correspondientes fdp son:
2i 0 ≤ i ≤ 1 r2
0≤r≤3
g (i ) = h(r ) = 9
0 demás valores
0 demás valores
Nos interesa considerar el voltaje v = i .r de manera que podemos definir la variable aleatoria V = I .R .
Hallar el valor esperado o esperanza matemática del voltaje: E (V ) .
Como I y R son independientes, usando la propiedad anterior
E (V ) = E ( I ) E ( R)
1 3
1
i3 2
3
r2 1 r4 1 34
E ( I ) = ∫ i (2i )di = 2 = E ( R ) = ∫ r dr = = × =1
0
3 0
3 0
9 9 4 0
9 9
2 2
∴ E (V ) = ×1 =
3 3
. V ( X + Y ) = V ( X ) + V (Y ) + 2σ XY con σ XY = E ( X .Y ) − E ( X ).E (Y )
103
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
( )
V ( X + Y ) = E [ X + Y ] − [E ( X + Y )] . Desarrollamos los cuadrados y aplicamos la propiedad lineal de
2 2
la esperanza:
( )
V ( X + Y ) = E X 2 + 2.X .Y + Y 2 − [E ( X ) + E (Y )]
2
( ) ( ) {
= E X 2 + 2 E ( X .Y ) + E Y 2 − [E ( X )] + 2 E ( X )E (Y ) + [E (Y )]
2 2
}
Agrupando convenientemente:
{( ) } {( ) }
V ( X + Y ) = E X 2 − [E ( X )] + E Y 2 − [E (Y )] + 2{E ( X .Y ) − E ( X )E (Y )}
2 2
= V ( X ) + V (Y ) + 2{E ( X .Y ) − E ( X )E (Y )}
, es decir
V ( X + Y ) = V ( X ) + V (Y ) + 2σ XY
Observaciones:
1- Teniendo presente la definición de la desviación estándar de una v.a. X: σ X = V ( X ) , vemos que a la
propiedad anterior la podemos escribir:
V ( X + Y ) = σ X2 + σY2 + 2σ XY
Ejemplos:
1- Podemos ejemplificar la aplicación de las propiedades de la varianza, calculando nuevamente la
varianza de una v.a. X distribuida binomialmente con parámetros n y p.
Sea entonces una v.a. X∼B(n,p). Vimos que se puede escribir:
104
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
X = X 1 + X 2 + ... + X n , donde las n variables aleatorias son independientes entre sí y tienen todas la
misma distribución:
X i ∼ B(1, p ) ∀i = 1,2 ,..., n
Entonces, tratándose de n variables aleatorias independientes
V ( X ) = V ( X 1 ) + V ( X 2 ) + ... + V ( X n ) todas la varianzas son iguales y podemos escribir la suma como n
veces una cualquiera de ellas:
V ( X ) = nV ( X i ) . Pero
( )
V ( X i ) = E X i2 − [E ( X i )] .
2
Luego:
V ( X ) = nV ( X i ) = np (1 − p )
que es el resultado que habíamos obtenido a partir de la definición y llevando las sumas involucradas a
la forma del desarrollo de un binomio de Newton.
5.7 - Covarianza
Dem. )
Según vimos, si X e Y son variables aleatorias independientes, entonces E ( X .Y ) = E ( X ).E (Y ) , de donde
se sigue la propiedad.
Propiedades de la covarianza
1 N − 1
1 n − 1 n
E ( X i ) = P ( X i = 1) = = y
N N
n
2
n n n n
V ( X i ) = E ( X i ) − (E ( X i ) ) =
2 2
− = 1 −
N N N N
M
Por lo tanto V ( X ) = V ( X 1 + X 2 + ... + X M ) = ∑ V ( X i ) + 2 ∑ Cov( X , X
i j )
i =1 i1≤< j ≤ M
2
n( n − 1) n( n − 1) n
Y E( X i X j ) = , entonces Cov ( X i ; X j ) = −
N ( N − 1) N ( N − 1) N
106
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
2
n( n − 1) n n 1 n
Aplicando algunos pasos algebraicos se llega a Cov ( X i ; X j ) = − = − 1 −
N ( N − 1) N N N − 1 N
Reemplazando
M
n n M 1 n n
V ( X ) = ∑ V ( X i ) + 2 ∑ Cov( X i , X j ) = M 1 − + 2 − 1 −
i =1 i1≤< j ≤ M N N 2 N − 1 N N
M N − M N − n
V (X ) = n
N N N − 1
En realidad más que la covarianza aquí nos interesa considerar una cantidad relacionada con σ XY y que
según veremos nos dará información sobre el grado de asociación que existe entre X e Y . Más
concretamente nos contará si existe algún grado de relación lineal entre X e Y . Esa cantidad es el
coeficiente de correlación lineal.
En el mismo sentido en que podemos tener una idea aproximada sobre la probabilidad de un suceso A si
repetimos el experimento y consideramos las ocurrencias de A en las n repeticiones,
así podemos tener también una primera idea sobre la existencia de una relación funcional,
específicamente una relación lineal, entre X e Y si consideramos un diagrama de dispersión. Consiste en
dibujar pares de valores (xi , y j ) medidos de la variable aleatoria ( X ,Y ) en un sistema de coordenadas.
En la figura mostramos diversas situaciones posibles.
y y y
(xi yi)
0 x 0 x x
a b c
De la figura a se deduciría que entre X e Y no hay ningún tipo de relación funcional. La figura b sugiere
la posibilidad de que exista una relación funcional que corresponde a una parábola. La figura c, por su
parte, sugiere una relación lineal entre X e Y . Este último es el comportamiento que nos interesa
caracterizar. Con ese fin definimos el coeficiente de correlación lineal como sigue:
107
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Sea ( X ,Y ) una variable aleatoria bidimensional. Definimos el coeficiente de correlación lineal entre
Cov ( X , Y )
X e Y como ρ XY =
σ XσY
En consecuencia:
Daremos una serie de propiedades de ρ XY que nos permitirán establecer más concretamente su
significado.
Propiedad 1
Observación: La inversa no es necesariamente cierta. Puede ser que ρXY = 0 y sin embargo X e Y no
sean variables aleatorias independientes. En efecto si tenemos una v.a. bidimensional ( X ,Y ) que da
lugar a un diagrama de dispersión como el que se muestra en la figura, veremos que correspondería a un
coeficiente de correlación lineal ρXY = 0 y sin embargo la figura sugiere que entre X e Y existe la
relación funcional X 2 + Y 2 = 1 , es decir X e Y son v.a. dependientes. En realidad, como veremos, ρ XY es
una medida de la existencia de una relación lineal entre X e Y y una circunferencia se aleja mucho de
una línea recta.
-2 -1 0 1 2 3 x
-1
Propiedad 2 :
− 1 ≤ ρXY ≤ 1
Dem.)
108
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
X Y
Si consideramos la v.a. + entonces
σX σY
X Y V ( X ) V (Y ) 2Cov( X , Y )
0 ≤ V + = + + = 2(1 + ρ XY )
σ X σY σX σY 2 σ XσY
2
Implicando que − 1 ≤ ρ XY
X Y V ( X ) V (Y ) 2Cov ( X , Y )
Por otro lado: 0 ≤ V − = + − = 2(1 − ρ XY )
σ X σY σ X σY 2 σ Xσ Y
2
Implicando que ρ XY ≤ 1
∴ − 1 ≤ ρ XY ≤ 1
Propiedad 3 :
2
Si ρ XY = 1 , entonces con probabilidad 1 es Y = A.X + B donde A y B son constantes.
2
Dem.) Si ρ XY = 1 entonces ρ XY = 1 o ρ XY = −1
Si ρ XY = −1 entonces de la demostración anterior se deduce que
X Y X Y
V + = 2(1 + ρ XY ) = 0 , lo que implica que la v.a. Z = + tiene varianza cero. Según la
σ X σY σ X σY
interpretación de varianza podemos deducir (en forma intuitiva) que la v.a. no tiene dispersión con
respecto a su esperanza, es decir la v.a. Z es una constante con probabilidad 1
σY
Por lo tanto esto implica que Y = A.X + B con A = − <0
σX
σ
Análogamente ρ XY = 1 implica que Y = A.X + B con A = Y > 0
σX
Propiedad 4 :
Si X e Y son dos variables aleatorias tales que Y = A.X + B , donde A y B son constantes,
2
entonces ρ XY = 1 . Si A > 0 es ρ XY = 1 y si A < 0 es ρXY = −1 .
Observación: Claramente las propiedades anteriores establecen que el coeficiente de correlación lineal
es una medida del grado de linealidad entre X e Y.
109
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Cuando se estudiaron las variables aleatorias bidimensionales se habló de una función de variable
aleatoria bidimensional. En particular se nombró la suma de n variables aleatorias, pero no se dijo nada
sobre la distribución de esa v.a. suma.
Es a menudo importante saber cuál es la distribución de una suma de variables aleatorias independientes.
Consideramos algunos ejemplos en el caso discreto
X e Y independientes
n
λ1 k λ 2 n − k e − ( λ1 + λ2 ) n
n! e − ( λ1 + λ2 )
=e − ( λ1 + λ2 )
∑ = ∑
n−k
λ1 λ 2 =
k
(λ1 + λ2 )n
k =0 k! (n − k )! n! k = 0 k!(n − k )! n!
Binomio de Newton
Dem.)
Nuevamente consideramos el evento {X + Y = k } como unión de eventos excluyentes
{X = i, Y = k − i} 0 ≤ i ≤ n1 , entonces
n1 n1 n1
n n
P( X + Y = k ) = ∑ P( X = i, Y = k − i ) =∑ P( X = i ) P(Y = k − i ) =∑ 1 p i (1 − p ) n1 −i 2 p k −i (1 − p ) n2 − k +i =
i =0 i =0 k =0 i k − i
X e Y independientes
n n
n1
= p k (1 − p) n1 + n2 −k ∑ 1 2
i = 0 i k − i
r
En la expresión anterior si j > r entonces = 0
j
110
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
n1
n1 n 2 n1 + n 2
Por último usamos la siguiente identidad combinatoria ∑ i k − i =
i =0 k
Y entonces
n +n
P ( X + Y = k ) = 1 2 p k (1 − p ) n1 + n2 − k
k
O sea X+Y tiene distribución binomial con parámetros n1 + n2 y p
Observación: en los dos casos anteriores se puede generalizar el resultado a n variables aleatorias
independientes, usando el principio de inducción completa, es decir
1- Si X 1 , X 2 ,..., X n son n variables aleatorias independientes donde X i ~ P (λi ) para todo
n n
i = 1,2,..., n entonces ∑ X i ~ P ( ∑ λi )
i =0 i =0
Si X e Y son dos variables aleatorias continuas independientes con densidades g(x) y h(y)
respectivamente se puede probar (no lo demostraremos aquí) que la v.a. Z = X + Y tiene densidad dada
∞
por f X +Y ( z ) = ∫ g ( z − y)h( y)dy
−∞
Usando esto se puede demostrar el siguiente importante resultado:
(
X + Y ~ N µ1 + µ 2 , σ 1 + σ 2
2 2
)
∑a X
i =0
i i
111
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Ejemplos:
1- La envoltura de plástico para un disco magnético está formada por dos hojas. El espesor de cada
una tiene una distribución normal con media 1.5 milímetros y desviación estándar de 0.1 milí-
metros. Las hojas son independientes.
a) Determine la media y la desviación estándar del espesor total de las dos hojas.
b) ¿Cuál es la probabilidad de que el espesor total sea mayor que 3.3 milímetros?
2-Tengo tres mensajes que atender en el edificio administrativo. Sea Xi : “ el tiempo que toma el i-
ésimo mensaje” (i = 1, 2 ,3), y sea X4 : “ el tiempo total que utilizo para caminar hacia y desde el
edificio y entre cada mensaje”. Suponga que las Xi son independientes, normalmente distribui-
das, con las siguientes medias y desviaciones estándar:
µ1 = 15 min, σ 1 = 4, µ 2 = 5, σ 2 = 1, µ 3 = 8, σ 3 = 2, µ 4 = 12, σ 4 = 3
Pienso salir de mi oficina precisamente a las 10.00 a.m. y deseo pegar una nota en mi puerta que
dice “regreso a las t a.m.” ¿A qué hora t debo escribir si deseo que la probabilidad de mi llegada
después de t sea 0.01?
Solución: Definimos la v.a. Z: “tiempo transcurrido desde que salgo de mi oficina hasta que re-
greso”, entonces T = X 1 + X 2 + X 3 + X 4
4 4
Por lo tanto T ~ N ∑ µ i , ∑σ
2
i , y se pide hallar t tal que P (T > t ) = 0.01
i =1 i =1
4 4
∑ µ i = 15 + 5 + 8 + 12 = 50 y ∑σ
2
i = 4 2 + 12 + 2 2 + 3 2 = 30
i =1 i =1
t − 50 t − 50
Entonces P (T > t ) = 1 − Φ = 0.01 , es decir Φ = 0.99
30 30
t − 50
Buscando en la tabla de la normal = 2.33 ⇒ t = 2.33 × 30 + 50 = 62.7619
30
3- El ancho del marco de una puerta tiene una distribución normal con media 24 pulgadas y des-
viación estándar de 1/8 de pulgada. El ancho de la puerta tiene una distribución normal con me-
dia 23.875 de pulgadas y desviación estándar de 1/16 de pulgadas. Suponer independencia.
a) Determine la distribución, la media y la desviación estándar de la diferencia entre el ancho
del marco y de la puerta.
b) ¿Cuál es la probabilidad de que la diferencia entre el ancho del marco y de la puerta sea ma-
yor que ¼ de pulgada?.
112
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
4- Supongamos que las variables aleatorias X e Y denotan la longitud y el ancho en cm, respecti-
vamente, de una pieza.
Supongamos además que X e Y son independientes y que X ~ N(2 , 0.12 ) , Y ~ N(5 , 0.22 ).
Entonces Z = 2X + 2Y es una v.a. que representa el perímetro de la pieza.
Calcular la probabilidad de que el perímetro sea mayor que 14.5 cm.
( )
Solución: tenemos que Z ~ N 2 × 2 + 2 × 5, 2 2 × 0.12 + 2 2 × 0.2 2 , o sea Z ~ N (14, 0.2)
La probabilidad pedida es P ( Z > 14.5) , entonces
14.5 − 14 5
P ( Z > 14.5) = 1 − Φ = 1 − Φ = 1 − Φ (1.1180 ) = 1 − 0.8810 = 0.119
0 . 2 2
5- Si se aplican dos cargas aleatorias X 1 y X 2 a una viga voladiza como se muestra en la figura si-
guiente, el momento de flexión en 0 debido a las cargas es a1 X 1 + a 2 X 2 .
a) Suponga que X 1 y X 2 son v.a. independientes con medias 2
y 4 KLbs respectivamente, y desviaciones estándar 0.5 y
1.0 KLbs, respectivamente.
Si a1 = 5 pies y a 2 = 10 pies, ¿cuál es el momento de flexión
esperado y cuál es la desviación
estándar del momento de flexión?
b) Si X 1 y X 2 están normalmente distribuidas, ¿cuál es la
113
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
∑X
i =1
i
i = 1,2,..., n entonces la v.a. X = tiene distribución normal con
n
σ2
media µ y varianza
n
∑X
i =1
i
Dem.) Notar que X = es un caso particular de combinación lineal de variables aleatorias donde
n
1
ai = para todo i = 1,2,..., n
n
Además en este caso µ i = µ y σ i = σ 2 para todo i = 1,2,..., n
2
n n
1 1 1
Por lo tanto, X tiene distribución normal con esperanza ∑
i =1 n
µ i = ∑
i =1 n
µ = nµ = µ y varianza
n
2 2 2
n
1 2 n
1 2 1 σ2
∑ σ i = ∑ σ = nσ =
i =1 n i =1 n n
2
n
σ 2
Es decir, X ~ N µ ,
n
Observación: a X se lo llama promedio muestral o media muestral
114
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Ejemplo:
Una máquina embotelladora puede regularse de tal manera que llene un promedio de µ onzas por
botella. Se ha observado que la cantidad de contenido que suministra la máquina presenta una
distribución normal con σ = 1 onza. De la producción de la máquina un cierto día, se obtiene una
muestra de 9 botellas llenas (todas fueron llenadas con las mismas posiciones del control operativo) y se
miden las onzas del contenido de cada una.
a) Determinar la probabilidad de que la media muestral se encuentre a lo más a 0.3 onzas de la
media real µ para tales posiciones de control
b) ¿Cuántas observaciones deben incluirse en la muestra si se desea que la media muestral esté a
lo más a 0.3 onzas de µ con una probabilidad de 0.95?
Solución:
a) Sean las variables aleatorias X i : “contenido en onzas de la botella i” i = 1,2,...,9
Entonces X i ~ N (µ ,1) para cada i.
1
Por lo tanto X ~ N µ , . Se desea calcular
9
0 .3 X −µ 0 .3
P( X − µ ≤ 0.3) = P(−0.3 ≤ X − µ ≤ 0.3) = P − ≤ ≤ =
σ σ σ
n n n
0 .3 X −µ 0 .3 X −µ
= P − ≤ ≤ = P − 0 .9 ≤ ≤ 0 .9 = Φ ( 0 .9 ) − Φ ( − 0 .9 ) =
σ σ σ σ
n n n n
= 2Φ (0.9) − 1 = 0.6318
P − 0 .3 n ≤
X −µ
1
( ) ( )
≤ 0.3 n = 2Φ 0.3 n − 1 = 0.95 ⇒ Φ 0.3 n = 0.975 ⇒ 0.3 n = 1.96 ( )
n
2
1.96
O sea n ≈ = 42.68
0 .3
Si tomamos n = 43 , entonces P( X − µ ≤ 0.3) será un poco mayor que 0.95
115
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Acabamos de ver que la suma de un número finito n de variables aleatorias independientes que están
normalmente distribuidas es una variable aleatoria también normalmente distribuida. Esta propiedad
reproductiva no es exclusiva de la distribución normal. En efecto, por ejemplo, ya vimos que existen
variables aleatorias discretas que la cumplen, es el caso de la Poisson y la Binomial.
En realidad, la propiedad que le da a la distribución normal el lugar privilegiado que ocupa entre todas
las distribuciones es el hecho de que la suma de un número muy grande, rigurosamente un número
infinito numerable, de variables aleatorias independientes con distribuciones arbitrarias (no
necesariamente normales) es una variable aleatoria que tiene, aproximadamente, una distribución
normal. Este es, esencialmente, el contenido del
Observaciones:
n n n n
1- Notar que E (S n ) = E ∑ X i = ∑ E ( X i ) = nµ y V (S n ) = V ∑ X i = ∑ V ( X i ) = nσ 2
i =1 i =1 i =1 i =1
S − nµ
Por lo tanto Z n = n es la v.a. S n estandarizada
nσ 2
S n − nµ
S n − nµ n X −µ
2- Notar que P
≤ z = P ≤ z = P , por lo tanto también se puede enunciar
nσ
2
n σ 2
σ
n
n
el Teorema central del límite de la siguiente forma
116
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
3- Aunque en muchos casos el T.C.L. funciona bien para valores de n pequeños , en particular donde la
población es continua y simétrica, en otras situaciones se requieren valores de n mas grandes,
dependiendo de la forma de la distribución de las X i . En muchos casos de interés práctico, si n ≥ 30 , la
aproximación normal será satisfactoria sin importar cómo sea la forma de la distribución de las X i . Si
n < 30 , el T.C.L. funciona si la distribución de las X i no está muy alejada de una distribución normal
4- Para interpretar el significado del T.C.L., se generan (por computadora) n valores de una v.a.
exponencial con parámetro λ = 0.5 , y se calcula el promedio de esos n valores. Esto se repite 1000
veces, por lo tanto tenemos 1000 valores de la v.a. X .
Hacemos un histograma de frecuencias de X , esto es, tomamos un intervalo (a, b) donde “caen”
todos los valores de X , y lo subdividimos en intervalos mas chicos de igual longitud. La frecuencia de
cada subintervalo es la cantidad de valores de X que caen en dicho subintervalo. Se grafican estas
frecuencias obteniéndose los gráficos siguientes que se pueden considerar una aproximación a la
verdadera distribución de X .
Se observa que a medida que aumenta el valor de n los gráficos se van haciendo más simétricos,
pareciéndose a la gráfica de una distribución normal.
150
n=2 80
n=5
60
100
40
50
20
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 1 2 3 4 5 6 7 8 91011121314151617181920212223242526272829303132
40
50
n = 30
40 n = 15 30
30
20
20
10
10
Ejemplos:
1- Supóngase que 30 instrumentos electrónicos D1, D2, ......,D30, se usan de la manera siguiente: tan
pronto como D1 falla empieza a actuar D2. Cuando D2 falla empieza a actuar D3, etc. Supóngase que el
tiempo de falla de Di es una v.a. distribuida exponencialmente con parámetro λ = 0.1 por hora. Sea T el
tiempo total de operación de los 30 instrumentos. ¿Cuál es la probabilidad de que T exceda 350 horas?
117
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Solución:
Si X i : “tiempo de falla del instrumento Di ” i = 1,2,...,30
Entonces X i ~ Exp ( 0 . 1 ) para i = 1,2,...,30
30
El tiempo total de operación de los 30 instrumentos es T = ∑ X i , donde
i =1
30
1
E (T ) = E ∑ X i = 30 × E ( X i ) = 30 × = 300
i =1 0 .1
30 1
V (T ) = V ∑ X i = 30 × V ( X i ) = 30 × 2 = 3000
i =1 0 .1
T − 300
Entonces por T.C.L. ~ N(0,1) aproximadamente pues n = 30
3000
La probabilidad pedida es
T − 300 350 − 300 350 − 300
P(T > 350) = P > ≈ 1 − Φ = 1 − Φ(0.9128) = 1 − 0.81859 = 0.18141
3000 3000 3000
T.C.L.
2- Suponga que el consumo de calorías por día de una determinada persona es una v.a. con media
3000 calorías y desviación estándar de 230 calorías. ¿Cuál es la probabilidad de que el promedio de
consumo de calorías diario de dicha persona en el siguiente año (365 días) sea entre 2959 y 3050?
Solución:
Definimos las variables aleatorias
X i : “cantidad de calorías que una persona consume en el día i” i = 1,2,...,365
Se sabe que E ( X i ) = 3000 y V ( X i ) = 230 2
1 365 σ 2 230 2
Si X = ∑ i
365 i =1
X entonces E ( X ) = 3000 y V ( X ) =
n
=
365
La probabilidad pedida es
2959 − 3000 X − 3000 3050 − 3000
P (2959 ≤ X ≤ 3050 ) = P ≤ ≤ ≈
230 230 230
365 365 365
T.C.L.
3050 − 3000 2959 − 3000
≈ Φ − Φ 230 = Φ (4.15) − Φ(− 3.40 ) ≈ 1 − 0 = 1
230
365 365
118
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Supongamos que X tiene una distribución binomial con parámetros n y p. Para calcular P( X ≤ k )
k
debemos hacer la suma P( X ≤ k ) = ∑ P( X = i ) o recurrir a las tablas de la F.d.a. , pero para valores de
i=0
n grandes no existen tablas, por lo tanto habría que hacer el cálculo en forma directa y muchas veces es
laborioso.
Como una opción podemos considerar a X como suma de variables aleatorias más simples,
específicamente, si definimos
1 si en la í − ésima repetición de ε ocurre éxito
Xi = i = 1,2,..., n
0 caso contrario
entonces cada X i se la puede considerar B(1, p ) , y además X 1 , X 2 ,..., X n son independientes
n
Podemos escribir X = X 1 + X 2 + ... + X n = ∑ X i y si n es grande entonces X tendrá aproximadamente
i =1
una distribución normal con parámetros np y np (1 − p ) , es decir
X − nµ X − n. p
Zn = = ≈ N (0,1) si n es lo suficientemente grande
nσ 2 n. p(1 − p )
Observaciones:
1- La aproximación normal a la distribución binomial funciona bien aun cuando n no sea muy grande si
p no está demasiado cerca de cero o de uno. En particular la aproximación normal a la binomial es buena
si n es grande , np > 5 y n(1 − p ) > 5 , pero es más efectivo aplicar esta aproximación cuando np > 10
y n(1 − p ) > 10
119
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
0.175 0.2
0.15
n = 25
p = 0.7 n = 15
0.15
0.125 p = 0.5
0.1
0.1
0.075
0.05
0.05
0.025
5 10 15 20 25 2 4 6 8 10 12 14
0.35
0.08
0.3 n =15 n = 100
0.25 p = 0.9 p = 0.7
0.06
0.2
0.15 0.04
0.1
0.02
0.05
5 10 15 20 50 60 70 80 90 100
0.4
0.1
0.08
n = 150 n = 10
0.3
p = 0.1 p = 0.1
0.06
0.2
0.04
0.1
0.02
Ejemplos:
1- Sea X∼ B(25,0.4). Hallar las probabilidades exactas de que X ≤ 8 y X = 8 y comparar estos
resultados con los valores correspondientes encontrados por la aproximación normal.
Solución:
De la tabla de la F.d.a. de la binomial encontramos P( X ≤ 8) = 0.274
Y P( X = 8) = P( X ≤ 8) − P( X ≤ 7) = 0.274 − 0.154 = 0.120
Ahora usamos la aproximación normal
X − np 8.5 − 10
P( X ≤ 8) ≈ P( X ≤ 8.5) = P ≤ ≈ Φ(− 0.61) = 0.2709
np (1 − p ) 25 × 0 . 4 × 0 . 6
corrección por continuidad
120
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
Observar que el valor aproximado está muy cercano al valor exacto para P( X ≤ 8) = 0.274
7.5 − 10 X − 10 8.5 − 10 X − 10
P( X = 8) ≈ P(7.5 ≤ X ≤ 8.5) = P ≤ ≤ = P − 1.02 ≤ ≤ −0.61 =
6 6 6 6
= 0.2709 − 0.1593 = 0.1170
Nuevamente este valor aproximado está muy cerca del valor real de P( X = 8) = 0.120
2- Suponga que el 10% de todos los ejes de acero producidos por cierto proceso están fuera de
especificaciones, pero se pueden volver a trabajar (en lugar de tener que enviarlos a la chatarra).
Considere una muestra aleatoria de 200 ejes y denote por X el número entre ellos que estén fuera de
especificaciones y se puedan volver a trabajar. ¿Cuál es la probabilidad (aproximada) de que X sea
a) a lo sumo 30?
b) menos de 30?
c) entre 15 y 25 (inclusive)?
Solución:
Sea la v.a. X: “número de ejes fuera de especificaciones”
Entonces X ~ B(200, 0.1) , además np = 200 × 0.1 = 20 > 5 y n(1 − p ) = 200 × (1 − 0.1) = 180 > 5
3- El gerente de un supermercado desea recabar información sobre la proporción de clientes a los que no
les agrada una nueva política respecto de la aceptación de cheques. ¿Cuántos clientes tendría que incluir
en una muestra si desea que la fracción de la muestra se desvíe a lo mas en 0.15 de la verdadera
fracción, con probabilidad de 0.98?.
Solución:
Sea X: “número de clientes a los que no les agrada la nueva política de aceptación de cheques”
Entonces X ~ B(n, p) donde p es desconocido y es la verdadera proporción de clientes a los que no
les agrada la nueva política de aceptación de cheques. El gerente tomará una muestra de n clientes para
X X
“estimar” p con X = ya que X = es la proporción de clientes a los que no les agrada la nueva
n n
121
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
0.15n 0.98 + 1
Por lo tanto Φ ≥ = 0.99
np (1 − p ) 2
2
2.33
Entonces debe cumplirse que 0.3 n ≥ 2.33 o sea n ≥ = 60.3211
0 .3
X −λ
Si X ~ P(λ ) entonces para λ suficientemente grande tiene aproximadamente distribución
λ
N (0,1)
X −λ
Es decir para λ suficientemente grande ≈ N (0,1)
λ
En la práctica si λ ≥ 30 la aproximación es buena.
∑
i =1
X i ~ P ∑ 1 , es decir
i =1
∑X
i =1
i ~ P ( n)
122
Parte 1 – Variables aleatorias bidimensionales Prof. María B. Pintarelli
n
Pero además por T.C.L. si n es grande ∑X
i =1
i tiene aproximadamente distribución normal con
parámetros nµ = n × 1 = n y nσ 2 = n × 1 = n
n
O sea la distribución de ∑X
i =1
i que es exactamente Poisson con parámetro n, se puede aproximar con
X −n
una N (n, n) , por lo tanto ≈ N (0,1) aproximadamente para valores de n suficientemente grandes
n
En los gráficos siguientes se muestra para diferentes valores de λ cómo aproxima la distribución
N (λ , λ ) a la distribución P(λ )
0.05 0.2
λ = 50
0.04 λ =3
0.15
0.03
0.1
0.02
0.01 0.05
20 40 60 80 100 5 10 15 20 25 30
Ejemplo:
El número de infracciones por estacionamiento en cierta ciudad en cualquier día hábil tiene una
distribución de Poisson con parámetro λ = 50. ¿Cuál es la probabilidad aproximada de que:
a) entre 35 y 70 infracciones se expidan en un día en particular?
b) el número total de infracciones expedidas durante una semana de 5 días sea entre 225 y 275?
Solución:
Sea X: “número de infracciones por estacionamiento en cierta ciudad en cualquier día hábil”
Entonces X ~ P(λ ) donde λ = 50
X − 50
Como λ = 50 entonces ≈ N (0,1) (aproximadamente)
50
a) la probabilidad pedida es
70 − 50 35 − 50
P(35 ≤ X ≤ 70 ) ≈ Φ − Φ = Φ (2.8284 ) − Φ (− 2.12132 ) =
50 50
= 0.997599 − 0.017 = 0.9805
b) Sea Y: “número total de infracciones expedidas durante una semana de 5 días”
Entonces Y ~ P(λ ) donde λ = 50 × 5 = 250
La probabilidad pedida es
275 − 250 225 − 250
P(225 ≤ Y ≤ 275) ≈ Φ − Φ = Φ (1.5811) − Φ(− 1.5811) =
250 250
= 2Φ (1.5811) − 1 = 2 × 0.94295 − 1 = 0.8859
123