Libro Mate3

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 261

Licenciatura en Sistemas

Licenciatura en Informtica
Analista Programador Universitario
http://www.alternativaweb.info
Profesora
Dra. Mara Beatriz Pintarelli
3
MATEMTICA
VERSIN
2010
INDICE

PARTE 1 - PROBABILIDAD


Probabilidad..1
Probabilidad condicional..15
Variables aleatorias discretas26
Variables aleatorias discretas importantes36
Variables aleatorias continuas...56
Variables aleatorias continuas importantes...63
Desigualdad de Chebyshev...77
Variables aleatorias bidimensionales83
Suma de Variables aleatorias y Teorema Central del Lmite...110



PARTE 2 - ESTADISTICA
Estimacin puntual124
Intervalos de confianza..143
Test de hiptesis....172
Regresin lineal simple..210



TABLAS ESTADISTICAS...236



Parte 1- Probabilidad Prof. Mara B. Pintarelli
1
PARTE 1 - PROBABILIDAD

1- Probabilidad
1.1 - Espacios muestrales y eventos.

La Teora de Probabilidades estudia los llamados experimentos aleatorios.
Ejemplos clsicos de experimentos aleatorios son los juegos de azar:
a) tirar un dado y observar el nmero en la cara de arriba.
b) tirar una moneda
c) lanzar una moneda cuatro veces y contar el nmero total de caras obtenidas.
d) lanzar una moneda cuatro veces y observar la sucesin de caras y cecas obtenidas.
Simbolizamos con a un experimento aleatorio.
Un experimento aleatorio tiene las siguientes caractersticas:
1-Se lo puede repetir bajo las mismas condiciones tantas veces como se desee.
2- No se puede predecir con exactitud el resultado de dicho experimento, pero se puede decir cu-
les son los posibles resultados del mismo.
3- A medida que el experimento se repite, los resultados individuales parecen ocurrir en forma
caprichosa. Pero si el experimento se repite un gran nmero de veces, y registramos la proporcin
de veces que ocurre un determinado resultado, veremos que esa proporcin tiende a estabilizarse
en un valor determinado a medida que aumenta el nmero de veces que se repite el experimento.
Por ejemplo, consideremos el experimento de lanzar un dado y observar el nmero de la cara supe-
rior. Supongamos que tiramos el dado N veces, y sea n el nmero de veces que sale el nmero 5
en los N tiros del dado. Entonces
N
n
es la proporcin de veces que sale el nmero 5 en los N tiros.
Si el dado es normal a medida que N aumenta,
N
n
tiende a estabilizarse en un nmero que es 1/6.
Observacin: en los experimentos no aleatorios o deterministas se puede predecir con exactitud el
resultado del experimento, es decir, las condiciones en las que se verifica un experimento determi-
nan el resultado del mismo. Por ejemplo, si colocamos una batera en un circuito simple, el modelo
matemtico que posiblemente describira el flujo observable de corriente sera I = E/R, que es la
ley de Ohm. El modelo predice el valor de I al dar E y R. O sea, si se repite el experimento anterior
cierto nmero de veces, empleando cada vez el mismo circuito, es decir manteniendo fijas E y R,
esperaramos observar el mismo valor de I.
A veces sucede que un experimento no es aleatorio estrictamente, pero resulta mucho ms sencillo
estudiarlo como si fuera aleatorio. Por ejemplo, si tiramos una moneda y observamos qu lado
queda hacia arriba, el resultado sera predecible conociendo en forma precisa las velocidades ini-
ciales de traslacin y rotacin, y las elasticidades de los materiales del piso y de la moneda. Pero la
precisin con la que se necesitan conocer estos datos es casi imposible de obtener en la realidad,
por lo que es ms conveniente tratar al experimento como aleatorio.

El conjunto de todos los resultados posibles de un experimento aleatorio es el espacio muestral. Al
espacio muestral lo anotamos con la letra S.
Por ejemplo,
Parte 1- Probabilidad Prof. Mara B. Pintarelli
2
a) Si : tirar un dado y observar el nmero en la cara de arriba, entonces podemos tomar co-
mo espacio muestral a { } 6 , 5 , 4 , 3 , 2 , 1 = S
b) Si : tirar una moneda, entonces { } s c S , =
c) Si : lanzar una moneda tres veces y contar el nmero total de caras obtenidas entonces
podemos considerar { } 3 , 2 , 1 , 0 = S
d) Si : lanzar una moneda tres veces y observar la sucesin de caras y cecas obtenidas, en-
tonces ( ) { } ) , , ( ); , , ( ); , , ( ); , , ( ); , , ( ); , , ( ); , , ( ; , , s s s c s c c s s s s c c c s c s c s c c c c c S =
e) Si : tirar un dado las veces necesarias hasta que sale un 6 por primera vez, y contar el
nmero de tiros realizados, entonces { } N S = = ,..... 4 , 3 , 2 , 1 , donde N es el conjunto de los
nmeros naturales.
f) Si : medir el tiempo de vida de una lamparita elctrica, entonces { } 0 , = t R t S donde
R es el conjunto de los nmeros reales.

Observaciones:
1- la eleccin de S no es nica, depende de lo que se quiera observar del experimento aleato-
rio.
2- El espacio muestral puede ser un conjunto finito, o infinito. A su vez si es infinito puede ser
infinito numerable o no numerable. En e) el conjunto S es infinito numerable, en f) el con-
junto S es infinito no numerable.

Se llama evento o suceso a todo subconjunto del espacio muestral. Por ejemplo,
a) En el experimento dado en el ejemplo a), un evento de S sera { } 6 , 4 , 2 = A pues S A .
Podemos expresar al evento A con palabras de la siguiente manera A: sale un
nmero par
Tambin { } 3 , 2 , 1 = B es un evento al que podemos expresar verbalmente como
B: sale un nmero menor o igual que 3
b) En el experimento dado en el ejemplo d), un evento de S sera
( ) { } ) , , ( ); , , ( ); , , ( ; , , c c s c s c s c c c c c C = , el que en palabras se puede expresar como
C: salen por lo menos dos caras
c) En el experimento dado en el ejemplo f), un evento de S sera D: la lamparita
dura ms de 1200 horas, en notacin de conjuntos { } 1200 ; > = t R t D
Observaciones:
1- en el ejemplo a) anterior, si al tirar el dado sale el nmero 2, entonces podemos decir que A
ocurri pues A 2 . Pero tambin B ocurri pues B 2 . En cambio si al tirar el dado sale el n-
mero 4, entonces el evento A ocurri pero B no ocurri, pues B 4 .
2- el conjunto es un evento (pues el conjunto est incluido en todo conjunto, en particular
S ). Es el evento que nunca ocurre.
El espacio muestral S es un evento (pues todo conjunto est incluido en s mismo), y S siempre
ocurre.

Las operaciones habituales entre conjuntos se pueden aplicar a los eventos, dando como resultado
nuevos eventos. Especficamente
1- Si A y B son eventos, entonces B A es otro evento. B A ocurre si y solo si ocurre A o si
ocurre B
2- Si A y B son eventos, entonces B A es otro evento. B A ocurre si y solo si ocurre A y ocu-
rre B
Parte 1- Probabilidad Prof. Mara B. Pintarelli
3
3- Si A es un evento
C
A es un evento.
C
A ocurre si y solo si no ocurre A

Nota: recordar que las operaciones de unin, intersec-
cin diferencia y complemento se definen de la siguien-
te manera:
1- B A es el conjunto formado por los elementos que
estn en A o en B (donde el o est en sentido inclusi-
vo), en notacin de conjuntos
{ } B x A x x B A = ;

En la figura la zona en gris simboliza B A


2- B A es el conjunto formado por los elementos que estn
en A y en B, en notacin de conjuntos

{ } B x A x x B A = ;

En la figura la zona en gris simboliza B A




3-
C
A es el conjunto formado por los elementos que estn en el conjunto universal U y no estn en
A, en notacin de conjuntos
{ } A x U x x A
C
= ;

La zona en gris simboliza
C
A









4- B A es el conjunto formado por los elementos que estn en A y no estn en B, en notacin de
conjuntos { } B x A x x B A = ; ,

La zona en gris simboliza B A
Notar que
C
B A B A =









Parte 1- Probabilidad Prof. Mara B. Pintarelli
4



Es til recordar las siguientes propiedades sobre el lgebra de conjuntos:

1- Leyes de idempotencia
a) A A A = b) A A A =

2- Leyes asociativas
a) C B A C B A = ) ( ) ( b) C B A C B A = ) ( ) (
3- Leyes conmutativas
a) A B B A = b) A B B A =
4- Leyes distributivas
a) ) ( ) ( ) ( C A B A C B A = b) ) ( ) ( ) ( C A B A C B A =
5- Leyes de identidad
a) A A = b) = A
c) U U A = d) A U A =

6- Leyes de complemento
a) U A A
C
= b) =
C
A A
c) ( ) A A
C
C
= d) U U
C C
= = ,

7- Leyes de De Morgan
a) ( )
C C C
B A B A = b) ( )
C C C
B A B A =
La relacin de inclusin entre un conjunto y otro y las operaciones anteriores con conjuntos lleva
al siguiente
Teorema:
a) B A es equivalente a A B A =
b) B A es equivalente a B B A =
c) B A es equivalente a
C C
A B
d) B A es equivalente a , =
C
B A
e) B A es equivalente a U A B
C
=

Sean A y B dos conjuntos. El conjunto producto de A y B, expresado B A , est formado por to-
dos los pares ordenados ) , ( b a donde A a y B b , es decir
{ } B b A a b a B A = ); , (
Se anota al producto
2
A A A =
Por ejemplo, si { } 3 , 2 , 1 = A y { } 8 , 7 = B , entonces { } ) 8 , 3 ( ); 7 , 3 ( ); 8 , 2 ( ); 7 , 2 ( ); 8 , 1 ( ); 7 , 1 ( = B A
El concepto de conjunto producto se extiende a un nmero finito de conjuntos en forma natural. El
conjunto producto de los conjuntos
n
A A A ,..., ,
2 1
se anota
n
A A A ..
2 1
y es igual a
Parte 1- Probabilidad Prof. Mara B. Pintarelli
5
( ) { } ,...,n , i A a a a a A A A
i i n n
2 1 , , ,..., , ..
2 1 2 1
= = , es decir es el conjunto de todas las n-uplas
( )
n
a a a ,..., ,
2 1
donde
i i
A a para cada i.
Por ejemplo, si { } 3 , 2 , 1 = A , { } 4 , 2 = B , { } 5 , 4 , 3 = C , entonces un mtodo conveniente para hallar el
producto C B A es por medio del denominado diagrama de rbol que se muestra a continua-
cin, el cual se construye de izquierda a derecha.
C B A consta de todas las ternas (o 3-uplas) formadas al seguir cada camino del rbol


Por ejemplo el camino con
trazo ms grueso indicara la
terna
(1, 4, 4)
















Las operaciones de unin e interseccin tambin se pueden generalizar a ms de dos conjuntos
Si
n
A A A ,..., ,
2 1
son n conjuntos, entonces
a) la unin de todos ellos se anota
n
A A A ..
2 1
o tambin
U
n
i
i
A
1 =
y es igual a
{ }
i n
A x i x A A A = que tal existe ; ..
2 1
, es decir un elemento x pertenece a
n
A A A ..
2 1
si x pertenece a alguno de los conjuntos
i
A .
De forma anloga se define la unin de una secuencia infinita de conjuntos ,... ,
2 1
A A , y se la anota
con el smbolo
U

=1 i
i
A
b) la interseccin de todos ellos se anota
n
A A A ..
2 1
o tambin
I
n
i
i
A
1 =
y es igual a
{ } i A x x A
i
n
i
i
todo para ;
1
=
=
I
, es decir un elemento x pertenece a
I
n
i
i
A
1 =
si x pertenece a todos
los conjuntos
i
A
Parte 1- Probabilidad Prof. Mara B. Pintarelli
6
De forma anloga se define la interseccin de una secuencia infinita de conjuntos ,... ,
2 1
A A , y se
la anota con el smbolo
I

=1 i
i
A

Si A y B son dos eventos tales que = B A , se dice que son disjuntos o mutuamente exclu-
yentes.
Es decir si A y B son mutuamente excluyentes no pueden ocurrir a la vez. Por ejemplo, si se tira un
dado y se observa el nmero de la cara superior, los eventos { } 5 , 3 , 1 = A y { } 6 , 4 , 2 = B son mutua-
mente excluyentes. Al tirar un dado sale un nmero par o un nmero impar, no pueden darse am-
bas cosas a la vez.
Los eventos con un solo elemento son eventos elementales o simples. Por ejemplo, volviendo al
experimento : tirar un dado y observar el nmero en la cara de arriba, y { } 6 , 5 , 4 , 3 , 2 , 1 = S , enton-
ces los conjuntos unitarios {} 1 , { } 2 , { } 3 , { } 4 , { } 5 , { } 6 son eventos simples. Notar que dos eventos
simples cualesquiera son mutuamente excluyentes.






Dado un evento A asociado a un experimento aleatorio . Supongamos que se repite n veces el
experimento , y anotamos
A
n al nmero de veces que ocurre A en la n repeticiones de . Se de-
fine la frecuencia relativa de A, y se simboliza
A
f , al cociente
n
n
A
. Es decir que
A
f es la propor-
cin de veces que ocurre A en las n repeticiones de .
La frecuencia relativa
A
f tiene las siguientes propiedades:
1- 1 0
A
f
2- 1 =
A
f si y solo si A ocurre cada vez en las n repeticiones
3- 0 =
A
f si y solo si A no ocurre nunca en las n repeticiones
4- si A y B son dos eventos mutuamente excluyentes entonces
B A B A
f f f + =


Dado un evento A, se quiere asignar al mismo un nmero que indique qu tan probable es que A
ocurra. A ese nmero lo definiramos como la probabilidad de A. En ese sentido parecera que la
frecuencia relativa
A
f sera una buena eleccin. Pero nos encontramos con el siguiente problema,
cuntas veces deberamos repetir el experimento aleatorio para definir
A
f , es decir qu valor de n
tomaramos?
Por ejemplo en el experimento de tirar un dado consideremos el evento A: sale el nmero 4, si
lo lanzamos 100 veces podramos encontrar que 14 =
A
n , y si lo lanzamos nuevamente 100 veces
podra ocurrir que
A
n sea diferente del anterior por ejemplo podra A ocurrir 20 veces. Entonces,
tendramos dos valores diferentes para
A
f , 0.14 y 0.2
Se dijo antes que en un experimento aleatorio a medida que n aumenta la frecuencia relativa de A
tiende a estabilizarse en un nmero, pero no podemos en la prctica repetir el experimento infinitas
veces.
Se quiere asignar a cada evento A un nmero que no dependa de la experimentacin. Por este mo-
tivo procedemos como sigue:
Parte 1- Probabilidad Prof. Mara B. Pintarelli
7

Definicin axiomtica de probabilidad.
Sea un experimento aleatorio y S un espacio muestral asociado con . Con cada evento A aso-
ciamos un nmero real llamado probabilidad de A, que anotamos P(A), el cual satisface las si-
guientes propiedades bsicas o axiomas

La eleccin de estas propiedades est motivada por las caractersticas correspondientes de la fre-
cuencia relativa.
Observacin: supongamos el experimento de lanzar una moneda y el espacio muestral { } s c S , = .
Notar que podemos escribir { } { } s c S = , es decir como unin de eventos simples. Por los axio-
mas 2 y 3 de la definicin de probabilidad tenemos que
{ } { }) ( ) ( ) ( 1 s P c P S P + = =
Es decir { } { }) ( ) ( 1 s P c P + = , lo que implica que { } { }) ( 1 ) ( s P c P = . No podemos deducir el valor
de { } ( ) c P ni el valor de { } ( ) s P de las propiedades anteriores. Necesitamos informacin adicional,
por ejemplo si el dado es normal. De ser as podemos plantear que { } { }) ( ) ( s P c P = , entonces


{ } { }
{ } { }
{ } { } 5 . 0 ) ( ) (
) ( ) (
) ( ) ( 1
= =
)
`

=
+ =
s P c P
s P c P
s P c P


Podemos deducir de los axiomas otras propiedades tiles para el clculo de probabilidades.

Propiedades de la probabilidad

1- 0 ) ( = P
Dem.) Siendo A un evento cualquiera podemos escribir A A =
Adems A y son mutuamente excluyentes, por lo tanto por axioma 3
) P( P(A) ) ( ) ( + = = A P A P
O sea que
0 ) P( ) P( P(A) ) ( = + = A P


2- Si
C
A es el evento complementario de A, entonces ) ( 1 ) ( A P A P
C
=
1- 1 ) ( 0 A P
2- 1 ) ( = S P
3- Si A y B son eventos mutuamente excluyentes entonces ) ( ) ( ) ( B P A P B A P + =
4- Si ,... , ,..., ,
1 2 1 + n n
A A A A es una secuencia de eventos tales que
j i A A
j i
= si , entonces

=
=
1 1
) ( ) (
i
i
i
i
A P A P
U

Parte 1- Probabilidad Prof. Mara B. Pintarelli
8
Dem.) Si A es un evento cualquiera, entonces podemos escribir S A A
C
=
Adems, por definicin de complemento de un conjunto, A y
C
A son mutuamente excluyentes.
Por lo tanto, por axioma 2 y por axioma 3
) ( ) ( ) ( 1
C
A P A P S P + = =
Despejando
) ( 1 ) ( A P A P
C
=



3-

Dem.) Sean A y B dos eventos tales que B A .
De la figura vemos que ) (
C
A B A B =
Y adems A y
C
A B son mutuamente
excluyentes. Entonces

) ( ) ( ) (
C
A B P A P B P + =
Y como por axioma 1 tenemos que 0 ) (
C
A B P , entonces ) ( ) ( A P B P



4-

Dem.) Siguiendo los pasos de la demostracin anterior llegamos a
) ( ) ( ) (
C
A B P A P B P + = , lo que implica que ) ( ) ( ) ( A P B P A B P
C
=
Y como A B A B
C
= , entonces ) ( ) ( ) ( A P B P A B P = .

Observacin: en general vale la siguiente propiedad ) ( ) ( ) ( B A P B P A B P =














5- Si A y B son dos eventos cualesquiera, entonces

) ( ) ( ) ( ) ( B A P B P A P B A P + =

C
A B

A B
B A
Si B A , entonces ) ( ) ( ) ( A P B P A B P =
Si B A entonces ) ( ) ( B P A P
Parte 1- Probabilidad Prof. Mara B. Pintarelli
9

Dem.) Escribimos a B A como unin de partes disjuntas de la siguiente manera, (observar la
figura)

) (
C
B A B B A =
(1) ) ( ) ( ) (
C
B A P B P B A P + =

Y por la observacin anterior

(2) ) ( ) ( ) ( ) ( B A P B P A B P A B P
C
= =

Por lo tanto, reemplazando (2) en (1):
) ( ) ( ) ( ) ( B A P A P B P B A P + =
Con lo que queda demostrada la propiedad.


Observaciones:
1- La propiedad anterior se puede generalizar para expresar la probabilidad de tres eventos
) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( C B A P C B P C A P B A P C P B P A P C B A P + + + =
Se llega a la igualdad anterior escribiendo D B A = y aplicando la propiedad 5, es decir:

(3) ) ) (( ) ( ) (
) ( ) ( ) ( ) ( ) (
C B A P C P B A P
C D P C P D P C D P C B A P
+ =
= + = =


Nuevamente aplicamos 5: ) ( ) ( ) ( ) ( B A P A P B P B A P + =
Y adems, aplicando las leyes distributivas ( ) ( ) ( ) C B C A C B A =
Entonces:
( ) ( ) ( ) ( ) ( ) ( ) ( )) ( ) ( ) ( C B C A P C B P C A P C B C A P C B A P + = =
Como ( ) ( ) C B A C B C A = , reemplazando en (3) se llega a :
) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( C B A P C B P C A P B A P C P B P A P C B A P + + + =

En general, se puede probar que si
n
A A A ,..., ,
2 1
son n eventos cualesquiera entonces

) .... ( ) 1 ( ..... ) ( ) ( ) ( ) (
2 1
1
1 1
n
k j i
n
k j i
n
i j i
j i i
n
i
i
A A A P A A A P A A P A P A P + + =

< <

= < =
U




2- Si
n
A A A ,..., ,
2 1
son n eventos tales que j i A A
j i
= con entonces

= =
=
n
i
i
n
i
i
A P A P
1 1
) ( ) (
U

Notar que la igualdad anterior es una generalizacin del axioma 3.

C
B A

B A
Parte 1- Probabilidad Prof. Mara B. Pintarelli
10

1.2 - El espacio muestral finito

Sea un experimento aleatorio y S un espacio muestral asociado a . Supongamos que S es un
conjunto finito al que anotamos { }
n
a a a S ,..., ,
2 1
= , es decir consideramos que tiene n elementos.
Podemos escribir a S como unin de eventos elementales de la siguiente forma.
Si { }
i i
a A = entonces
n
A A A S = ...
2 1
. Adems sabemos que 1 ) ( = S P , por lo tanto tene-
mos el resultado:
1 ) ( ... ) ( ) (
2 1
= + + +
n
A P A P A P (4)
Es decir: la suma de las probabilidades de los eventos elementales es igual a 1
Si ahora tomamos un evento cualquiera B de S, lo anotamos { }
k
i i i
a a a B ,..., ,
2 1
= , entonces pode-
mos escribir a B como unin de eventos simples:
k
i i i
A A A B = ...
2 1
. Por lo tanto

) ( ... ) ( ) ( ) ... ( ) (
2 1 2 1 k k
i i i i i i
A P A P A P A A A P B P + + + = =

Es decir para calcular la probabilidad de B se suman las probabilidades de los eventos elemen-
tales que lo componen.
Si asumimos que p A P A P A P
n
= = = = ) ( ... ) ( ) (
2 1
, es decir todos los eventos elementales tienen la
misma probabilidad de ocurrir, entonces reemplazando en (4):

S n
p np p p p
p n
#
1 1
1 1 ...
veces
= = = = + + +
4 43 4 42 1


Donde el smbolo #S se lee: nmero de elementos de S, (en general #S indica el cardinal de S)
Cuando p A P A P A P
n
= = = = ) ( ... ) ( ) (
2 1
, se dice que S es equiprobable.
Si B es un evento cualquiera de S, lo anotamos { }
k
i i i
a a a B ,..., ,
2 1
= ( o sea que #B = k), entonces
escribimos a B como unin de eventos simples:
k
i i i
A A A B = ...
2 1
, y nuevamente

) ( ... ) ( ) ( ) ... ( ) (
2 1 2 1 k k
i i i i i i
A P A P A P A A A P B P + + + = =
Como ya vimos que
n
A P
i
1
) ( = para todo i=1,2,,n, se tiene que:


S
B
n
k
n n n
A P A P A P B P
k
i i i
k
#
# 1
...
1 1
) ( ... ) ( ) ( ) (
veces
2 1
= = + + + = + + + =
4 43 4 42 1

Es decir si B es un evento de un espacio muestral equiprobable entonces
S
B
B P
#
#
) ( =


Parte 1- Probabilidad Prof. Mara B. Pintarelli
11
Ejemplos:
1- Supongamos que se tira una moneda normal tres veces, y se cuenta el nmero de caras obtenido
luego de los tres tiros. Tomemos como espacio muestral a { } 3 , 2 , 1 , 0 = S
Cul es la probabilidad de que salgan al menos dos caras?
En este caso S no es equiprobable, pues
el evento { } 0 ocurre de una sola forma: cuando en los tres tiros sale ceca
El evento { } 3 ocurre de una sola forma: cuando en los tres tiros sale cara
Pero el evento { } 1 ocurre cuando en los tres tiros sale una sola cara y eso puede darse de tres
formas distintas ) , , ( o ) , , ( ); , , ( c s c c s s s s c
Anlogamente para el evento { } 2 puede darse de tres formas distintas:
) , , ( o ) , , ( ); , , ( c c s c s c s c c
Por lo tanto { } { }) 3 ( ) 0 ( P P = y { } { }) 2 ( ) 1 ( P P = . Si anotamos { } { } p P P = = ) 3 ( ) 0 ( y
{ } { } q P P = = ) 2 ( ) 1 ( entonces p q 3 = (5)
Adems se cumple { } { } { } { } 1 ) 3 ( ) 2 ( ) 1 ( ) 0 ( = + + + P P P P (6)
Entonces de (5) y (6)


8
3
,
8
1
1 2 2
3
1
3
= =
)
`

= +
=

)
`

= + + +
=
q p
q p
p q
p q q p
p q


De esta forma conocemos las probabilidades de todos los eventos elementales.
Si B: salen al menos dos caras , entonces { } 3 , 2 = B
Para calcular P(B) hacemos

{ } ( ) { } ( ) 5 . 0
8
4
8
1
8
3
3 2 ) ( = = + = + = P P B P
Si tomamos como espacio muestral a

( ) { } ) , , ( ); , , ( ); , , ( ); , , ( ); , , ( ); , , ( ); , , ( ; , , s s s c s c c s s s s c c c s c s c s c c c c c S =

Entonces S es equiprobable pues cada resultado (cada terna) se de una sola forma.
En este caso podemos plantear directamente 5 . 0
8
4
#
#
) ( = = =
S
B
B P

2- En el caso de espacios muestrales equiprobables es necesario recordar las tcnicas de conteo
para calcular el nmero de elementos de un conjunto sin enumerar sus elementos.
Por ejemplo:
Se tiene una urna con 15 bolillas distinguibles (pueden estar numeradas), de las cuales 10 son
blancas y 5 son rojas. Se extraen al azar dos bolillas de la urna,
a) cul es la probabilidad de extraer todas blancas?
b) cul es la probabilidad de extraer exactamente una bolilla blanca?
c) cul es la probabilidad de extraer al menos una bolilla blanca?
Supongamos que se extraen las dos bolillas sin reemplazo y no importa el orden en que son
extradas.
Parte 1- Probabilidad Prof. Mara B. Pintarelli
12
Al decir que se extraen al azar, se entiende que el espacio muestral del experimento es equipro-
bable.
Al decir que se extraen las bolillas sin reemplazo, significa que se extrae una bolilla y sin regre-
sarla a la urna se extrae la siguiente.
El espacio muestral de este experimento se puede tomar como { } { } { } { } ,... 10 , 2 , 5 , 2 ; 4 , 1 = S , es de-
cir como el conjunto cuyos elementos son conjuntos, todos los conjuntos de dos elementos que
se puedan formar a partir de un conjunto de 15 elementos. Por ejemplo, el resultado { } 4 , 1 signi-
fica que se extrajeron las bolillas 1 y 4. Cuntos elementos tiene S?, recordando las tcnicas de
conteo el nmero de elementos de S es igual al nmero combinatorio
( )! 2 15 ! 2
! 15
2
15

=
|
|

\
|

Para responder la pregunta a) anotemos A: las dos bolillas son blancas
Entonces
S
A
A P
#
#
) ( = . Cuntos elementos tiene el conjunto A?, tantos como formas haya de
extraer dos bolillas blancas. Se tiene que
( )! 2 10 ! 2
! 10
2
10
#

=
|
|

\
|
= A .
Por lo tanto
( )
( )
7
3
! 2 15 ! 2
! 15
! 2 10 ! 2
! 10
2
15
2
10
#
#
) ( =

=
|
|

\
|
|
|

\
|
= =
S
A
A P

Veamos ahora el inciso b). Anotamos B: se extrae exactamente una bolilla blanca
Entonces

|
|

\
|
|
|

\
|
|
|

\
|
= =
2
15
1
5
1
10
#
#
) (
S
B
B P
Y por ltimo el inciso c). Anotamos C: se extrae al menos una bolilla blanca
Podemos resolverlo de dos maneras:
La forma ms fcil es calcular ) (
C
C P donde
C
C : ninguna bolilla es blanca

21
19
21
2
1
2
15
2
5
1 ) ( 1 ) (
2
15
2
5
#
#
) ( = =
|
|

\
|
|
|

\
|
= =
|
|

\
|
|
|

\
|
= =
C
C
C
C P C P
S
C
C P
Otra forma de resolverlo podra ser la siguiente, escribimos
2 1
C C C = donde
2 , 1 e" exactament blancas bolillas extraen se :" = i i C
i

Notar que =
2 1
C C . Por lo tanto ) ( ) ( ) (
2 1
C P C P C P + =

Y
|
|

\
|
|
|

\
|
|
|

\
|
= =
2
15
1
5
1
10
#
#
) (
1
1
S
C
C P ;
|
|

\
|
|
|

\
|
|
|

\
|
= =
2
15
0
5
2
10
#
#
) (
2
2
S
C
C P
Parte 1- Probabilidad Prof. Mara B. Pintarelli
13
Por lo tanto
21
19
21
9
21
10
2
15
0
5
2
10
2
15
1
5
1
10
) ( = + =
|
|

\
|
|
|

\
|
|
|

\
|
+
|
|

\
|
|
|

\
|
|
|

\
|
= C P

3- Si en el ejemplo anterior importa el orden en que son extradas las bolillas, entonces
( ) ( ) ( ) ( ) ( ) { } .... 2 , 5 ; 1 , 4 ,. 10 , 2 , 5 , 2 ; 4 , 1 = S , es decir que S es el conjunto de todos los pares ) , ( b a don-
de b a , por ejemplo (1,4) expresa el resultado: primero se extrajo la bolilla 1 y en segundo
trmino se extrajo la bolilla 2. El nmero de elementos de S es 15x14 = 210.
En este caso

7
3
14 15
9 10
) ( =

= A P ;
Para calcular la probabilidad de B hay que distinguir si la bolilla blanca se extrae primero o se
extrae en segundo trmino:

( )
14 15
5 10 2
14 15
10 5 5 10
) (

+
= B P
Para calcular la probabilidad de C nuevamente podemos pensarlo de dos formas, pero si consi-
deramos
2 1
C C C = en cada caso hay que tener en cuenta el orden en que se extraen las boli-
llas.
Es mas prctico hacer
14 15
4 5
1 ) ( 1 ) (

= =
C
C P C P
4- Si ahora importa el orden en que son extradas las bolillas y adems la extraccin se hace con
re emplazo (se extrae una bolilla y se la devuelve a la urna antes de extraer la siguiente), enton-
ces S es el conjunto de pares (a,b) donde ahora puede ocurrir que a = b.
En este caso #S = 15 x 15, y calculamos

15 15
10 10
) (

= A P ;
( )
15 15
5 10 2
15 15
10 5 5 10
) (

+
= B P ;
15 15
5 5
1 ) ( 1 ) (

= =
C
C P C P


1.3 - Espacios muestrales infinitos

Sea S un espacio muestral infinito numerable es decir { } K K ; ; ;
3 2 1
a a a S = . Como en el caso fini-
to, a cada
i
a asignamos un nmero { } ( )
i i
a P p = tal que
0 )
i
p a 1 )
1
=

= i
i
p b
La probabilidad ) (A P de un evento A es entonces la suma de las probabilidades de los eventos
elementales que lo componen.
Los nicos espacios muestrales infinitos no numerables que consideraremos son aquellos de me-
dida geomtrica finita ) (S m tales como longitud, rea o volumen, y en los cuales un punto se se-
lecciona al azar. La probabilidad de un evento A, esto es aquella en la que el punto seleccionado
pertenece a A, es entonces la relacin entre ) (A m a ) (S m , es decir
S
A
A P
de longitud
de longitud
) ( =
S
A
A P
de rea
de rea
) ( =
S
A
A P
de volumen
de volumen
) ( =
Parte 1- Probabilidad Prof. Mara B. Pintarelli
14

Ejemplo:
En el interior de un crculo se selecciona un punto al azar. Hallar la probabilidad de que el punto
quede ms cercano al centro que a la circunferencia.

Tomamos como espacio muestral a { }
2 2 2
), , ( r y x y x S + = , entonces

\
|
+ =
2
2 2
2
), , (
r
y x y x A
Por lo tanto
4
1

2
de rea
de rea
) (
2
2
=
|

\
|
= =
r
r
S
A
A P


Observacin: si

\
|
= + =
2
2 2
2
), , (
r
y x y x A ,
entonces 0

0
de rea
de rea
) (
2
= = =
r S
A
A P

, pero A
Por lo tanto si un evento tiene probabilidad 0 eso no implica que sea el evento vaco.



r
r/2
S
A
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
15
2 - Probabilidad condicional

2.1- Definicin

Supongamos el experimento aleatorio de extraer al azar sin reemplazo dos bolillas de una urna que
contiene 7 bolillas rojas y 3 blancas. Asumimos que las bolillas de un mismo color son distinguibles.
Consideramos los eventos A: la primer bolilla extrada es blanca, y B: la segunda bolilla extrada es
blanca.
El espacio muestral S se puede pensar como el conjunto
{ } b a b a b a S = = = ; 10 ,... 2 , 1 ; 10 ,... 2 , 1 ); , ( y 9 10 # = S .
Es claro que
10
3
9 10
9 3
) ( =

= A P . Pero si queremos calcular ) (B P no es tan directo. Podemos calcular


la probabilidad de B sabiendo que A ocurri: es igual a
9
2
, ya que si A ocurri, entonces en la urna
quedaron 9 bolillas de las cuales 2 son blancas. La probabilidad anterior la anotamos ) / ( A B P y se lee:
probabilidad condicional de B dado A. Es decir
9
2
) / ( = A B P .
Notar que podemos interpretar lo anterior de la siguiente forma: el espacio muestral original S se ha
reducido al evento A, es decir se toma a A como nuevo espacio muestral para calcular la probabili-
dad de B.
Tambin podemos interpretar que la probabilidad condicional de B dado A debera ser la proporcin de
veces que ocurre B A con respecto al nmero de veces que ocurre A. Pensando en trminos de
frecuencia relativa:
A
B A
n
n
A B P

) / ( .
Esta idea motiva la siguiente definicin:
Sean A y B dos eventos de un espacio muestral S. La probabilidad condicional de B dado A se define
como
0 ) ( si
) (
) (
) / (

= A P
A P
B A P
A B P
Anlogamente
0 ) ( si
) (
) (
) / (

= B P
B P
B A P
B A P

En algunos casos se puede calcular ) / ( A B P directamente reduciendo el espacio muestral. En otros
ser necesario aplicar la definicin anterior.
Observacin: si A y B son eventos de un espacio muestral S equiprobable, entonces

( )

#
#

) (
) (
) / (
A
B A
A P
B A P
A B P

=

=

Ejemplos:
1- En el experimento de extraer dos bolillas
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
16

9
2

10
3
9 10
2 3

) (
) (
) / ( =

=
A P
B A P
A B P

2- Se tira un dado normal dos veces. Sean los eventos A: la suma de los nmeros obtenidos es 6
y B: el primer nmero es igual a 4 Tenemos que ( ) ( ) ( ) ( ) ( ) { } 1 , 5 ; 2 , 4 ; 3 , 3 ; 4 , 2 ; 5 , 1 = A y
( ) ( ) ( ) ( ) ( ) ( ) { } 6 , 4 ; 5 , 4 ; 4 , 4 ; 3 , 4 ; 2 , 4 ; 1 , 4 = B Entonces para calcular ) / ( B A P mediante la definicin
de probabilidad condicional

6
1
36
6
36
1
) (
) (
) / ( = =

=
B P
B A P
B A P
Tambin podemos calcularlo en forma directa, reduciendo el espacio muestral, de todos los
pares del evento B, observamos cules cumplen con lo requerido por A, es decir de todos los
pares de B, solo uno tiene la propiedad de que sus componentes suman 6, por lo tanto


6
1
) / ( = B A P

3- Se lanza una moneda normal tres veces.
Hallar la probabilidad de que salgan todas caras si sale alguna cara.
El espacio muestral reducido es el evento A: sale alguna cara
Tenemos que ( ) ( ) ( ) ( ) { } s c s c s s s s c c c s c s c s c c c c c A , , ; , , ; , , ); , , ( ); , , ( ); , , ( ; , , =
Y ( ) { } c c c B , , =
Por lo tanto
7
1
) / ( = A B P

4- En cierta ciudad, 40% de la poblacin tiene cabellos castaos, 25% tiene ojos castaos y 15%
tiene cabellos y ojos castaos. Se escoge una persona al azar
a) si tiene cabellos castaos, cul es la probabilidad de que tambin tenga ojos castaos?
b) Si tiene ojos castaos, cul es la probabilidad de que no tenga cabellos castaos?
c) Cul es la probabilidad de que no tenga ni cabellos ni ojos castaos?

Sean los eventos A: la persona elegida al azar tiene ojos castaos, B: la persona elegida al
azar tiene cabellos castaos
Entonces 25 . 0 ) ( = A P , 40 . 0 ) ( = B P y 15 . 0 ) ( = B A P
a) Se pide calcular ) / ( B A P :

40 . 0
15 . 0
) (
) (
) / ( =

=
B P
B A P
B A P
b)
25 . 0
15 . 0
) (
) (
) / ( =

=
A P
B A P
A B P
c) 15 . 0 1 ) ( 1 ) ) (( ) ( = = = B A P B A P B A P
C C C


5- Sean los eventos A y B con 5 . 0 ) ( = A P ,
3
1
) ( = B P y
4
1
) ( = B A P .
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
17
Hallar: a) ) / ( B A P , b) ) / ( A B P , c) ) ( B A P , d) ) / (
C C
B A P , e) ) / (
C C
A B P
a)
4
3
3
1
4
1
) (
) (
) / ( = =

=
B P
B A P
B A P b)
2
1
2
1
4
1
) (
) (
) / ( = =

=
A P
B A P
A B P
c)
12
7
4
1
3
1
2
1
) ( ) ( ) ( ) ( = + = + = B A P B P A P B A P
d)
) (
) (
) / (
C
C C
C C
B P
B A P
B A P

=
Calculamos:
3
2
3
1
1 ) ( 1 ) ( = = = B P B P
C
;


12
5
12
7
1 ) ( 1 ) ) (( ) ( = = = = B A P B A P B A P
C C C


Por la ley de De Morgan
Entonces
8
5
24
15
3
2
12
5
) (
) (
) / ( = = =

=
C
C C
C C
B P
B A P
B A P
e)
6
5
2
1
1
12
5
) ( 1
) (
) (
) (
) / ( =

=
A P
B A P
A P
B A P
A B P
C C
C
C C
C C


Observaciones:
a) Si B A entonces 1
) (
) (
) (
) (
) / ( = =

=
A P
A P
A P
B A P
A B P
b) Si = B A entonces 0
) (
) (
) (
) (
) / ( =

=
A P
P
A P
B A P
A B P
c) Es fcil comprobar que ) (/ ( A B P para A fijo, satisface los axiomas de la probabilidad, esto es:
1- 1 ) / ( 0 A B P
2- 1 ) / ( = A S P
3-Si B
1
y B
2
son eventos mutuamente excluyentes entonces
( ) ) / ( ) / ( / ) (
2 1 2 1
A B P A B P A B B P + =
4-Si ,... , ,..., ,
1 2 1 + n n
B B B B es una secuencia de eventos tales que j i B B
j i
= si enton-
ces

=
=

1 1
) / ( /
i
i
i
i
A B P A B P
U




Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
18
Teorema de la multiplicacin
Si A y B son dos eventos entonces 0 ) ( si
) (
) (
) / (

= A P
A P
B A P
A B P
Por lo tanto
) / ( ) ( P(A) A B P B A P = (6)

Anlogamente de 0 ) ( si
) (
) (
) / (

= B P
B P
B A P
B A P , se deduce
) / ( ) ( P(B) B A P B A P = (7)

(6) y (7) se conocen como teorema de la multiplicacin.
Consideremos otra vez el ejemplo de extraer dos bolillas al azar sin reemplazo de una urna que con-
tiene 3 bolillas blancas y 7 rojas. Si A: la primer bolilla extrada es blanca, y B: la segunda bolilla
extrada es blanca, entonces

9
2
10
3
) / ( ) ( ) ( = = A B P A P B A P

Si
3 2 1
, , A A A son tres eventos entonces
) / ( ) / ( ) ( ) (
2 1 3 1 2 1 3 2 1
A A A P A A P A P A A A P =
pues:

= = = = ) / ( ) ( ) / ( ) ( ) ( ) (
23 1 3 2 1 3 3 3 2 1
A A A P A A P B A P B P A B P A A A P


2 1
A A B = Teorema de la multiplicacin

) / ( ) / ( ) (
2 1 3 1 2 1
A A A P A A P A P =

Teorema de la multiplicacin
El teorema de la multiplicacin se puede generalizar a n eventos
n
A A A ,..., ,
2 1
:
) ..., / ( ).... / ( ) / ( ) ( ) ... (
1 2 1 2 1 3 1 2 1 2 1
=
n n
A A A A P A A A P A A P A P A A A P (8)

Ejemplos:
1- Una clase tiene 12 nios y 4 nias. Si se escogen tres estudiantes de la clase al azar, cul es la
probabilidad de que sean todos nios?

Solucin:
Anotamos A
i
: el i-simo estudiante elegido es un nio i = 1,2,3
Entonces la probabilidad pedida es

14
10
15
11
16
12
) / ( ) / ( ) ( ) (
2 1 3 1 2 1 3 2 1
= = A A A P A A P A P A A A P

Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
19
2- Los estudiantes de una clase se escogen al azar, uno tras otro, para presentar un examen.
a) Si la clase consta de 4 nios y 3 nias, cul es la probabilidad de que nios y nias queden al-
ternados?
b) Si la clase consta de 3 nios y 3 nias, cul es la probabilidad de que nios y nias queden al-
ternados?

Solucin:
a) Nuevamente anotamos A
i
: el i-simo estudiante elegido es un nio
Entonces la probabilidad pedida es, aplicando (8):

35
1
1
1
2
1
3
2
4
2
5
3
6
3
7
4
) (
7 6 5 4 3 2 1
= = A A A A A A A P
C C C

b) Hay dos caso mutuamente excluyentes: el primer estudiante es un nio, y el primero es una ni-
a.
Si el primero es un nio, entonces por (8) la probabilidad de que los estudiantes se alternen es

20
1
1
1
2
1
3
2
4
2
5
3
6
3
) (
6 5 4 3 2 1
= =
C C C
A A A A A A P

Si el primero es una nia, entonces por (8) la probabilidad de que los estudiantes se alternen es

20
1
1
1
2
1
3
2
4
2
5
3
6
3
) (
6 5 4 3 2 1
= = A A A A A A P
C C C

Entonces la probabilidad pedida es
10
1
20
1
20
1
= +
En el ejemplo inicial de extraer dos bolillas de una urna, todava queda por resolver cmo calcula-
mos la ) (B P , siendo A: la primer bolilla extrada es blanca, y B: la segunda bolilla extrada es
blanca
Podemos expresar al espacio muestral S como
C
A A S =
Adems A y A
C
son mutuamente excluyentes.
Por otro lado podemos escribir
( ) ( ) ( )
C C
A B A B A A B S B B = = = por la ley distributiva
Entonces
) ( ) / ( ) ( ) / ( ) ( ) ( ) (
C C C
A P A B P A P A B P A B P A B P B P + = + =

( ) ( ) =
C
A B A B teorema de la multiplicacin
Lo hecho en este ejemplo se generaliza en el siguiente teorema

2.2 - Teorema de la probabilidad total
Sean
n
A A A ,..., ,
2 1
eventos de un espacio muestral S que cumplen:
a) S A A A
n
= ...
2 1

b) j i A A
j i
= si
c) n i A P
i
,..., 2 , 1 0 ) ( = > Se dice que
n
A A A ,..., ,
2 1
forman una particin de S Entonces para
cualquier evento B de S
) ( ) / ( ... ) ( ) / ( ) ( ) / ( ) (
2 2 1 1 n n
A P A B P A P A B P A P A B P B P + + + =
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
20
Dem.) Podemos escribir
( ) ( ) ( ) ( )
n n
A B A B A B A A A B S B B = = = ... ...
2 1 2 1


Ley distributiva de la con respecto a la
Adems si j i A A
j i
= con , entonces
( ) ( ) j i A B A B
j i
= si (ver figura)
Por lo tanto
( ) ( ) ( ) = + + + =
n
A B P A B P A B P B P ... ) (
2 1


Teorema de la multiplicacin
) ( ) / ( ) ( ) / ( ) ( ) / (
2 2 1 1 n n
A P A B P A P A B P A P A B P + + + = K

Teorema de Bayes
Sean
n
A A A ,..., ,
2 1
eventos de un espacio muestral S que cumplen:
a) S A A A
n
= ...
2 1

b) j i A A
j i
= si
c) n i A P
i
,..., 2 , 1 0 ) ( = >
Entonces para cualquier evento B de S tal que 0 ) ( > B P

n k
A P A B P
A P A B P
B A P
n
i
i i
k k
k
, , 1
) ( ) / (
) ( ) / (
) / (
1
K = =

=


Dem.)

=
= =

=
n
i
i i
k k k k k
k
A P A B P
A P A B P
B P
A P A B P
B P
B A P
B A P
1
) ( ) / (
) ( ) / (
) (
) ( ) / (
) (
) (
) / (
def. de prob. Condicional teor, de la probabilidad total
teor. de multiplicacin

Ejemplos:
1- Tres mquinas A, B, y C producen respectivamente 60%, 30% y 10% del nmero total de artculos
de una fbrica. Los porcentajes de desperfectos de produccin de estas mquinas son respectiva-
mente 2%, 3% y 4%. Se selecciona un artculo al azar
a) Cul es la probabilidad de que sea defectuoso?
b) Si al seleccionar un artculo al azar resulta defectuoso, cul es la probabilidad de que el artculo
hubiera sido producido por la mquina C?
Solucin:
a) Sean los eventos
i
A B
j
A B
A
i
A
j
B
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
21
A: el artculo seleccionado fue producido por la mquina A
B: el artculo seleccionado fue producido por la mquina B
C: el artculo seleccionado fue producido por la mquina C
D: el artculo seleccionado es defectuoso
Los datos que tenemos son los siguientes
6 . 0 ) ( = A P 3 . 0 ) ( = B P 1 . 0 ) ( = C P 02 . 0 ) / ( = A D P 03 . 0 ) / ( = B D P 04 . 0 ) / ( = C D P
Se pide hallar la ) (D P .
Se aplica el teorema de la probabilidad total tomando como particin de S a los eventos A, B y
C.
Entonces
1 . 0 04 . 0 3 . 0 03 . 0 6 . 0 02 . 0 ) ( ) / ( ) ( ) / ( ) ( ) / ( ) ( + + = + + = C P C D P B P B D P A P A D P D P
b) Se pide hallar
) / ( D C P
. Aplicamos el teorema de Bayes


25
4
1 . 0 04 . 0 3 . 0 03 . 0 6 . 0 02 . 0
1 . 0 04 . 0
) (
) ( ) / (
) (
) (
) / ( =
+ +

= =

=
D P
C P C D P
D P
D C P
D C P

2- Se nos dan tres urnas como sigue:
Una urna 1 contiene 3 bolas rojas y 5 blancas.
Una urna 2 contiene 2 bolas rojas y 1 blanca.
Una urna 3 contiene 2 bolas rojas y 3 blancas
Se selecciona una urna al azar y se saca una bola de la urna. Si la bola es ro-
ja, cul es la probabilidad de que proceda de la urna 1?

Solucin:
Sean los eventos A
i
: se elige la urna i i = 1, 2, 3
Entonces 3 , 2 , 1 3 / 1 ) ( = = i A P
i

Adems podemos tomar a
3 2 1
, , A A A como una particin del espacio mues-
tral S.
Sea el evento " roja bolilla extraer :" B
Se pide calcular ) / (
1
B A P
Entonces

=
+ +
=

=
) ( ) / ( ) ( ) / ( ) ( ) / (
) ( ) / (
) (
) (
) / (
3 3 2 2 1 1
1 1 1
1
A P A B P A P A B P A P A B P
A P A B P
B P
B A P
B A P

def. de prob. condicional
Teorema de Bayes


173
45
360
173
8
1
3
1
5
2
3
1
3
2
3
1
8
3
3
1
8
3
= =
+ +

=





Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
22
2.3 - Independencia

Dados dos eventos A y B , puede ocurrir que ) / ( A B P y ) (B P sean diferentes, eso significa que
saber que A ocurri modifica la probabilidad de ocurrencia de B
En el ejemplo anterior
360
173
) (
8
3
) / (
1
= = B P A B P
Pero puede suceder que ) / ( A B P y ) (B P sean iguales, en ese caso A y B son eventos independien-
tes, saber que A ocurri no afecta la probabilidad de ocurrencia de B.
Entonces, dos eventos A y B son independientes si ) ( ) / ( B P A B P = , y son dependientes de otro
modo.
Notar que por el teorema de la multiplicacin ) ( ) / ( ) ( A P A B P B A P = si 0 ) ( > A P
Entonces
A y B son independientes ) ( ) ( ) ( ) / ( ) ( A P B P A P A B P B A P = =
Recprocamente
Si ) ( ) ( ) ( A P B P B A P = entonces
ntes independie son y ) (
) (
) ( ) (
) (
) (
) / ( B A B P
A P
A P B P
A P
B A P
A B P = =

=
si 0 ) ( > A P
Por lo tanto:
) ( ) ( ) ( si solo y si ntes independie son y B P A P B A P B A = (9)
Es decir podemos usar (9) como definicin de independencia de eventos.
Ejemplos:
1-Se tira un dado normal dos veces, sean los eventos
A: la suma de los nmeros obtenidos es igual a 7
B: el primer nmero obtenido es 4
Son A y B independientes?

Sabemos que el espacio muestral es el conjunto de 36 pares ordenados ) , ( b a donde tanto a como
b pueden tomar los valores 1, 2, 3, 4, 5, 6.
Adems ( ) ( ) ( ) ( ) ( ) ( ) { } 1 , 6 , 2 , 5 , 3 , 4 , 4 , 3 , 5 , 2 , 6 , 1 = A y ( ) ( ) ( ) ( ) ( ) ( ) { } 6 , 4 ; 5 , 4 ; 4 , 4 ; 3 , 4 ; 2 , 4 ; 1 , 4 = B
Entonces

6
1
36
6
) (
6
1
36
6
) (
36
1
) ( = = = = = B P A P B A P
Como
6
1
6
1
) ( ) (
36
1
) ( = = = B P A P B A P entonces A y B son independientes
Observacin: si A fuera el evento A: la suma de los nmeros obtenidos es igual a 6, entonces A
y B son dependientes
2-Se tiene una urna con 10 bolillas blancas y 5 rojas. Se extraen al azar dos bolillas con reemplazo
de la urna. Entonces los eventos
A: la primer bolilla es blanca
B: la segunda bolilla es roja
Son independientes
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
23


15
5
15 15
15 5
) (
15
10
15 15
15 10
) (
15 15
5 10
) ( =

= =

= B P A P B A P

Pero si la extraccin se hace sin reemplazo, entonces A y B son dependientes pues


15
10
) (
15
10

14
5
) ( ) / ( ) ( = = = A P A P A B P B A P

y
15
5

15
5

14
4

15
10

14
5
) ( ) / ( ) ( ) / ( ) ( = + = + =
C C
A P A B P A P A B P B P
por lo tanto ) ( ) ( ) ( A P B P B A P
Notar que la diferencia est en que
15
5
) (
14
5
) / ( = = B P A B P

Observacin: si en el ejemplo anterior la urna tiene 1000 bolillas blancas y 500 rojas, y se extraen
sin reemplazo dos bolillas al azar entonces
... 3333333 . 0
15
5
) ( y .. 0.3335557.
1499
500
) / ( = = = = B P A B P
O sea que ) ( y ) / ( B P A B P son casi iguales.
Por lo tanto podemos asumir que A y B son independientes, aunque la extraccin se haga sin reem-
plazo.
En la prctica, si N es el tamao de la poblacin y n el tamao de la muestra extrada sin reemplazo,
si 05 . 0 <
N
n
entonces podemos operar como si la extraccin se hubiera hecho con reemplazo.


(10)


Dem.) se debe probar que ) ( ) ( ) (
C C
B P A P B A P =
Para esto escribimos
( ) ( )
C
B A B A A =
Como B A y
C
B A son mutuamente
excluyentes entonces

+ = ) ( ) ( ) (
C
B A P B A P A P
= = = ) ( ) ( ) ( ) ( ) ( ) ( B P A P A P B A P A P B A P
C

A y B independientes
( ) ) ( ) ( ) ( 1 ) (
C
B P A P B P A P = =
Con lo que queda demostrada la propiedad.
Si dos eventos A y B son independientes entonces A y B
C
son independientes

C
B A
B A
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
24
Observacin: si A y B son eventos independientes, entonces A
C
y B
C
son independientes. Se llega a
este resultado aplicando (10) sobre A y B, y luego se aplica (10) nuevamente a A y B
C
.


Independencia de ms de dos eventos.
La nocin de independencia de eventos se puede ampliar a n eventos de la siguiente manera:
Sean
n
A A A , , ,
2 1
K eventos, se dice que son independientes si
n k A P A P A P A A A P
k k
i i i i i i
,..., 2 ) ( ) ( ) ( ) (
2 1 2 1
= = K K (11)
Observaciones:
1- si n = 2 entonces (11) se reduce a la definicin de dos eventos independientes.
2- si n = 3 entonces (11) significa que se deben cumplir las siguientes 4 condiciones:
a) ) ( ) ( ) (
2 1 2 1
A P A P A A P =
b) ) ( ) ( ) (
3 1 3 1
A P A P A A P =
c) ) ( ) ( ) (
3 2 3 2
A P A P A A P =
d) ) ( ) ( ) ( ) (
3 2 1 3 2 1
A P A P A P A A A P =
La condicin d) significa que un evento es independiente de la interseccin de los otros dos, por
ejemplo ) ( ) / (
1 3 2 1
A P A A A P =
Esto es porque en general por el teorema de la multiplicacin vale que
) / ( ) / ( ) ( ) (
2 1 3 1 2 1 3 2 1
A A A P A A P A P A A A P =
y por d)
) ( ) ( ) ( ) (
3 2 1 3 2 1
A P A P A P A A A P =
entonces

) ( ) / ( ) ( ) ( ) ( ) / ( ) / ( ) (
3 2 1 3 3 2 1 2 1 3 1 2 1
A P A A A P A P A P A P A A A P A A P A P = =


Ejemplos:
1- Las probabilidades de que tres hombres peguen en el blanco son, respectivamente,
3
1
y ,
4
1
,
6
1
.
Cada uno dispara una vez al blanco.
a) Cul es la probabilidad de que exactamente uno de ellos pegue en el blanco?
b) Si solamente uno pega en el blanco, cul es la probabilidad de que sea el primer hombre?

Solucin:
a) consideremos los eventos A
i
: el hombre i-simo pega en el blanco i = 1, 2, 3

6
1
) (
1
= A P
4
1
) (
2
= A P
3
1
) (
3
= A P
Sea el evento B: exactamente un hombre pega en el blanco
Entonces ( ) ( ) ( )
C C C C C C
A A A A A A A A A B
3 2 3 2 1 3 2 1
=
Por lo tanto ( ) ( ) ( )
C C C C C C
A A A P A A A P A A A P B P
3 2 3 2 1 3 2 1
) ( + + =
Y por independencia ( ) ( ) ( ) = + + =
C C C C C C
A P A P A P A P A P A P A P A P A P B P
3 2 1 3 2 1 3 2 1
)( ) ( ) )( ) ( ) ( ) ( ) ) (
Parte 1 Probabilidad condicional Prof. Mara B. Pintarelli
25

72
31
24
5
36
5
12
1
3
1
1
4
1
1
6
1
3
1
1
4
1
6
1
1
3
1
4
1
1
6
1
1 = + + =

=
a) Se pide calcular ) / (
1
B A P

31
6
72
31
3
1
1
4
1
1
6
1
) (
) (
) (
) (
) / (
3 2 1 1
1
=


=

=

=
B P
A A A P
B P
B A P
B A P
C C

2- Cierto tipo de proyectil da en el blanco con probabilidad 0.3, cuntos proyectiles debern ser
disparados para que haya al menos un 80% de probabilidad de pegar en el blanco?

Solucin:
Escribimos A
i
: el proyectil i-simo da en el blanco i = 1, 2, , n
Se quiere que

8 . 0 ) (
2 1
>
n
A A A P K

Asumiendo independencia esto es equivalente a

( ) ( ) = = = ) ( 1 1 ) (
2 1 2 1 2 1
C
n
C C C
n n
A A A P A A A P A A A P K K K
8 . 0 7 . 0 1 )) ( ) ( ) ( 1
2 1
> = =
n C
n
C C
A P A P A P K

Por lo tanto 5123 . 4
) 7 . 0 ln(
) 2 . 0 ln(
) 2 . 0 ln( ) 7 . 0 ln( 2 . 0 7 . 0 = > < < n n
n

Es decir se deben hacer por lo menos 5 disparos


Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
26
3 - VARIABLES ALEATORIAS

3.1- Generalidades
En muchas situaciones experimentales se quiere asignar un nmero real a cada uno de los elementos
del espacio muestral. Al describir el espacio muestral de un experimento un resultado individual no
tiene que ser necesariamente un nmero, por ejemplo, al tirar una moneda y tomar como espacio
muestral { } s c S , = , o al tirar un dado dos veces tomamos como espacio muestral a
{ } { } 6 , 5 , 4 , 3 , 2 , 1 6 , 5 , 4 , 3 , 2 , 1 = S , aqu S es un conjunto de pares ordenados.

Notacin: se anota a una variable aleatoria con letras maysculas X, Y, Z, W,
Entonces, si X es una variable aleatoria de S en R

R S X : tal que x s X = ) (
Con diagramas de Venn













Desde ahora en lugar de escribir variable aleatoria, escribiremos v.a.
Ejemplos:
1- Se tira una moneda tres veces
Sea X la v.a. X: nmero de caras obtenidas luego de los tres tiros
Si tomamos como espacio muestral
( ) ( ) ( ) ( ) ( ) { } s s s s c s c s s s s c c c s c s c s c c c c c S , , ; , , ; , , ; , , ); , , ( ); , , ( ); , , ( ; , , =
entonces

0 )) , , ((
1 )) , , (( )) , , (( )) , , ((
2 )) , , (( )) , , (( )) , , ((
3 )) , , ((
=
= = =
= = =
=
s s s X
c s s X s c s X s s c X
c s c X c c s X s c c X
c c c X

La imagen de esta funcin es el conjunto { } 3 , 2 , 1 , 0
Dada una v.a. X a su imagen se la anota
X
R y se la denomina rango o recorrido de X
Definicin: Sea un experimento aleatorio y S un espacio muestral asociado a l. Una variable
aleatoria es una funcin que asigna a cada elemento de S un nmero real.
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
27
En el ejemplo anterior { } 3 , 2 , 1 , 0 =
X
R
2- Se tira un dado tantas veces como sean necesarias hasta que sale el nmero 1 por primera
vez.
Podemos simbolizar el espacio muestral de la siguiente manera { } K , 0001 , 001 , 01 , 1 = S ,
por ejemplo 001 simboliza el resultado que en los dos primeros tiros no sali el nmero 1 y en el
tercer tiro sali el 1.
Sea Y la v.a.:
Y: nmero de tiros necesarios hasta que sale el 1 por primera vez
Entonces { } K , 4 , 3 , 2 , 1 =
Y
R , es decir el rango de Y es el conjunto de los nmeros naturales.

3- En el interior de un crculo de radio r y centro el origen de coordenadas, se elige un punto al azar.
Tomamos como espacio muestral a { }
2 2 2
), , ( r y x y x S + = . Aqu S es infinito no numerable
Definimos la v.a. Z: distancia del punto elegido al origen
Entonces { } r z z R
Z
= 0 ;

Las variables aleatorias se clasifican segn su rango.
Sea X es una v.a. con rango
X
R . Si
X
R es un conjunto finito o infinito numerable entonces se dice
que X es una v.a. discreta. Si
X
R es un conjunto infinito no numerable entonces X es una v.a. con-
tinua.

El rango
X
R es considerado un nuevo espacio muestral, y sus subconjuntos son eventos.
Por ejemplo:
En el ejemplo 1, los eventos unitarios o elementales son { } { } { } { } 3 ; 2 ; 1 ; 0 , pero los anotamos
{ } { } { } { } 3 ; 2 ; 1 ; 0 = = = = X X X X
Otros eventos son, por ejemplo:
{ } 1 X , es decir, sali a lo sumo una cara.
Notar que podemos escribir { } { } { } 1 0 1 = = = X X X , o sea escribimos al evento como unin de
eventos elementales
{ } 0 > X , es decir, salieron una o ms caras. Tenemos que { } { } 0 0 = = > X R X
X

En el ejemplo 2, { } 4 Y sera el evento al menos 4 tiros son necesarios para que salga por primera
vez el numero 1
{ } 6 4 Y sera el evento se necesitan entre 4 y 6 tiros para que salga el 1 por primera vez
Notar que { } { } { } { } 6 5 4 6 4 = = = = Y Y Y Y
En el ejemplo 3,
)
`

< < r Z r
3
2
3
1
sera el evento el punto elegido se encuentra a una distancia del
centro mayor que r
3
1
, pero menor que r
3
2


Volviendo al ejemplo 1, notar que { } 0 = = X B ocurre en
X
R si y solo si el evento ( ) { } s s s A , , = ocu-
rre en S. Se dice que A y B son eventos equivalentes.
De la misma forma los eventos
( ) { } c c c A , , = y { } 3 = = X B son equivalentes
( ) ( ) ( ) { } c c s c s c s c c A , , ; , , ; , , = y { } 2 = = X B son equivalentes
En general


siendo S A y
X
R B , A y B son equivalentes si { } B s X S s A = ) ( ;
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
28

Si X es una v.a. de S en R, y
X
R es el rango de X, para calcular la probabilidad de un evento B de
X
R
se busca el evento A en S equivalente a B y entonces ) ( ) ( A P B P =
Por ejemplo,
En el ejemplo 1, ( ) ( ) { } ( )
8
1
, , ) ( 0 ) ( = = = = = s s s P A P X P B P si la moneda es normal.
( ) ( ) ( ) ( ) ( ) { } ( ) 5 . 0
8
4
, , ; , , ; , , ; , , 1 ) ( = = = = c s s s c s s s c s s s P X P B P si la moneda es normal

Tambin podramos haber planteado
( ) ( ) ( ) 5 . 0
8
3
8
1
1 0 1 ) ( = + = = + = = = X P X P X P B P

En el ejemplo 3, si
)
`

= r Z r B
3
2
3
1
, entonces B es equivalente a
( )
)
`

+ = r y x r y x A
3
2
3
1
; ,
2 2
, por lo tanto
3
1
9
3
3
1
3
2

3
1
3
2
de area
de area
) ( ) (
2 2
2
2 2
= = |

\
|
|

\
|
=
|

\
|
|

\
|
= = =
r
r r
S
A
A P B P




Observacin: en este ejemplo si
)
`

= = r Z B
3
2
, entonces 0

0
de area
de area
) ( ) (
2
= = = =
r S
A
A P B P



3.2 - Variables aleatorias discretas
Sea X una v.a. discreta. Anotamos su rango como { }
n X
x x x R , , ,
2 1
K = si el rango es un conjunto finito
de n elementos, y anotamos { } K K , ,
2 1
x x R
X
= si el rango es un conjunto infinito numerable.
A cada
i
x se le asigna un nmero ) ( ) (
i i
x X P x p = = . Estos nmeros deben satisfacer las condiciones
siguientes
a) i x p
i
todo para 0 ) (
b) 1 ) ( =

i
i
x p
La funcin ) (x p que antes se defini, se llama funcin de probabilidad o de frecuencia de la v.a. X.
El conjunto de pares ,... 2 , 1 )) ( , ( = i x p x
i i
es la distribucin de probabilidad de X.
Por ejemplo
1-Se tira una moneda normal tres veces, sea la v.a. X: nmero de caras obtenidas
Entonces { } 3 , 2 , 1 , 0 =
X
R
Para hallar la distribucin de probabilidad de X supongamos que la probabilidad de salir cara es
entonces
( ) { } ( )
8
1
, , ) 0 ( = = = s s s P X P
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
29
( ) ( ) ( ) { } ( )
8
3
, , ; , , ; , , ) 1 ( = = = c s s s c s s s c P X P
( ) ( ) ( ) { } ( )
8
3
, , ; , , ; , , ) 2 ( = = = c s c c c s s c c P X P
( ) { } ( )
8
1
, , ) 3 ( = = = c c c P X P
Se puede presentar la distribucin de probabilidad de X en una tabla de la siguiente forma
x 0 1 2 3
p(x) 1/8 3/8 3/8 1/8

Un grfico de la distribucin de probabilidad de X sera














2-Se tira un dado normal. Sea X: nmero que queda en la cara superior Entonces { } 6 , 5 , 4 , 3 , 2 , 1 =
X
R
La funcin de distribucin de X es





Observacin:
Sea X una v.a. discreta con rango finito { }
n X
x x x R , , ,
2 1
K = , donde cada
i
x es un nmero entero y
1 + i
x es el consecutivo de
i
x .
Si i
n
x X P
i
cada para
1
) ( = = entonces se dice que X tiene distribucin uniforme discreta.
Por ejemplo podra ser { } n n R
X
, 1 ,..., 3 , 2 , 1 = , en este caso X es uniforme discreta en el intervalo natu-
ral [ ] n , 1 .
La v.a. del ejemplo 2 anterior es uniforme discreta en el intervalo natural [ ] 6 , 1

Funcin de distribucin acumulada
Sea X una v.a. con rango
X
R . Se define la funcin de distribucin acumulada de X (abreviamos
F.d.a de X) como
< < = x x X P x F ) ( ) ( (12)
x 1 2 3 4 5 6
p(x) 1/6 1/6 1/6 1/6 1/6 1/6

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
30
En el caso de ser X una v.a. discreta

< < = =

x x p x X P x F
x
i
) ( ) ( ) (
x
i


Volviendo al ejemplo 1 anterior, la F.d.a. de X es

>
<
<
<
<
=

>
< + +
< +
<
<
=
3 si 1
3 2 si
8
7
2 1 si
2
1
1 0 si
8
1
0 si 0
) (
3 si 1
3 2 si
8
3
8
3
8
1

2 1 si
8
3
8
1
1 0 si
8
1
0 si 0
) (
x
x
x
x
x
x F
x
x
x
x
x
x F


La grfica de la F.d.a. de X es











Observacin: la F.d.a. de X es una funcin escalonada, los puntos de salto coinciden con los puntos
del rango de X, y la magnitud del salto en
i
x es igual a ) (
i
x X P =
En general si X es una v.a. discreta cualquiera, su F.d.a. ser una funcin escalonada.
Adems si
n
x x x ,..., ,
2 1
son los valores del rango de X ordenados de menor a mayor entonces


n i x F x F x X P
x F x X P
i i i
,..., 2 ) ( ) ( ) (
) ( ) (
1
1 1
= = =
= =



Es decir, se puede obtener la funcin de distribucin de X a partir de su F.d.a.










Para nmeros cualesquiera a y b

1- Si b a entonces ) ( ) ( ) ( a X P b X P b X a P < =

2- Si b a < entonces ) ( ) ( ) ( a X P b X P b X a P = <

3- Si b a < entonces ) ( ) ( b F a F (es decir F(x) es una funcin creciente)
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
31

Adems se cumple que

0 ) ( ) ( lim ) ( lim 2
1 ) ( ) ( lim ) ( lim 1
x x
x x
= = = = =
= = = = =




i i
i i
x
i
x x
i
x
i
x x
i
x X P x X P x F
x X P x X P x F


3.3 Esperanza de una variable aleatoria discreta


Ejemplos:
1- Sea la v.a. X: nmero que queda en la cara de arriba al tirar un dado normal
{ } 6 , 5 , 4 , 3 , 2 , 1 =
X
R
Entonces

=
= = =
6
1
) ( ) (
x
x X xP X E
= = + = + = + = + = + = = ) 6 ( 6 ) 5 ( 5 ) 4 ( 4 ) 3 ( 3 ) 2 ( 2 ) 1 ( 1 X P X P X P X P X P X P
5 . 3
2
7
6
1
6
6
1
5
6
1
4
6
1
3
6
1
2
6
1
1 = = + + + + + =

2- Se tira una moneda normal tres veces, sea la v.a. X: nmero de caras obtenidas
Entonces { } 3 , 2 , 1 , 0 =
X
R
Calculamos la esperanza de X
5 . 1
2
3
8
1
3
8
3
2
8
3
1
8
1
0 ) ( ) (
3
0
= = + + + = = =

= x
x X xP X E

Observaciones:
1- La esperanza de una v.a. no tiene que coincidir necesariamente con algn valor del rango de la va-
riable
2- En el ejemplo 1 donde el rango es finito y equiprobable, la esperanza de X coincide con el prome-
dio de los valores del rango de X
3- Se puede interpretar a la esperanza de una v.a. como un promedio pesado o ponderado de los
valores del rango de la variable, donde el peso de cada
i
x es la probabilidad ) (
i
x X P =
4- Otra interpretacin que se puede hacer de la esperanza es la siguiente: consideremos el ejemplo1,
supongamos que tiramos el dado muchas veces, N veces, y entonces obtenemos una secuencia de N
valores
N
x x x ,....., ,
2 1
donde cada
i
x es un nmero natural del 1 al 6. Supongamos adems que hace-
mos un promedio de esos N valores, y si llamamos
i
n al nmero de veces que sale el nmero i te-
nemos que

Sea X una v.a. discreta con rango
X
R . La esperanza , valor medio o valor esperado de X , lo ano-
tamos ) ( X E , y se define como

= =
X i
R x
i i
x X P x X E ) ( ) (
La sumatoria se hace sobre todos los posibles valores de X
Otra notacin usual es
X
o
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
32
=
+ + +
=
+ + +
N
n n n
N
x x x
N
6 ... 2 1 ....
6 2 1 2 1

) ( ) 6 ( 6 ... ) 2 ( 2 ) 1 ( 1 6 ... 2 1
6 2 1
X E X P X P X P
N
n
N
n
N
n
= = + + = + = + + + =

Es decir si promediamos los N valores medidos de X, ese promedio tiende a E(X) cuando N ,
pues ) ( i X P
N
n
i
= cuando N es grande.

Esperanza de una funcin

A veces importa hallar la esperanza de una funcin de X y no de X misma. Veamos un ejemplo.
Un instructor de escritura tcnica ha solicitado que cierto reporte sea entregado a la semana siguiente,
agregando la restriccin de que cualquier reporte que sobrepase las cuatro pginas ser rechazado.
Sea X: nmero de pginas del reporte de cierto estudiante seleccionado al azar
Supongamos que X tenga la siguiente distribucin de probabilidad

x 1 2 3 4
p(x) 0.01 0.19 0.35 0.45

Suponga que el instructor tarda X minutos calificando un trabajo que consiste en X pginas. Clara-
mente X es otra variable aleatoria. Cul ser su esperanza?, es decir a qu es igual ( ) X E ?
Para calcular la esperanza de una v.a. se necesita conocer su funcin de distribucin de probabilidad,
por lo tanto habra que hallar previamente la distribucin de probabilidad de la v.a. X Y = .
Est claro que si el rango de X es { } 4 , 3 , 2 , 1 =
X
R entonces el rango de Y ser { } 4 , 3 , 2 , 1 =
Y
R .
Adems
01 . 0 ) 1 ( ) 1 ( = = = = X P Y P
19 . 0 ) 2 ( ) 2 ( = = = = X P Y P
35 . 0 ) 3 ( ) 3 ( = = = = X P Y P
45 . 0 ) 4 ( ) 4 ( = = = = X P Y P
Por lo tanto
( ) = = + = + = + = = ) 4 ( 4 ) 3 ( 3 ) 2 ( 2 ) 1 ( 1 Y P Y P Y P Y P Y E
78491 . 1 ) 4 ( 4 ) 3 ( 3 ) 2 ( 2 ) 1 ( 1 = = + = + = + = = X P X P X P X P
O sea
) ( ) ( x X P x Y E
x
= =


Lo visto en este ejemplo se puede generalizar en el siguiente

Ejemplo:
Un negocio de computadoras ha comprado tres computadoras de cierto tipo a $500 cada una y las ven-
Teorema: Si X es una v.a. discreta con rango
X
R y distribucin de probabilidad p(x), entonces la
esperanza de cualquier funcin h(X) es igual a

=
x
x p x h X h E ) ( ) ( )) ( (
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
33
der a $1000 cada una. El fabricante ha aceptado volver a comprar en $200 cualquier computadora que
no se haya vendido en un tiempo especificado.
Sea X: nmero de computadoras vendidas , y supongamos que la distribucin de probabilidad de X
es

x 0 1 2 3
p(x) 0.1 0.2 0.3 0.4

Si consideramos la v.a. Y: utilidad obtenida, entonces Y es una funcin de X, es decir ) (X h Y =
Especficamente
900 800 1500 ) 3 ( 200 1000 = + = X X X Y
La utilidad esperada, es decir la ) (Y E ser
( )

=
= = =
3
0
) ( 900 800 ) (
x
x X P x Y E
( ) ( ) ( ) ( ) = = + = + = = = ) 3 ( 900 3 800 ) 2 ( 900 2 800 ) 1 ( 900 1 800 ) 0 ( 900 0 800 X P X P X P X P

700 $ 4 . 0 1500 3 . 0 700 2 . 0 ) 100 ( 1 . 0 ) 900 ( = + + + =

Notar que aplicando propiedades de la notacin se puede plantear

( )

= = =
= = = = = =
3
0
3
0
3
0
900 ) ( 800 ) ( 900 ) ( 800 ) ( 900 800 ) (
x x x
X E x X P x X xP x X P x Y E
y calculando la esperanza de X , se llega al mismo resultado

Propiedades de la esperanza

En el ejemplo anterior tenemos que Y es una funcin lineal de X , es decir b aX Y + = con a y b n-
meros reales.
En este caso vale entonces la siguiente propiedad

b X aE b aX E + = + ) ( ) (

La demostracin sigue los mismos pasos que en el ejemplo anterior

( ) b X aE x X xP b x X xP a x X P b ax b aX E
x x x
+ = = + = = = + = +

) ( ) ( ) ( ) ( ) (


) ( X E = 1 =

Ejemplo:
En el ejemplo anterior donde 900 800 = X Y
Directamente calculamos
900 ) ( 800 ) ( = X E Y E
Y
2 4 . 0 3 3 . 0 2 2 . 0 1 1 . 0 0 ) ( = + + + = X E
En consecuencia
700 900 2 800 900 ) ( 800 ) ( = = = X E Y E

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
34
Observaciones:
1- Para cualquier constante a, ) ( ) ( X aE aX E =
2- Para cualquier constante b, b X E b X E + = + ) ( ) (


Varianza de una variable aleatoria

La esperanza de una v.a. mide dnde est centrada la distribucin de probabilidad. Pero supongamos
el siguiente ejemplo
Sean X e Y dos variables aleatorias con distribuciones dadas por




Es fcil verificar que 0 ) ( ) ( = = Y E X E , pero los valores que toma la v.a. Y estn ms alejados de su
esperanza que los valores de X.








Se busca una medida que refleje este hecho, se define entonces la varianza de una v.a.


Observaciones:
1- La varianza de una v.a. nunca es negativa
2- La cantidad ( )
2
) ( = X X h es el cuadrado de la desviacin de X desde su media, y la varianza de
X es la esperanza de la desviacin al cuadrado. Si la mayor parte de la distribucin de probabilidad
est cerca de , entonces
2
ser relativamente pequea. Si hay valores de la variable alejados de
que tengan alta probabilidad, entonces
2
ser grande.
3-
2
est expresado en las unidades de medida de X al cuadrado, mientras que est expresada en
las mismas unidades de medida que X.

Ejemplo:
En el caso de las variables aleatorias X e Y nombradas anteriormente,
( ) ( ) 1 5 . 0 0 1 5 . 0 0 1 ) (
2 2
= + = X V y 1 =
X

x -1 1
p(x) 0.5 0.5
y -100 100
p(y) 0.5 0.5

X
Y
Sea X una v.a. discreta con rango
X
R , funcin de distribucin de probabilidad p(x) y esperanza
= ) ( X E ,
Entonces la varianza de X, que anotamos
2 2
o ), (
X
X V es


( ) [ ] ( )

= =
X
R x
x p x X E X V ) ( ) (
2 2



La desviacin estndar de X es ) (X V
X
=
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
35
( ) ( )
2 2 2
100 5 . 0 0 100 5 . 0 0 100 ) ( = + = Y V y 100 =
Y


Otra forma de escribir la varianza de una v.a., que facilita los clculos es
( ) ( )


= + = + = =
X X X X X
R x R x R x R x R x
x p x xp x p x x p x x x p x X V ) ( ) ( 2 ) ( ) ( 2 ) ( ) (
2 2 2 2 2

2 2 2 2 2 2 2
) ( 2 ) ( ) ( 2 ) ( = + = + = X E X E X E X E
Por lo tanto


2 2
) ( ) ( = X E X V

Propiedades de la varianza

Las propiedades de la varianza de una v.a. son consecuencia de las propiedades de la esperanza de una
v.a.
Si X es una v.a. discreta con rango
X
R y distribucin de probabilidad p(x), entonces la varianza de
cualquier funcin h(X) es igual a

( )

=
X
R x
x p X h E x h X h V ) ( )) ( ( ) ( )) ( (
2


Si h(X) es una funcin lineal, entonces

) ( ) (
2
X V a b aX V = + y
X b aX
a b aX V = + =
+
) (

Observaciones:
1- ) ( ) (
2
X V a aX V =
2- ) ( ) ( X V b X V = +

Ejemplo:
En un ejemplo anterior donde X: nmero de computadoras vendidas y Y: utilidad obtenida, la
V(Y) sera ) ( 800 ) (
2
X V Y V =
Necesitamos calcular V(X)
2 2
) ( ) ( = X E X V

Sabemos ya que 2 ) ( = = X E

Calculamos 5 4 . 0 3 3 . 0 2 2 . 0 1 1 . 0 0 ) (
2 2 2 2 2
= + + + = X E

En consecuencia

( ) ( ) 800 2 5 800 ) ( 800 ) ( 800 ) (
2 2 2 2 2 2
= = = = X E X V Y V


Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
36
3.4- Variables aleatorias discretas importantes

Distribucin binomial
Sea un experimento aleatorio. Sea A un evento asociado a y anotamos p A P = ) ( .
Supongamos un experimento aleatorio
0
que cumple los siguientes requisitos:
1- se realizan n repeticiones independientes de , donde n se fija de antemano.
2- las repeticiones son idnticas, y en cada repeticin de observamos si ocurre A o no ocurre A
(cuando A ocurre se dice que se obtuvo un xito, caso contrario se obtuvo un fracaso)
3- la probabilidad de xito es constante de una repeticin a otra de , y es igual a p
Se dice entonces que
0
es un experimento binomial
Ejemplos:
1- Se tira una moneda 4 veces en forma sucesiva e independiente, y observamos en cada tiro si sale
cara o no sale cara.
Entonces este es un experimento binomial pues:
sera el experimento tirar una moneda
A sera el evento sale cara
se repite en forma sucesiva e independiente n = 4 veces
p A P = ) ( es la misma en cada tiro.
2- Se tiene una urna con 15 bolillas blancas y 5 verdes. Se extraen al azar con reemplazo tres bolillas
y se observa si la bolilla extrada es blanca.
Entonces este es un experimento binomial pues:
sera el experimento extraer al azar una bolilla de la urna
A sera el evento se extrae bolilla blanca
se repite en forma sucesiva e independiente n = 3 veces
4
3
20
15
) ( = = A P es la misma en cada extraccin.
3- Si en el ejemplo anterior se extraen las bolillas sin reemplazo entonces el experimento no es bino-
mial, pues falla la independencia:

Si anotamos " extraccin sima la en blanca bolilla extrae se :" i A
i
, entonces

20
15
) (
1
= A P ;
20
15
20
5
19
15
20
15
19
14
) ( ) / ( ) ( ) / ( ) (
1 1 2 1 1 2 2
= + = + =
C C
A P A A P A P A A P A P

Pero
19
14
) / (
20
15
) (
1 2 2
= = A A P A P por lo tanto las extracciones no son independientes
Observacin: si en la urna hubiese 1500 bolillas blancas y 500 verdes y se extraen dos bolillas al
azar sin reemplazo, entonces
74987 . 0
1999
1499
) / ( 75 . 0
20
15
) (
1 2 2
= = = = A A P A P
Por lo tanto en estas condiciones podemos asumir que el experimento es binomial


La variable aleatoria binomial y su distribucin
En la mayora de los experimentos binomiales, interesa el nmero total de xitos, ms que saber exac-
tamente cules repeticiones produjeron los xitos
Sea la v.a. X: nmero de xitos en las n repeticiones de
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
37
Entonces se dice que X es una v.a. binomial
Veamos cul es la distribucin de probabilidad de X, para esto primero tomamos un caso concreto: el
ejemplo 1 anterior en el que se tira una moneda 4 veces. Supongamos que la probabilidad de cara es
Aqu el rango de X sera { } 4 , 3 , 2 , 1 , 0 =
X
R
Para facilitar la notacin escribimos 4 , 3 , 2 , 1 tiro" simo el en cara sale :" = i i A
i

Por lo tanto
( )
4
4 3 2 1 4 3 2 1
4
1
4
1
4
1
4
1
4
1
) ( ) ( ) ( ) ( ) 0 ( |

\
|
= = = = =
C C C C C C C C
A P A P A P A P A A A A P X P
por independencia
Para calcular la ) 1 ( = X P pensamos que hay cuatro casos posibles en los que se puede obtener exac-
tamente una cara, que la cara salga en el 1 tiro, o en el 2 o en el 3 o en el 4 tiro. Notar que tenemos
cuatro casos y eso es igual a la cantidad de formas en que podemos elegir entre los 4 tiros uno de
ellos en el cual sale cara, es decir tenemos 4
! 3 ! 1
! 4
1
4
= =
|
|

\
|
casos diferentes.
( ) ( ) ( )
( )
4 3 2 1
4 3 2 1 4 3 2 1 4 3 2 1
) 1 (
A A A A P
A A A A P A A A A P A A A A P
X P
C C C
C C C C C C C C C
+
+ + + =
= =


Cada trmino es igual a
3
) 1 ( p p por lo tanto
3
) 1 ( 4 ) 1 ( p p X P = =
Anlogamente, para calcular ) 2 ( = X P tenemos 6
! 2 ! 2
! 4
2
4
= =
|
|

\
|
casos en los que salen exactamente
dos caras, por lo tanto

( ) ( )
2 2
4 3 2 1 4 3 2 1
) 1 (
2
4
) 2 ( p p A A A A P A A A A P X P
C C C C

|
|

\
|
= + + = = K K

Pensando de la misma forma los otros casos se llega a

) 1 (
3
4
) 3 (
3
p p X P
|
|

\
|
= = ;
4
) 4 ( p X P = =

En general con un argumento anlogo tenemos que { } n R
X
, , 2 , 1 , 0 K = y

n k p p
k
n
k X P
k n k
,..., 2 , 1 , 0 ) 1 ) ( =
|
|

\
|
= =



Notacin: indicamos que X es una v.a. binomial con parmetros n y p con el smbolo ) , ( ~ p n B X
Dado que los nmeros ) ( k X P = corresponden a la distribucin de una v.a., automticamente cumplen
que 1 ) (
0
= =

=
n
k
k X P
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
38
De todas formas se podra hacer una verificacin algebraica utilizando la frmula del binomio de
Newton
( ) ( ) 1 1 ) 1 ( ) (
0 0
= + =
|
|

\
|
= =

= =

n k n
n
k
k
n
k
p p p p
k
n
k X P

Ejemplos:
1- En el ejemplo anterior en el que se tira una moneda 4 veces, calcular la probabilidad de obtener:
a) exactamente una cara
b) al menos una cara
c) a lo sumo una cara

Solucin:
a) tenemos que la v.a. X: nmero de caras obtenido es ) 25 . 0 , 4 ( B
se pide 421875 . 0
4
3
4
1
4
4
1
1
4
1
1
4
) 1 (
3 3 1
= |

\
|
= |

\
|
|

\
|
|
|

\
|
= = X P
b) la probabilidad de obtener al menos una cara es

k k
k
k
X P X P X P X P X P

=
|

\
|
|

\
|
|
|

\
|
= = + = + = + = =

4
4
1
4
3
4
1
4
) 4 ( ) 3 ( ) 2 ( ) 1 ( ) 1 (
Pero ms fcil es hacer

578125 . 0 421875 . 0 1
4
3
1
4
1
1
4
1
0
4
1 ) 0 ( 1 ) 1 (
4 0 4 0
= = |

\
|
= |

\
|
|

\
|
|
|

\
|
= = =

X P X P
c) la probabilidad de obtener a lo sumo una cara es

84375 . 0
4
1
1
4
1
1
4
4
1
1
4
1
0
4
) 1 ( ) 0 ( ) 1 (
1 4 1 0 4 0
= |

\
|
|

\
|
|
|

\
|
+ |

\
|
|

\
|
|
|

\
|
= = + = =

X P X P X P


Observacin: si ) , ( ~ p n B X para calcular ) ( k X P en general se debe hacer
) ( ) 1 ( ) 0 ( ) ( ) (
0
k X P X P X P i X P k X P
k
i
= + + = + = = = =

=
K K
Notar que ) ( k X P es la F.d.a. de X evaluada en k, es decir ) ( ) ( k X P k F =
Existen tablas de la funcin de distribucin acumulada de la binomial para diferentes valores de n y p
Consultando estas tablas se puede obtener directamente el resultado del inciso c) buscando para n =4 y
p = 0.25
Adems consultando las tablas podemos evaluar ) ( k X P = haciendo

n k k F k F k X P ,..., 2 , 1 ) 1 ( ) ( ) ( = = =

2- Supongamos que el 20% de todos los ejemplares de un texto en particular fallan en una prueba de
resistencia a la encuadernacin. Se seleccionan 15 ejemplares al azar.
Sea la v.a. X: nmero de ejemplares que fallan en la prueba entre los 15 seleccionados
a) cul es la probabilidad de que a lo sumo 8 fallen en la prueba?
b) cul es la probabilidad de que exactamente 8 fallen en la prueba?
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
39
c) cul es la probabilidad de que al menos 8 fallen en la prueba?

Solucin:
a) Tenemos que ) 2 . 0 , 15 ( ~ B X
999 . 0 ) 8 ( ) ( ) 8 (
8
0
= = = =

=
F k X P X P
k

por tabla de la F.d.a.

b) 003 . 0 996 . 0 999 . 0 ) 7 ( ) 8 ( ) 8 ( = = = = F F X P

por tabla de la F.d.a.
c) 004 . 0 996 . 0 1 ) 7 ( 1 ) 7 ( 1 ) 8 ( = = = = F X P X P
por tabla de la F.d.a.

Observaciones:
1- Si ) , 1 ( ~ p B X entonces la v.a. X toma slo dos valores 0 y 1 con probabilidades p y 1-p es decir
podemos escribir

=
contrario caso 0
xito ocurre ejecutar al si 1
X
p A P X P
p A P X P
C
= = =
= = =
1 ) ( ) 0 (
) ( ) 1 (

En este caso se dice que X tiene distribucin de Bernoulli
En el caso de ser ) , ( ~ p n B X se dice que se tienen n ensayos de Bernoulli
2- A continuacin se muestra cmo vara la forma de la distribucin a medida que p aumenta mante-
niendo n fijo en 15. Se grafica la distribucin de frecuencia para p = 0.01; 0.2, 0.5, 0.7 y 0.995.
Observar que para p = 0.5 la distribucin de frecuencia es simtrica.

p = 0,01
n = 15
0 3 6 9 12 15
0
0,2
0,4
0,6
0,8
1


p = 0,2
n = 15
0 3 6 9 12 15
0
0,05
0,1
0,15
0,2
0,25
0,3

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
40

p = 0,5
n = 15
0 3 6 9 12 15
0
0,04
0,08
0,12
0,16
0,2


p = 0,7
n = 15
0 3 6 9 12 15
0
0,04
0,08
0,12
0,16
0,2
0,24


p = 0,995
n = 15
0 3 6 9 12 15
0
0,2
0,4
0,6
0,8
1


Esperanza y varianza





Dem.)
Aplicamos la definicin:
( ) ( ) ( )
( )
( )

=

=
|
|

\
|
= =
n
k
k n k
n
k
k n k
n
k
p p
! k n ! k
! n
k p p
k
n
k k kp X E
0 0 0
1 1

El primer trmino es cero, por lo tanto podemos comenzar la suma en k=1:

) 1 ( ) ( y ) ( entonces ), , ( ~ Sea p np X V np X E p n B X = =
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
41
( )
( )
( )
( ) ( )
( )

=

=
n
k
k n k
n
k
k n k
p p
! k n ! k
! n
p p
! k n ! k
! n
k X E
1 1
1
1
1
Ponemos todo en trminos de k-1:

( )
( )
( ) ( ) ( ) [ ]
( )
( )
( ) ( ) [ ] 1 1 1
0 1
1
1 1 1
1

=

=

k n k
n
k
p pp
! k n ! k
! n n
X E

Sacamos fuera de la suma n y p que no dependen del ndice k y hacemos el cambio de ndice:
( ) s k 1 :

( )
( )
( ) [ ]
( )
( ) [ ]
( )
( ) [ ] s n s
n
s
s n s
n
s
p p
s
n
np p p
! s n ! s
! n
np X E

|
|

\
|
=

=

1
1
0
1
1
0
1
1
1
1
1

Recordando el desarrollo del binomio de Newton

( )
[ ] s r
n
s
r r
b a
s
r
b a

|
|

\
|
= +
1
0
, tenemos (con r=n-1):

( ) ( ) [ ] [ ] np np p p np X E
n n
= = + =
1 1
1 1

Veamos el clculo de la varianza
( ) ( ) ( ) [ ]
2 2
X E X E X V = .
Luego:
( ) ( ) [ ]
2 2
np X E X V = . Nos queda calcular ( )
2
X E .

( ) ( ) ( )
( )
( )

=

=
|
|

\
|
= =
n
k
k n k
n
k
k n k
n
k
p p .
! k n ! k
! n
. k p p .
k
n
. k k p . k X E
0
2
0
2
0
2 2
1 1 .
Para calcular esta suma tratamos de llevarla a la forma del desarrollo de un binomio de Newton.
Como el primer trmino es cero comenzamos a sumar desde k=1. Adems simplificamos k en el
numerador con el factor k en k! del denominador:

( )
( ) ( )
( )
( )
( ) ( )
( )

=

=

=
n
k
k n k
n
k
k n k
p p .
! k n ! k
! n n
. k p p .
! k n ! k
! n
. k X E
1 1
2
1
1
1
1
1
.
Separamos en dos sumas:

( ) ( ) [ ]
( )
( ) ( )
( )
( )
( ) ( ) ( ) [ ]
( )
( )
( ) ( ) [ ]
( )
( )
( )
( ) ( ) ( ) [ ]
( )
( )
( ) ( ) [ ]
( )

=

=

+
+

+ =
2
0 2
2 2 2 2
1
0 1
1 1
1
2
1 .
! 2 2 ! 1
! 2
1
1 .
! 1 1 ! 1
! 1
1 .
! ! 1
! 1
. 1 1
n
k
k n k
n
k
k k n k
n
k
k n k
p p
k n k
n
p n n
p p
k n k
n
np
p p
k n k
n n
k X E

Esto es:

( ) ( )
( ) [ ]
( ) ( )
( ) [ ]


=

|
|

\
|
+
|
|

\
|
=
2
0
2 2
1
0
1 2
1
2
1 1
1
n
r
r n r
n
s
s n s
p p .
r
n
. k p n . n p p .
s
n
. k p . n X E

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
42
Las sumas corresponden al desarrollo de un binomio de Newton:

( ) ( ) [ ] ( ) ( ) [ ] [ ] ( ) [ ]
2 2 1 2 2 1 2
1 1 1 1 1 1

+ = + + + =
n n n n
p n n np p p p n n p p np X E , es decir

( ) ( )
2 2
1 p n n np X E + = . Entonces:

( ) ( ) [ ] ( ) [ ]
2 2 2 2 2
1 np np np p n n np np X E X V = + = = o sea:

( ) ( ) p np X V = 1

Distribucin geomtrica
Sea un experimento aleatorio. Sea A un evento asociado a y anotamos p A P = ) ( .
Supongamos un experimento aleatorio
0
que cumple los siguientes requisitos:
1- se realizan repeticiones independientes de , hasta que ocurre A por primera vez inclusive.
2- las repeticiones son idnticas, y en cada repeticin de observamos si ocurre A o no ocurre A
(cuando A ocurre se dice que se obtuvo un xito, caso contrario se obtuvo un fracaso)
3- la probabilidad de xito es constante de una repeticin a otra de , y es igual a p

Sea la v.a. X: nmero de repeticiones de hasta que ocurre A por primera vez inclusive
Veamos cul es la distribucin de probabilidad de X
El rango es el conjunto { } N R
X
= = ,.... 3 , 2 , 1
Adems si anotamos " de repeticin sima la en ocurre :" i A A
i
, entonces
( ) p p A P A P A P A P A A A A P k X P
k
k
C
k
C C
k
C
k
C C 1
1 2 1 1 2 1
1 ) ( ) ( ) )( ) ( ) ( ) (


= = = = K K

por independencia
En consecuencia

( ) ,..... 2 , 1 1 ) (
1
= = =

k p p k X P
k



Notacin: ) ( ~ p G X
Para verificar que 1 ) (
1
= =

=
n
k
k X P recordar que 1 si
1
1
0
<

=
a
a
a
k
k

1
) 1 ( 1
1
) 1 ( ) 1 ( ) (
1
1
1
1
1
=

= = = =


=

=
p
p p p p p k X P
k
k
n
k
k
n
k


Observaciones:
1- ( ) ( ) p p k X P p p k X P
k k
= + = = =

1 ) 1 ( y 1 ) (
1

Es decir ( ) ( ) ,..... 2 , 1 1 ) ( ) 1 ( 1 ) 1 (
1
= = = = + =

k p k X P p p p k X P
k

Podemos interpretar que para cada k, los ) ( k X P a
k
= = son los trminos de una sucesin geomtri-
ca con razn 1-p y primer trmino p a =
1


2- La F.d.a. sera
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
43

[ ]

=
= = =
x
k
k X P x X P x F
1
) ( ) ( ) (
donde [ ] x indica parte entera de x
Si x es un entero positivo entonces recordando que la suma de los n primeros trminos de una suce-
sin geomtrica con razn r y trmino general
1
=
k
k
pr a es
( )

=
n
k
n
k
r
r a
a
1
1
1
1
tenemos que


[ ] [ ]
( )
[ ]
( )
[ ] x
x x x
k
p
p
p p
r
r p
k X P x X P x F ) 1 ( 1
) 1 ( 1
) 1 ( 1
1
1
) ( ) ( ) (
1
=


=

= = = =

=


p r = 1

Por lo tanto

[ ]


=
contrario caso 0
1 si ) 1 ( 1
) (
x p
x F
x



3- Una variante en la definicin de distribucin geomtrica es definir la v.a. Y: nmero de fracasos
hasta el primer xito, en este caso { } ,.... 2 , 1 , 0 =
Y
R , es decir se incluye al cero.
La distribucin de probabilidad o frecuencia sera en este caso

( ) ,..... 2 , 1 , 0 1 ) ( = = = k p p k Y P
k


Notar que la relacin entre entre X e Y sera: 1 + = Y X .
Es decir si adoptamos esta ltima definicin no incluimos la repeticin del experimento en el cual
ocurre el primer xito.


Ejemplos:
1- La probabilidad de que una computadora que corre cierto sistema operativo se descomponga en
determinado da es de 0.1. Determinar la probabilidad de que la mquina se descomponga por pri-
mera vez en el duodcimo da, despus de la instalacin del sistema operativo

Solucin:
Definimos la v.a. X: nmero de das hasta que la computadora se descompone por primera vez
Entonces G(0.1) ~ X
Se pide calcular la ) 12 ( = X P
( ) 031381 . 0 1 . 0 9 . 0 1 ) 12 (
11 1 12
= = = =

p p X P

2- Una prueba de resistencia a la soldadura consiste en poner carga en uniones soldadas hasta que se
d una ruptura. Para cierto tipo de soldadura, 80% de las rupturas ocurre en la propia soldadura,
mientras que otro 20% se da en las vigas. Se prueba cierto nmero de soldaduras.
Sea la v.a. X: nmero de pruebas hasta que se produce la ruptura de la viga
Qu distribucin tiene X?. Cul es la probabilidad que en la tercera prueba se produzca la primera
ruptura de la viga?

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
44
Solucin:
Cada prueba es un ensayo de Bernoulli, con un xito definido como la ruptura de una viga. Por lo
tanto, la probabilidad de xito es 2 . 0 = p .
La v.a. X tiene una distribucin geomtrica con parmetro 2 . 0 = p es decir G(0.2) ~ X
Para calcular la probabilidad pedida hacemos ( ) 128 . 0 2 . 0 8 . 0 1 ) 3 (
2 1 3
= = = =

p p X P

Esperanza y varianza







Dem.) Llamamos q p = 1
Planteamos


=

=
= = = = =
1
1
1
1
1
1
1
) 1 ( ) 1 ( ) (
k
k
k
k
k
k
k
kq p p k p p kp k X kP


Notar que ( )
1
=
k k
kq q
dq
d
, por lo tanto como 1 si
1
1
0
<

=
a
a
a
k
k

( )
( ) p p
p
q
p
q
q
dq
d
p q
dq
d
p q
dq
d
p
k
k k
k
1
1
1
1
2 2
1 1
= =

=
|
|

\
|

= |

\
|
= =


=

=

p
X E
1
) ( =

Calculamos ahora la varianza

2 2
) ( ) ( = X E X V donde
p
X E
1
) ( = =
( ) ( )


=

=
+ = + = = = =
1 1
1 1
1
1
1
1 2
1
2 2
1 ) 1 ( 1 1 ) 1 ( ) ( ) (
k k
k k
k
k
k
k
k
kpq q k k p p p k k p p k k X P k X E

Pero

( ) ( ) ( ) =
|
|

\
|

= |

\
|
= = =


=

q
q
dq
d
pq q
dq
d
pq q
dq
d
pq q k k pq q k k p
k
k
k
k
k
k
k
k
1
1 1
2
2
1
2
2
1
2
2
1
2
1
1

( )
2 3
2
1
2
p
q
q
pq =

=

Y

=
1
1
1
k
k
p
kpq

Por lo tanto

( )
2 2 2 2 2 2
2
1 1 1 2 1 2 1 1 2 1
) ( ) (
p
p
p
p p
p
p q
p p p
q
p
X E X V

=
+
=
+
= + = =

1
) ( y
1
) ( entonces Sea
2
p
p
X V
p
X E X~G(p)

= =
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
45


Distribucin binomial negativa
La distribucin binomial negativa constituye una extensin de la distribucin geomtrica.
Sea r un entero positivo.
Sea un experimento aleatorio. Sea A un evento asociado a y anotamos p A P = ) ( .
Supongamos un experimento aleatorio
0
que cumple los siguientes requisitos:
1- se realizan repeticiones independientes de , hasta que ocurre A por r-sima vez inclusive.
2- las repeticiones son idnticas, y en cada repeticin de observamos si ocurre A o no ocurre A
(cuando A ocurre se dice que se obtuvo un xito, caso contrario se obtuvo un fracaso)
3- la probabilidad de xito es constante de una repeticin a otra de , y es igual a p

Sea la v.a. X: nmero de repeticiones de hasta que ocurre A por r-sima vez, incluyendo la r-sima
vez que ocurre A
Veamos cul es la distribucin de probabilidad de X
El rango es el conjunto { } ,.... 3 , 2 , 1 , + + + = r r r r R
X

Para obtener una expresin genrica de la ) ( k X P = , notar que si en el k-simo ensayo ocurre xito
por r-sima vez, entonces en los k-1 primeros ensayos ocurrieron r-1 xitos. Si anotamos B: en los
primeros k-1 ensayos ocurran r-1 xitos, entonces

( )
( ) ( )
( )
r k r r k r
p p
r
k
p p
r
k
B P

|
|

\
|

=
|
|

\
|

= 1
1
1
1
1
1
) (
1 1 1 1

Adems si anotamos " de repeticin sima la en ocurre :" r A A , entonces p A P = ) ( y A y B
son independientes, por lo tanto
( ) ( )
r k r r k r
p p
r
k
p p p
r
k
A P B P A B P k X P

|
|

\
|

=
|
|

\
|

= = = = 1
1
1
1
1
1
) ( ) ( ) ( ) (
1

En resumen

( ) ,..... 2 , 1 , 1
1
1
) ( + + =
|
|

\
|

= =

r r r k p p
r
k
k X P
r k r


Notacin: ) , ( ~ p r BN X
Para verificar que 1 ) (
0
= =

=
n
k
k X P se deriva r veces la igualdad
p
p
k
k
1
) 1 (
0
1
=

la que se deduce
de 1 ) 1 (
0
1
=

k
k
p p
Ejemplo:
En una prueba de fuerza de soldadura, 80% de las pruebas da como resultado ruptura de soldadura,
mientras que otro 20% da ruptura de la viga. Sea la v.a. X:nmero de pruebas hasta la tercera ruptura
de la viga inclusive. Cul es la distribucin de X?. Determinar la ) 8 ( = X P
Solucin:
Tenemos que ) 2 . 0 , 3 ( ~ BN X
Por lo tanto ( ) 05505 . 0 8 . 0 0.2
2
7
1
1 3
1 8
) 8 (
5 3 3 8 3
=
|
|

\
|
=
|
|

\
|

= =

p p X P
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
46
Observacin: la distribucin geomtrica puede verse como un caso particular de la distribucin bino-
mial negativa con 1 = r

Esperanza y varianza







Dem.) Se har mas adelante


Distribucin hipergeomtrica
Supongamos que tenemos una poblacin o conjunto de N objetos o individuos (es decir tenemos una
poblacin finita).
Clasificamos a los objetos de la poblacin en dos categoras. Hay M objetos de una categora y N-M de
la otra categora. Se suele decir que tenemos M xitos y N-M fracasos.
Se extraen al azar y sin reemplazo n objetos de dicha poblacin. Es decir se extrae una muestra de n
objetos de la poblacin, de manera tal que es igualmente probable que se seleccione cada subconjunto
de tamao n.
Consideramos la v.a. X: nmero de xitos en la muestra extrada
Se dice que X tiene una distribucin hipergeomtrica con parmetros n, M y N
Notacin: ) , ( ~ N M, n H X
Veamos cul es la distribucin de X
Primero notar que una expresin para la ) ( k X P = , usando combinatoria es
|
|

\
|
|
|

\
|

|
|

\
|
= =
n
N
k n
M N
k
M
k X P ) ( donde para que los nmeros combinatorios estn bien definidos debe
cumplirse M k 0 y M N k n 0 . Pero estas condiciones son equivalentes a
( ) ( ) M n k M N n , min , 0 max +
Por lo tanto la distribucin de probabilidad de X es

( ) ( ) M n k M N n
n
N
k n
M N
k
M
k X P , min , 0 max ) ( +
|
|

\
|
|
|

\
|

|
|

\
|
= =

Se verifica que 1 ) (
0
= =

=
n
k
k X P pues los nmeros ) ( k X P = corresponden a la distribucin de una
v.a.
( )

1
) ( y ) ( entonces ) , ( ~ Si
2
p
p r
X V
p
r
X E p r BN X

= =
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
47

Ejemplo:
1- De 50 edificios en un parque industrial, 12 no cumplen el cdigo elctrico. Si se seleccionan aleato-
riamente 10 edificios para inspeccionarlos, cul es la probabilidad de que exactamente tres de los
diez no cumplan el cdigo?

Solucin:
Sea la v.a. X: nmero de edificios seleccionados que violan el cdigo, entonces
) 0 5 12 , 10 ( ~ , H X . se pide calcular la ) 3 ( = X P
2703 . 0
10
50
3 10
12 50
3
12
) 3 ( =
|
|

\
|
|
|

\
|

|
|

\
|
= = X P

2- Un cargamento contiene 40 elementos. Se seleccionar de forma aleatoria y se probar 5 elementos.
Si dos o ms estn defectuosos, se regresar el cargamento.
a) si de hecho el cargamento contiene cinco elementos defectuosos, cul es la probabilidad de que
sean aceptados?
b) si de hecho el cargamento contiene diez elementos defectuosos, cul es la probabilidad de que
no sean aceptados?

Solucin:
a) Sea la v.a. X: nmero de elementos defectuosos en la muestra
En este caso ) 40 5 , 5 ( ~ , H X . Hay que calcular la ) 1 ( X P
) 1 ( ) 0 ( ) 1 ( = + = = X P X P X P

4933557 . 0
5
40
0 5
5 40
0
5
) 0 ( =
|
|

\
|
|
|

\
|

|
|

\
|
= = X P

3978675 . 0
5
40
1 5
5 40
1
5
) 1 ( =
|
|

\
|
|
|

\
|

|
|

\
|
= = X P

8912232 . 0 3978675 . 0 4933557 . 0 ) 2 ( = + = X P
b) Sea la v.a. X: nmero de elementos defectuosos en la muestra
En este caso ) 40 10 , 5 ( ~ , H X . Hay que calcular la ) 2 ( X P
) 1 ( ) 0 ( 1 ) 1 ( 1 ) 2 ( = = = = X P X P X P X P

2165718 . 0
5
40
0 5
10 40
0
10
) 0 ( =
|
|

\
|
|
|

\
|

|
|

\
|
= = X P

416484 . 0
5
40
1 5
10 40
1
10
) 1 ( =
|
|

\
|
|
|

\
|

|
|

\
|
= = X P

3669442 . 0 ) 2 ( = X P

Observacin:
En el ejemplo anterior si el cargamento hubiese tenido 400 elementos se podra haber considerado en
la parte a) a X con distribucin binomial con parmetros 5 = n y
400
5
= p
En general, si el tamao de la poblacin N y el nmero de xitos M crecen pero de manera tal que
p
N
M
y n es chico comparado con N, se puede verificar que
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
48
p
N
M
p p
k
n
n
N
k n
M N
k
M
k n k
N
=
|
|

\
|
=
|
|

\
|
|
|

\
|

|
|

\
|


donde ) 1 ( lim

Por lo tanto, para una fraccin fija de defectuosos p
N
M
= la funcin de probabilidad hipergeomtrica
converge a la funcin de probabilidad binomial cuando N se hace grande.

Esperanza y varianza






Dem.) La demostracin se har mas adelante.


Distribucin de Poisson
Una v.a. X con rango { } ,.... 2 , 1 , 0 =
X
R se dice tener distribucin de Poisson con parmetro , si para
algn 0 >

,..... 2 , 1 , 0
!
) ( = = =

k
k
e
k X P
k



Es fcil verificar que 1 ) (
0
= =

=
n
k
k X P usando el hecho que

e
k
k
k
=

=0
!

1
! !
) (
0 0 0
= = = = =

=



e e
k
e
k
e k X P
k
k
k
k n
k


En los siguientes grficos se ve como vara la forma de la distribucin con los valores de
Notar que para valores de pequeos la distribucin es asimtrica, a medida que aumenta, la
distribucin tiende a ser cada vez ms simtrica


lambda
0,2
p
r
o
b
a
b
i
l
i
d
a
d
0 0,5 1 1,5 2 2,5 3
0
0,2
0,4
0,6
0,8
1

|

\
|

\
|
= =
1
) ( y ) ( entonces ) , ( ~ Si
N
n N
N
M N
N
M
n X V
N
nM
X E N M, n H X
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
49

lambda
3
p
r
o
b
a
b
i
l
i
d
a
d
0 2 4 6 8 10 12
0
0,04
0,08
0,12
0,16
0,2
0,24




lambda
8
p
r
o
b
a
b
i
l
i
d
a
d
0 4 8 12 16 20 24
0
0,03
0,06
0,09
0,12
0,15


lambda
15
p
r
o
b
a
b
i
l
i
d
a
d
0 10 20 30 40
0
0,02
0,04
0,06
0,08
0,1
0,12


lambda
20
p
r
o
b
a
b
i
l
i
d
a
d
0 10 20 30 40 50
0
0,02
0,04
0,06
0,08
0,1


Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
50

lambda
35
p
r
o
b
a
b
i
l
i
d
a
d
0 20 40 60 80
0
0,02
0,04
0,06
0,08

Ejemplo:
Considere escribir en un disco de computadora y luego enviar el escrito por un certificador que cuenta
el nmero de pulsos faltantes. Suponga que este nmero X tiene una distribucin de Poisson con par-
metro igual a 0.2
a) Cul es la probabilidad de que un disco tenga exactamente un pulso faltante?
b) Cul es la probabilidad de que un disco tenga al menos dos pulsos faltantes?
c) Si dos discos se seleccionan independientemente, cul es la probabilidad de que ninguno contenga
algn pulso faltante?

Solucin:
a) Sea la v.a. X: nmero de pulsos faltantes en un disco
Entonces ) 2 . 0 ( ~ P X
Se pide 163746 . 0
! 1
2 . 0
) 1 (
1
2 . 0
= = =

e X P
b) Siendo X como en a) se pide calcular ) 2 ( X P
01752 . 0
! 1
2 . 0
! 0
2 . 0
1 ) 1 ( ) 0 ( 1 ) 1 ( 1 ) 2 (
1
2 . 0
0
2 . 0
= = = = = =

e e X P X P X P X P
c) Sea la v.a. Y: nmero de discos sin pulsos faltantes
Entonces ) , 2 ( ~ p B Y donde
2 . 0
) 0 (

= = = e X P p
Por lo tanto se pide calcular ) 2 ( = Y P
( ) 67032 . 0 ) 1 (
2
2
) 2 (
2
2 . 0 2 0 2
= = =
|
|

\
|
= =

e p p p Y P

Esperanza y varianza



Dem.)
( ) ( )




= = = =

= = = =

=

=

=

=

=

e e
k
e
k
e
k
e
k
e
k
e
k k X kP X E
k
k
k
k
k
k
k
k
k
k
k 0 0 1
1
1 0 0
! ! ! 1 ! 1 !
) ( ) (
2 2
) ( ) ( = X E X V donde = = ) (X E
( )
( )
( )


=

=

=

=

=
=

+ =

= = = = =
1 1 0
2
0
2
0
2 2
! 1
1 1
! 1 ! !
) ( ) (
k
k
k
k
k
k
k
k
k
k
e
k
k
e
k
k
e
k
k
e
k k X P k X E



= = ) ( y ) ( entonces ) ( ~ Si X V X E P X
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
51
( )
( ) ( ) ( ) ( )


=

=
+ +
=

=

=

=

= + =

=
0 0
1 2
2 1 1 1
! ! ! 1 ! 2 ! 1 ! 1
1
k k
k k
k k
k k
k k
k k
k
e
k
e
k
e
k
e
k
e
k
e
k




+ = + =

=

2
0 0
2
! !
k k
k k
k
e
k
e

Por lo tanto
= + =
2 2
) (X V

Aplicaciones de la distribucin de Poisson

La v.a. Poisson tiene un gran rango de aplicaciones, una de ellas es la aproximacin para una v.a. bi-
nomial con parmetros n y p cuando n es grande y p es pequeo de manera tal que np , especfi-
camente, sea ) , ( ~ p n B X y sea np = , entonces
k
n
k
k
k n k
k n k
n
n
k n
k n n n
n n k n k
n
p p
k n k
n
k X P
|

\
|

|

\
|

+
= |

\
|
|

\
|

= =


1
1
!
) 1 )....( 1 (
1
)! ( !
!
) 1 (
)! ( !
!
) (
Para n grande y p chico

\
|
e
n
n
1 ; 1
) 1 )....( 1 (

+
k
n
k n n n
; 1 1 |

\
|

k
n



Entonces, para n grande y p chico

!
) (
k
e k X P
k


=

Es decir cuando n es grande, p chico y np es moderado entonces la v.a. binomial con parmetros n
y p tiene una distribucin que se aproxima a la de una Poisson con parmetro np =
Ejemplo:
Supongamos que la probabilidad de que un artculo producido por cierta mquina sea defectuoso es
0.1. Hallar la probabilidad que una muestra de 10 artculos contenga a lo sumo un defectuoso.
Sea X: nmero de artculos defectuosos en la muestra
Podemos asumir que ) 1 . 0 , 10 ( ~ B X
La probabilidad exacta pedida es
( ) ( ) ( ) ( ) 7361 . 0 9 . 0 1 . 0
1
10
9 . 0 1 . 0
0
10
) 1 ( ) 0 ( ) 1 (
1 10 1 0 10 0
=
|
|

\
|
+
|
|

\
|
= = + = =

X P X P X P
La aproximacin de Poisson da
7358 . 0
! 1 ! 0
) 1 ( ) 0 ( ) 1 (
1 1
1
1
0
1
+ = + = + = =

e e e e X P X P X P



1 1 . 0 10 = = = np

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
52

Algunos autores sostienen que la aproximacin de Poisson funciona bien cuando n es grande, p es chi-
co y 7 < np (Mendenhall, Estadstica matemtica con aplicaciones), otros recomiendan usar la aproxi-
macin de Poisson a la binomial cuando 100 n y 01 . 0 p y 20 np (Devore, Probabilidad para
ingeniera y ciencias)
En la siguiente tabla se da un ejemplo de una aproximacin de Poisson a la funcin de distribucin de
la binomial. Se tabula la ) ( k X P = para algunos valores de k para las distribuciones binomial y Pois-
son con los parmetros que se indican


k X = BH10
5
,210
5
L X = BH510
3
,410
5
L PH2L



0 0.135281 0.135281 0.135335
1 0.270671 0.270671 0.270671
2 0.270725 0.270725 0.270671
3 0.180483 0.180483 0.180447
4 0.0902235 0.0902235 0.0902235
5 0.036075 0.036075 0.0360894
6 0.0120178 0.0120178 0.0120298
7 0.0034309 0.0034309 0.00343709
8 0.000856867 0.000856867 0.000859272
9 0.000190186 0.000190186 0.000190949
10 0.000037984 0.000037984 0.0000381899
11 6.8951310
6
6.8951310
6
6.9436110
6
12 1.1471210
6
1.1471210
6
1.1572710
6
13 1.7612710
7
1.7612710
7
1.7804110
7
14 2.5105610
8
2.5105610
8
2.5434510
8
15 3.3393710
9
3.3393710
9
3.3912610
9



Ejemplo:
En una prueba de tarjetas de circuitos, la probabilidad de que un diodo en particular falle es 0.01. Su-
ponga que una tarjeta contiene 200 diodos.
a) Cul es la probabilidad aproximada de que por lo menos 4 diodos fallen en una tarjeta seleccionada
al azar?
b) Si se embarcan cinco tarjetas a un cliente en particular, cul es la probabilidad de que por lo menos
cuatro de ellas funcionen bien? (Una tarjeta funciona bien solo si todos sus diodos funcionan bien)

Solucin:
a) Sea la v.a. X: nmero de diodos en una tarjeta que fallan
Entonces ) 01 . 0 , 200 ( ~ B X . Como n es grande y p chico aplicamos la aproximacin Poisson con
2 01 . 0 200 = = np
Se pide calcular la ) 4 ( X P
143 . 0 857 . 0 1 ) 3 ( 1 ) 4 ( = = X P X P

por tabla de la acumulada de la Poisson
b) Sea la v.a. Y: nmero de tarjetas entre 5 que funcionan bien
Tenemos que ) , 5 ( ~ p B Y donde
2
0
2
! 0
2
) 0 (

= = = e e X P p
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
53
Se pide calcular ) 4 ( Y P
( ) ( ) ( ) ( ) ( )
10 2 8
5 5
2
5
2
4 5
2
4
2
5 1 5 1
5
5
1
4
5
) 5 ( ) 4 ( ) 4 (


+ =
|
|

\
|
+
|
|

\
|
= = + = = e e e e e e e Y P Y P Y P

Proceso de Poisson
Una aplicacin importante de la distribucin de Poisson se presenta en relacin con el acontecimiento
de eventos de un tipo particular en el tiempo. Por ejemplo, un evento podra ser un individuo entrando
en un establecimiento en particular, o pulsos radiactivos registrados por un contador Geiger, o auto-
mviles pasando por un cruce determinado.
Supongamos que tenemos eventos que ocurren en ciertos puntos aleatorios de tiempo, y asumimos que
para alguna constante positiva las siguientes suposiciones se sostienen:

1- La probabilidad que exactamente 1 evento ocurra en un intervalo de longitud t es la misma para
todos los intervalos de longitud t y es igual a ) (t o t + (donde ) (t o simboliza una funcin ) (t f tal
que 0
) (
lim
0
=

t
t f
t
, por ejemplo
2
) ( t t f = es ) (t o , pero t t f = ) ( no lo es)
2- La probabilidad que 2 o mas eventos ocurran en un intervalo de longitud t es la misma para todos
los intervalos de longitud t y es igual a ) (t o .
3- Para cualesquiera enteros
n
k k k n ,...., , ,
2 1
y cualquier conjunto de n intervalos
n
I I I ,..., ,
2 1
que no se
superpongan, si definimos los eventos eventos" e exactament ocurren intervalo el en :"
i i i
k I E
n i ,..., 2 , 1 = , entonces los eventos
n
E E E ,..., ,
2 1
son independientes.

Las suposiciones 1 y 2 establecen que para pequeos valores de t, la probabilidad de que exactamente
un evento ocurra en un intervalo de longitud t es igual a t mas algo que es chico comparado con t,
mientras que la probabilidad de que 2 o mas eventos ocurran es pequeo comparado con t. la suposi-
cin 3 establece que lo que ocurra en un intervalo no tiene efecto (en la probabilidad) sobre lo que
ocurrir en otro intervalo que no se superponga.

Bajo las suposiciones 1, 2 y 3 se puede probar que la v.a.
" longitud de intervalo cualquier en ocurren que eventos de nmero :" t X , tiene distribucin Poisson
con parmetro t
Especficamente

( )
,... 2 , 1 , 0
!
) ( = = =

k
k
t
e k X P
k
t



La idea de la demostracin es la siguiente, partimos al intervalo [ ] t , 0 en n subintervalos que no se su-
perpongan cada uno de longitud
n
t









Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
54
Elegimos n suficientemente grande para que en cada subintervalo se tenga una ocurrencia exactamente
o ninguna ocurrencia.
Sea la v.a. Y: nmero de subintervalos en los que hay exactamente una ocurrencia, entonces pode-
mos asumir que ) , ( ~ p n B Y donde p es la probabilidad que en un subintervalo hay exactamente una
ocurrencia y si n es grande entonces la longitud del subintervalo
n
t
es chica con lo cual por suposicin
1 tenemos que
n
t
p .
Entonces, utilizando la aproximacin de Poisson a la binomial con parmetro t
n
t
n np = tenemos
( )
,... 2 , 1 , 0
!
) ( ) ( = = = =

k
k
t
e k Y P k X P
k
t


Observaciones:
1- Un proceso temporal de Poisson consiste en eventos que ocurren en el tiempo en forma aleatoria
que cumplen con las suposiciones 1, 2 y 3.
2- El parmetro es la tasa o rapidez del proceso.
3- Si en lugar de observar eventos en el tiempo, consideramos observar eventos de algn tipo que ocu-
rren en una regin de dos o tres dimensiones, por ejemplo, podramos seleccionar de un mapa una
regin R de un bosque, ir a esa regin y contar el nmero de rboles. Cada rbol representara un
evento que ocurre en un punto particular del espacio. Bajo las suposiciones 1, 2 y 3, se puede de-
mostrar que el nmero de eventos que ocurren en la regin R tiene una distribucin de Poisson con
parmetro a donde a es el rea de R ( se interpreta como la densidad del proceso). Se trata aho-
ra de un proceso espacial de Poisson.

Ejemplos:
1- Suponga que aviones pequeos llegan a cierto aeropuerto segn un proceso de Poisson, con tasa
8 = aviones por hora, de modo que el nmero de llegadas durante un perodo de t horas es una
v.a. Poisson con parmetro t 8 = .
a) Cul es la probabilidad de que exactamente 5 aviones pequeos lleguen durante un perodo de
una hora? Por lo menos 5?
b) Cul es la probabilidad de que por lo menos 20 aviones pequeos lleguen durante un perodo de
2 hs? De que a lo sumo 10 lleguen en ese perodo?

Solucin:
a) Sea la v.a. X: nmero de aviones pequeos que llegan a cierto aeropuerto en una hora
Entonces ) 8 ( ~ P X . Por lo tanto
0916 . 0
! 5
8
) 5 (
5
8
= = =

e X P
O tambin usando la tabla de distribucin acumulada para la Poisson

092 . 0 099 . 0 191 . 0 ) 4 ( ) 5 ( ) 5 ( = = = = X P X P X P

Y la probabilidad de que lleguen al menos 5 aviones ser

901 . 0 099 . 0 1 ) 4 ( 1 ) 5 ( = = = X P X P

b) Sea la v.a. X: nmero de aviones pequeos que llegan a cierto aeropuerto en 2 horas
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
55
Entonces ) 5 . 2 8 ( ~ P X es decir ahora 20 5 . 2 8 = = t
53 . 0 470 . 0 1 ) 19 ( 1 ) 20 ( = = = X P X P

por tabla de F.d.a.
Y por ltimo calculamos por tabla 010 . 0 ) 10 ( = X P

2- Se supone que el nmero de defectos en los rollos de tela de cierta industria textil es una v.a. Pois-
son con tasa 0.1 defectos por metro cuadrado..
a) Cul es la probabilidad de tener dos defectos en un metro cuadrado de tela?
b) Cul es la probabilidad de tener un defecto en 10 metros cuadrados de tela?
c) Cul es la probabilidad de que no halla defectos en 20 metros cuadrados de tela?
d) supongamos que el nmero de defectos est relacionado con la mquina que produce la tela, de-
bido a desperfectos de la mquina el nmero de defectos vara en ciertos tramos del rollo. Se
puede asumir que el nmero de defectos sigue una distribucin de Poisson?

Solucin:
a) Sea X: nmero de defectos en un metro cuadrado. Entonces ) 1 . 0 ( ~ P X pues
1 . 0 1 1 . 0 1 = = = a
004524 . 0
! 2
1 . 0
) 2 (
2
1 . 0
= = =

e X P
b) Si X: nmero de defectos en 10 metros cuadrados. Entonces ) 1 ( ~ P X pues
1 10 1 . 0 10 = = = a
3678794 . 0
! 1
1
) 1 (
1
1
= = =

e X P
c) X: nmero de defectos en 20 metros cuadrados. Entonces ) 2 ( ~ P X pues
2 20 1 . 0 20 = = = a
135 . 0
! 0
2
) 0 (
0
2
= = =

e X P
d) NO se puede asumir que el nmero de defectos sigue una distribucin de Poisson, ya que las su-
posiciones que debe satisfacer un proceso de Poisson no se cumpliran.
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
56
3.5 Variables aleatorias continuas
En la seccin anterior se consideraron variables aleatorias discretas, o sea variables aleatorias cuyo
rango es un conjunto finito o infinito numerable. Pero hay variables aleatorias cuyo rango son todos
los nmeros reales de un intervalo dado, (es decir es un conjunto infinito no numerable). Ejemplos
de variables continuas podran ser
X: tiempo que tarda en llegar un colectivo a una parada
Y: tiempo de vida de un fusible
Como ahora los valores de una v.a. continua no son contables no se puede hablar del i-simo valor
de la v.a. X y por lo tanto ) ( ) (
i i
x X P x p = = pierde su significado. Lo que se hace es sustituir la
funcin ) (x p definida slo para ,.... ,
2 1
x x , por una funcin ) (x f definida para todos los valores x
del rango de X. Por lo tanto se da la siguiente definicin de v.a. continua
Sea X una v.a.. Decimos que es continua si existe una funcin no negativa f , definida sobre todos
los reales ( ) , x , tal que para cualquier conjunto B de nmeros reales

=
B
dx x f B X P ) ( ) (

O sea que la probabilidad de que X tome valores en B se obtiene al integrar la funcin f sobre el con-
junto B.
A la funcin f la llamamos funcin densidad de probabilidad (f.d.p.).
Observaciones:
1- Como X debe tomar algn valor real, entonces debe cumplirse que


= < < = dx x f X P ) ( ) ( 1

2- Si B es el intervalo real [ ] { } b x a R x b a = ; , entonces

= =
b
a
dx x f b X a P B X P ) ( ) ( ) (

Notar que en este caso la probabilidad de que X
tome valores en el intervalo [ ] b a, es el rea bajo
f entre a y b

3- Si en la observacin anterior b a = entonces

0 ) ( ) ( = = =

a
a
dx x f a X P

Es decir la probabilidad que una v.a. continua tome algn valor fijado es cero. Por lo tanto, para
una v.a. continua

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
57

= < < = < = < =


b
a
dx x f b X a P b X a P b X a P b X a P ) ( ) ( ) ( ) ( ) (


Funcin de distribucin acumulada
Sea X una v.a. continua. Se define la funcin de distribucin acumulada de X (abreviamos F.d.a
de X) como

< < = x x X P x F ) ( ) (

Si X tiene f.d.p. f(x) entonces

< < = =


x dt t f x X P x F
x
) ( ) ( ) (
Adems
) ( ) ( ) ( ) ( ) ( ) ( a F b F dx x f dx x f dx x f b X a P
a b b
a
= = =





Observaciones:
1- Si X es una v.a. con f.d.p. f(x) y funcin de distribucin acumulada ) (x F entonces
) ( ) (
) (
x f dt t f
dx
d
dx
x dF
x
=
|
|

\
|
=


donde ) (x F sea derivable
Es decir, se puede obtener la funcin de densidad de X a partir de su F.d.a.
2- Como en el caso discreto vale



Y adems se cumple que


0 ) ( ) ( lim ) ( lim
1 ) ( ) ( lim ) ( lim
x
x








= = =
= = =
x
x
x
x
dt t f dt t f x F
dt t f dt t f x F



Ejemplos:
1- Supongamos que X es una v.a. continua con f.d.p. dada por
a) Cul es el valor de C?
b) Hallar ) 1 ( > X P
c) Hallar la F.d.a. de X
( )


=
contrario caso 0
2 0 si 2 4
) (
2
x x x C
x f
Si b a < entonces ) ( ) ( b F a F (es decir F(x) es una funcin creciente)
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
58
Solucin:
a) Por lo dicho en la observacin 1, se debe cumplir que


= dx x f ) ( 1 , por lo tanto
( ) ( )dx x x C dx dx x x C dx dx x f

= + + = =


2
0
2
2
0 2
0
2
2 4 0 2 4 0 ) ( 1

Entonces
( )
8
3

1
3
8
3
2
2
4 2 4
2
0
3 2 2
0
2
=
= =
|
|

\
|
=

C
C
x x
C dx x x C

Es til hacer un grfico de la densidad




b) Para calcular la probabilidad que X sea ma-
yor que 1, planteamos

( )
2
1
2 4
8
3
) 1 (
2
1
2
= =
= >

dx x x
X P



c) Para calcular la F.d.a. notar que
tenemos tres casos: 0 < x , 2 0 x y
2 > x , por lo tanto

( )

>

<
=

2 si 1
2 0 si 2 4
8
3
0 si 0
) (
x
0
2
x
x dt t t
x
x F es decir

>
|

\
|

<
=
2 si 1
2 0 si
3
1
4
3
0 si 0
) (
2
x
x
x
x
x
x F

El grfico de la F.d.a. es









Se podra haber calculado la ) 1 ( > X P a partir de la F.d.a. de la siguiente forma

0.5 1 1.5 2
0.1
0.2
0.3
0.4
0.5
0.6
0.7



Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
59

2
1
3
2
4
3
1
3
1
1 1
4
3
1 ) 1 ( 1 ) 1 ( 1 ) 1 (
2
= = |

\
|
= = = > F X P X P


2- El tiempo de vida en horas que una computadora funciona antes de descomponerse es una v.a.
continua con f.d.p. dada por
a) hallar la F.d.a. de X
b) Cul es la probabilidad que la computadora funcione
entre 50 y 150 horas antes de descomponerse?
c) Cul es la probabilidad que una computadora se des-
componga antes de registrar 100 horas de uso?
d) Cul es la probabilidad que exactamente 2 de 5 computadoras se descompongan antes de re-
gistrar 100 horas de uso?. Asumir que las computadoras trabajan en forma independiente.

Solucin:
a) Hacemos un grfico de la densidad y entonces observamos claramente que
hay dos casos a considerar para calcular
la F.d.a.: 0 x y 0 < x
Si 0 < x entonces
0 0 ) ( ) (
0
= = =


dx x X P x F
Y si 0 x tenemos

x
x
t
x
t
e
e
dt e dt x X P x F
01 . 0
0
01 . 0
0
01 . 0
0
1
01 . 0
01 . 0 0
01 . 0 0 ) ( ) (


=
|
|

\
|

+ =
= + = =




contrario caso 0
0 si 1
) (
01 . 0
x e
x F
x


La grfica de la F.d.a. es









Se pide calcular ) 150 50 ( X P , lo hacemos con la F.d.a.:

<

0 si 0
0 si 01 . 0
) (
01 . 0
x
x e
x f
x

100 200 300 400 500
0.002
0.004
0.006
0.008
0.01

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
60
3834 . 0 ) 50 ( ) 150 ( ) 150 50 (
150 01 . 0 50 01 . 0
= = =

e e F F X P














c) Hay que calcular ) 100 ( < X P
63212 . 0 1 1 ) 100 ( ) 100 (
1 100 01 . 0
= = = <

e e F X P

d) Podemos definir la v.a.
Y: nmero de computadores entre 5 que se descomponen antes de las 100 horas de uso
Entonces ,p) B( Y 5 ~ donde ) 100 ( < = X P p
Por lo tanto hay que calcular
( ) ( ) ( ) 198937 . 0 1
! 3 ! 2
! 5
1
2
5
) 2 (
3
1
2
1 3 2
=
|
|

\
|
= =

e e p p Y P


3.6 Esperanza de una variable aleatoria continua

Para una v.a. discreta la ) ( X E se defini como la suma de los ) (
i i
x p x . Si X es una v.a. continua con
f.d.p. f(x), se define ) ( X E sustituyendo la sumatoria por integracin y ) (
i
x p por f(x).








Ejemplo:
Para ciertas muestras de minerales la proporcin de impurezas por muestra, es una v.a. X con f.d.p.
dada por





Hallar la esperanza de X


f(x)
x
La esperanza de una v.a. continua X con f.d.p. f(x) se define como


= dx x xf X E ) ( ) (

< < +
=
contrario caso 0
1 0 si
2
3
) (
2
x x x
x f

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
61
Solucin:
Se plantea
24
17
3
1
4
1
2
3
3 4 2
3

2
3
) (
1
0
3 4 1
0
2
= |

\
|
+ =
|
|

\
|
+ = |

\
|
+ =

x x
dx x x x X E

A menudo se desea calcular la esperanza de una funcin de X, Y = h(X), esto se puede hacer hallan-
do previamente la densidad de Y y luego calcular E(Y) aplicando la definicin anterior.
Otra forma de calcular E(Y) sin hallar la densidad de Y est dada por el siguiente

Dem.) sin demostracin

Ejemplo: En el ejemplo anterior supongamos que el valor en dlares de cada muestra es
X X h Y 5 . 0 5 ) ( = = . Encontrar la esperanza de Y

Podemos hallar la esperanza de Y encontrando previamente su f.d.p.
Para esto se encuentra la F.d.a. de Y , para luego hallar la densidad de Y derivando la F.d.a
Anotamos ) ( y G y ) ( y g a la F.d.a de Y y a la densidad de Y respectivamente

|

\
|
= |

\
|
= |

\
|
= = =
5 . 0
5
1
5 . 0
5
1
5 . 0
5
) 5 . 0 5 ( ) ( ) (
y
F
y
X P
y
X P y X P y Y P y G
Donde ) ( ) ( x X P x F =

Entonces

<

< |

\
|
|
|

\
|

+ |

\
|
=
= |

\
|
|

\
|
= |

\
|
|

\
|
=
|
|

\
|
|

\
|
=
contrario caso 0
1
5 . 0
5
0 si
5 . 0
1
5 . 0
5
5 . 0
5
2
3
5 . 0
1
5 . 0
5
5 . 0
1
5 . 0
5
5 . 0
5
1 ) (
2
y y y
y
f
y
f
y
F
dy
d
y g


O sea

< < |

\
|
|
|

\
|

+ |

\
|
=
contrario caso 0
5
2
9
si
5 . 0
1
5 . 0
5
5 . 0
5
2
3
) (
2
y
y y
y g

Ahora calculamos la ) (Y E

46
223
5 . 0
1
5 . 0
5
5 . 0
5
2
3
) (
5
2
9
2
=
|
|

\
|

+ |

\
|
=

dy
y y
y Y E
Teorema: Si X es una v.a. continua con f.d.p. f(x) y h(X) es cualquier funcin de X, entonces


= dx x f x h X h E ) ( ) ( )) ( (
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
62

Aplicando el teorema anterior los clculos se reducen:
( )
46
223

2
3
5 . 0 5 )) ( ( ) (
2
1
0
) (
= |

\
|
+ = =

dx x x x X h E Y E
f(x)
x h 43 42 1
43 42 1

Notar que de la misma forma que en el caso discreto, si b ax x h + = ) ( , es decir si h es una funcin
lineal, aplicando las propiedades de linealidad de la integral tenemos

b X aE b aX E + = + ) ( ) (

En el ejemplo anterior se poda encontrar la esperanza de Y haciendo

46
223
24
17
5 . 0 5 ) ( 5 . 0 5 ) 5 . 0 5 ( )) ( ( ) ( = = = = = X E X E X h E Y E


Varianza de una variable aleatoria continua









La interpretacin de la varianza de una v.a. continua es la misma que para el caso discreto.
Adems sigue valiendo la igualdad

( )
2 2
) ( = X E X V

Pues en la demostracin hecha para el caso discreto si sustituyen las sumatorias por integrales.
Por la misma razn, tambin vale que


X b aX
a X V a b aX V = = +
+
y ) ( ) (
2


Ejemplo:
Calculamos la varianza de X Y 5 . 0 5 =

20
11
4
1
5
1
2
3
4 5 2
3

2
3
) (
24
17
) ( ) ( ) (
) ( 5 . 0 ) (
1
0
4 5 1
0
2 2 2
2
2 2 2
2
= |

\
|
+ =
|
|

\
|
+ = |

\
|
+ =
|

\
|
= =
=

x x
dx x x x X E
X E X E X V
X V Y V

11520
139

24
17
20
11
5 . 0 ) (
24
17
20
11
) (
2
2
2
=
|
|

\
|
|

\
|
= |

\
|
= Y V X V
Sea X una v.a. continua con f.d.p. f(x) y sea = ) ( X E , entonces la varianza de X es

( ) [ ] ( )


= = = dx x f x X E X V
X
) ( ) (
2 2 2

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
63
3.7 - Variables aleatorias continuas importantes

Distribucin uniforme
La distribucin continua ms sencilla es anloga a su contraparte discreta.
Una v.a. continua X se dice que tiene distribucin uniforme en el intervalo [ ] b a, , con a < b, si tiene
funcin de densidad de probabilidad dada por

=
contrario caso 0
si
1
) (
b x a
a b
x f

La figura muestra la grfica de la f.d.p.
Notacin: [ ] b a U X , ~
Es fcil verificar que f(x) es una f.d.p. pues
0 ) ( x f para todo x, y adems
1 ) (
1

1 1
) ( =


a b
a b
x
a b
dx
a b
dx x f
b
a
b
a

La F.d.a. para b x a sera
a b
a x
dt
a b
dt t f x X P x F
x
a
x

= = =


1
) ( ) ( ) (
Para a x < , tenemos que


= =
x
dt x X P 0 0 ) (
Y para b x > tenemos que


= +

+ =
a x
b
b
a
dt dt
a b
dt x X P 1 0
1
0 ) (
Por lo tanto la F.d.a. es

>

<
=
b x
b x a
a b
a x
a x
x F
si 1
si
si 0
) (

Y su grfica es












F(x)
x
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
64


Observacin:
Si [ ] b a U X , ~ y b d c a < , entonces
a b
c d
a b
a c
a b
a d
c F d F d X c P

= = ) ( ) ( ) (


Ejemplo:
Los colectivos de una determinada lnea llegan a una parada en particular en intervalos de 15 minutos
comenzando desde las 7 A.M. Esto es, ellos llegan a la parada a las 7, 7:15, 7:30, 7:45 y as siguiendo.
Si un pasajero llega a la parada en un tiempo que se puede considerar una v.a. distribuida uniforme-
mente entre 7 y 7:30, encontrar la probabilidad de que
a) el pasajero espere menos de 5 minutos al colectivo
b) el pasajero espere ms de 10 minutos al colectivo

Solucin:
Sea X: tiempo en minutos desde las 7 hs en que el pasajero llega a la parada
Entonces podemos considerar que [ ] 30 , 0 ~ U X
a) si el pasajero espera menos de 5 minutos al colectivo, entonces llega a la parada entre las 7:10 y
7:15 o entre las 7:25 y 7:30, entonces la probabilidad pedida es

3
1
) 30 25 ( ) 15 10 (
30
25
30
1
15
10
30
1
= + = +

dx dx X P X P
O tambin se puede plantear directamente


3
1
30
5 2
30
25 30
30
10 15
) 30 25 ( ) 15 10 ( =

= + X P X P
b) Anlogamente si debe esperar ms de 10 minutos, deber llegar entre las 7 y las 7:05 o entre las
7:15 y 7:20, por lo tanto la probabilidad pedida es

3
1
30
5 2
30
5
30
5
) 20 15 ( ) 5 0 ( =

= + = + X P X P

Esperanza y varianza






Dem.)

Recordamos que la f.d.p. de una v.a. [ ] b a U X , ~ es


f(x)
x
Sea una X variable aleatoria continua distribuida uniformemente en el intervalo [ ] b , a , es decir
[ ] b a U X , ~ . Entonces, ( )
2
b a
X E
+
= y
( )
12
) (
2
a b
X V

= .
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
65

=
contrario caso 0
si
1
) (
b x a
a b
x f

Entonces:

( ) ( )
( ) 2 2 2
1
2 2 2
a b
a b
a b x
a b
dx
a b
x
dx x f X E
b
a
b
a
+
=

= =




Notar que (a+b)/2 representa el punto medio del intervalo [ ] b , a (como es de esperar por el significado
de la distribucin y de la esperanza):
Calculamos ahora la varianza de X
Deseamos calcular ( ) ( ) ( ) [ ]
2 2
X E X E X V = , es decir

( ) ( )
2
2
2
|

\
| +
=
b a
X E X V . Debemos obtener ( )
2
X E :
( )
3 3
1
3
1 1
2 2 3 3 3
2 2
a a . b b
a b
a b x
.
a b
dx
a b
x X E
b
a
b
a
+ +
=

=
. Entonces:

( )
( )
12 2 3
2 2
2 2
a b b a a a . b b
X V

= |

\
| +

+ +
=

Distribucin normal o gaussiana

Sea X una v.a. Decimos que tiene distribucin normal con parmetros y si su f.d.p. es de la for-
ma

< < =
|

\
|

x e x f
x

2
2
1

2
1
) (


(13)

Donde R y 0 >
Notacin: ( )
2
, ~ N X
Para darse una idea de la forma de la grfica notar que:
1- ) (x f es simtrica alrededor de , es decir ) ( ) ( x f x f = + para todo x
2- 0 ) ( lim =

x f
x
(eje x asntota horizontal)
3- Si planteamos = = x x f
dx
d
0 ) ( . Se pude verificar que en = x la funcin tiene un mximo
absoluto,

2
1
) ( = f

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
66
4- Si planteamos = = x x f
dx
d
0 ) (
2
2
. Se puede verificar que en = x y en + = x
la funcin tiene dos puntos de inflexin, y adems en el intervalo ( ) + , la funcin es cn-
cava hacia abajo y fuera de ese intervalo es cncava hacia arriba

La grfica de ) (x f tiene forma de campana














Observacin:
Cuando vara la grfica de la funcin se traslada, es un parmetro de posicin.
Cuando aumenta, la grfica se achata, cuando disminuye la grfica se hace mas puntiaguda,
se dice que es un parmetro de escala.
En las siguientes figuras vemos cmo vara la grfica de f(x) con la variacin de los parmetros

1 0 = =

1 2 = =

- - - - - 1 3 = =









1 0 = =

2 0 = =

- - - - - 4 0 = =





2
1


+
-6 -4 -2 2 4 6
0.1
0.2
0.3
0.4

-6 -4 -2 2 4 6
0.1
0.2
0.3
0.4

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
67


Se puede probar que f(x) es una f.d.p. es decir que
a) 0 ) ( x f para todo x
b) 1 ) ( =


dx x f

Que a) es cierta es obvio; para probar b) es necesario recurrir al clculo en dos variables (no lo demos-
tramos).
Si 0 = y 1 = entonces se dice que X tiene distribucin normal estndar. Se anota ( ) 1 , 0 ~ N X
En este caso la f.d.p. se simboliza con ) (x , es decir

< < =

x e x
x

2
1
) (
2
2
1



En este caso la grfica de la densidad es simtrica con respecto al origen.
La F.d.a. de una v.a. normal estndar se anota ) (x

= =
x
t
dt e x X P x
2
2
1
2
1
) ( ) (



Esta integral no puede expresarse en trminos de funciones elementales, por lo tanto se calcula ) (x
Para valores especficos de x mediante una aproximacin numrica.
Esto ya est hecho, existen tablas de la funcin de distribucin acumulada de la normal estndar para
valores de x que oscilan en general entre -4 y 4, pues para valores de x menores que -4, 0 ) ( x , y
para valores de x mayores que 4, 1 ) ( x
Notar que como la ) (x es simtrica con respecto al origen entonces

) ( 1 ) ( 1 ) ( ) ( ) ( x x X P x X P x X P x = = > = =
















) ( x X P >
) ( x X P
-x x 0
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
68
Por ejemplo, si ( ) 1 , 0 ~ N X entonces utilizando la tabla de la F.d.a. de X
a) 89616 . 0 ) 26 . 1 ( ) 26 . 1 ( = = X P
b) 10384 . 0 89616 . 0 1 ) 26 . 1 ( 1 ) 26 . 1 ( 1 ) 26 . 1 ( = = = = > X P X P
c) 91465 . 0 ) 37 . 1 ( ) 37 . 1 ( ) 37 . 1 ( = = = > X P X P
d) = = < < = < < ) 25 . 1 ( ) 37 . 0 ( ) 25 . 1 ( ) 37 . 0 ( ) 37 . 0 25 . 1 ( X P X P X P
( ) 53866 . 0 ) 89435 . 0 1 ( 64431 . 0 ) 25 . 1 ( 1 ) 37 . 0 ( = = =
e) Para qu valor x se cumple que 95 . 0 ) ( = < < x X x P ?
Tenemos que 1 ) ( 2 )) ( 1 ( ) ( ) ( ) ( ) ( = = = < < x x x x x x X x P
Por lo tanto 975 . 0
2
1 90 . 0
) ( 95 . 0 1 ) ( 2 =
+
= = x x
Observamos en la tabla de la F.d.a. que 96 . 1 = x , pues 975 . 0 ) 96 . 1 ( =
Para los incisos a) , b) y c) se grafican las regiones correspondientes


















Una propiedad importante de la distribucin normal es que si ( )
2
, ~ N X entonces la v.a.
b aX Y + = con a y b nmeros reales, 0 a , tiene tambin distribucin normal pero con parmetros
b a + y
2 2
a , es decir

( ) ) , ~ , ~
2 2 2
a b N(a b aX N X + + (14)

Podemos demostrar lo anterior primero hallando la F.d.a. de Y
1.26
b)
1.26
a)

c)
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
69

|

\
|
= |

\
|
= + = =
a
b y
F
a
b y
X P y b aX P y Y P y G ) ( ) ( ) ( donde F es la F.d.a. de X

0 > a
Por lo tanto, la f.d.p. de Y la obtenemos derivando G(y)

2
2
1

2
1 1 1
) ( ) (
|
|
|
|

\
|

= |

\
|
= |

\
|
= =


a
b y
e
a a a
b y
f
a
b y
F
dy
d
y G
dy
d
y g donde
2
2
1

2
1
) (
|

\
|


x
e x f

Operando en el exponente se llega a

2
) (
2
1

2
1 1
) (
|

\
| +


a
b a y
e
a
y g

Si 0 < a entonces
|

\
|
= |

\
|
= + = =
a
b y
F
a
b y
X P y b aX P y Y P y G 1 ) ( ) ( ) (
Y derivando con respecto a y obtenemos

2
2
1

2
1 1 1
1 ) ( ) (
|
|
|
|

\
|

= |

\
|
=
|
|

\
|
|

\
|
= =


a
b y
e
a a a
b y
f
a
b y
F
dy
d
y G
dy
d
y g
O sea, para 0 a la f.d.p. de Y es
2
) (
2
1

2
1 1
) (
|

\
| +


a
b a y
e
a
y g
Y comparando con (13) se deduce que ) , ~
2 2
a b N(a b aX Y + + =

Una consecuencia importante del resultado (14) es que

) 1 , 0 ( ~ entonces ) , ( ~ si
2
N
X
Y N X



= (15)

Notar que Y se pude escribir como |

\
|
+ =

X Y
1
es decir claramente Y es una funcin lineal de X
Por lo tanto aplicamos el resultado (14) con

1
= a y

= b y llegamos a (15).

Si ( )
2
, ~ N X entonces la F.d.a. de X es

dt e x X P x F
t
x
2
2
1

2
1
) ( ) (
|

\
|

= =



F(x) no puede expresarse en trminos de funciones elementales y slo hay tablas de la F.d.a. de la
normal estndar.
Para calcular F(x) procedemos de la siguiente forma
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
70

|

\
|
= |

\
|
= |

\
|

= =

x x
Y P
x X
P x X P x F ) ( ) (
( ) 1 , 0 ~ N Y
Ejemplos:
1- Si ( ) 9 , 3 ~ N X entonces
a) 3779 . 0
3
1
3
2
3
3 2
3
3 5
3
3 5
3
3
3
3 2
) 5 2 ( = |

\
|
|

\
|
= |

\
|
|

\
|
= |

\
|
<

<

= < <
X
P X P
b) 8413 . 0 ) 1 ( ) 1 ( 1
3
3 0
3
3
) 0 ( = = = |

\
|
>

= >
X
P X P
c) ( ) ( ) ( ) [ ] =
(

\
|

= = = >
3
6
3
3
3
6
1 6 3 6 1 6 3 1 6 3
X
P X P X P X P
( ) ( ) [ ] [ ] 0456 . 0 ) 2 ( 1 2 2 2 1 = = =

2- Hay dos mquinas para cortar corchos destinados para usarse en botellas de vino. La primera pro-
duce corchos con dimetros que estn normalmente distribuidos con media de 3 cm y desviacin es-
tndar de 0.1 cm. La segunda mquina produce corchos con dimetros que tienen una distribucin
normal con media de 3.04 cm y desviacin estndar de 0.02 cm. Los corchos aceptables tienen dime-
tros entre 2.9 cm y 3.1 cm. Cul mquina tiene mas probabilidad de producir un corcho aceptable?

Solucin:
Sean las variables aleatorias
X: dimetro de un corcho producido por la mquina 1
Y: dimetro de un corcho producido por la mquina 2
Entonces ( )
2
1 . 0 , 3 ~ N X y ( )
2
02 . 0 , 04 . 3 ~ N Y
Calculamos cul es la probabilidad que la mquina 1 produzca un corcho aceptable
6826 . 0 1 ) 1 ( 2 ) 1 ( ) 1 (
1 . 0
3 9 . 2
1 . 0
3 1 . 3
1 . 0
3 1 . 3
1 . 0
3
1 . 0
3 9 . 2
) 1 . 3 9 . 2 (
= = =
= |

\
|
|

\
|
= |

\
|

=
X
P X P

Anlogamente para la mquina 2
9987 . 0 0 9987 . 0 ) 7 ( ) 3 (
02 . 0
04 . 3 9 . 2
02 . 0
04 . 3 1 . 3
02 . 0
04 . 3 1 . 3
02 . 0
04 . 3
02 . 0
04 . 3 9 . 2
) 1 . 3 9 . 2 (
= = =
= |

\
|
|

\
|
= |

\
|

=
Y
P Y P


Entonces es ms probable que la mquina 2 produzca corchos aceptables.

3- El dispositivo automtico de apertura de un paracadas militar de carga se ha diseado para abrir el
paracadas cuando ste se encuentre a 200 m de altura sobre el suelo. Supongamos que la altitud de
apertura en realidad tiene una distribucin normal con valor medio de 200 m y desviacin estndar de
30 m. Habr un dao al equipo si el paracadas se abre a una altitud de menos de 100 m. Cul es la
probabilidad de que haya dao a la carga en al menos uno de cinco paracadas lanzados independien-
temente?

Solucin:
Sea la v.a. X: altitud de apertura en metros de un paracadas
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
71
Entonces ( )
2
30 , 200 ~ N X
Calculamos 0004 . 0 ) 33 . 3 (
30
200 100
) 100 ( = = |

\
|
= < X P
Consideramos ahora la v.a. Y: nmero de paracadas entre 5 que se abren a menos de 100 metros
Podemos considerar que ( ) 0004 . 0 , 5 ~ B Y
Por lo tanto hay que calcular ) 1 ( Y P
0019984 . 0 ) 0004 . 0 1 ( 1 ) 0004 . 0 1 ( 0004 . 0
0
5
1 ) 0 ( 1 ) 1 (
5 0 5 0
= =
|
|

\
|
= = =

Y P Y P
4- Supngase que la resistencia a romperse (en Kgr) de fibras de yute est descrita por una v.a. conti-
nua X normalmente distribuida con ( ) 165 = = X E Kgr y ( ) 9
2
= = X V (Kgr)
2
. suponiendo adems
que una muestra de esta fibra se considera defectuosa si 162 < X . Cul es la probabilidad de que una
fibra elegida al azar sea defectuosa?

Solucin:
Deseamos conocer ( ) 162 < X P
( ) ( ) 1 1
3
165
3
165 162
3
165
162 = |

\
|
<

= |

\
|
<

= <
X
P
X
P X P ,
puesto que
3
165
=
X
Z ( ) 1 0, N . Entonces
( ) ( ) ( ). X P 1 1 1 162 = = <
De la tabla tenemos ( ) 8413 0 1 . = ( ) ( ) 1587 0 1 1 1 . = = .
Es decir ( ) 1587 0 162 . X P = < .
Observacin:
Uno puede objetar el usar una distribucin normal para describir a la v.a. X que representa la resisten-
cia a romperse de la fibra ya que sta es, obviamente, una cantidad no negativa, mientras que una v.a.
normalmente distribuida puede tomar valores que varan entre y + . Sin embargo al modelar el
problema con una normal (que aparentemente debera ser invalidada como modelo por lo sealado)
vemos que les estamos asignando al suceso { } 0 < X una probabilidad prcticamente nula (ver tambin
la figura siguiente):
( ) ( ) ( ) 0 1 1 55 1 55
3
165 0
3
165
0 = = = |

\
|
<

= <
X
P X P .

x [Kgr]

f(x)

0 5 10 15 150 180
0,5
1,0
1,5
= 165


En casos como estos se justifica usar la distribucin normal para modelar situaciones en que la varia-
ble aleatoria considerada puede tomar, por su significado, slo valores positivos, an cuando la normal
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
72
permita tomar valores tanto positivos como negativos por cuanto la probabilidad de que la v.a. tome
valores negativos es prcticamente nula.



Esperanza y varianza de una variable aleatoria con distribucin normal





Dem.) Usaremos el resultado:
1
2
1
2
2
=

dt e
t



Calculamos la esperanza de X
( )

+

|

\
|

= dx e . x
.
X E

x
2
2
1
2
1
hacemos la sustitucin

( ) + < < = + =

= t y

dx
dt , t . x

x
t .
Luego:
( ) ( )

+

+ = + = dt e

dt te

dt e . t .

X E
t t t
2 2 2
2 2 2
2 2 2
1


Considerado como funcin de t, el integrando de la primera integral ( )
2
2
t
te t f

= es una funcin impar


de t, es decir, verifica ( ) ( ) t f t f = . En consecuencia la integral a lo largo de un intervalo simtrico
con respecto al origen, como lo es ( ) , se anula.
El segundo sumando, por su parte, es justamente veces la integral 1
2
1
2
2
=

dt e
t

. Entonces
( ) X E = .

Veamos el clculo de la varianza de X
( ) ( ) ( ) [ ] ( )
2 2 2 2
X E X E X E X V = = . Nos queda evaluar ( )
2
X E ,
( )

+

|

\
|

= dx e . x
.
X E

x
2
2
1
2 2
2
1
. Hacemos nuevamente la sustitucin

( ) + < < = + =

= t y

dx
dt , t . x

x
t . Reemplazando:

( ) ( )

+

+ + = + = dt e

dt e . t

.
dt e . t

dt e . t .

X E
t t t t
2
2
2 2
2
2
2
2 2
2 2 2 2
2 2
2
2 2
1


Ahora el integrando de la segunda integral es impar y por lo tanto se anula. Entonces

Sea ( )
2
, ~ N X entonces = ) ( X E y
2
) ( = X V
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
73
( )
2
2
2
2
2
2
2
dt e . t

X E
t
+ =

.
Debemos calcular la integral

dt e . t
t
2
2
2
. Integrando por partes

con

= =
= =

2 2
2 2
t t
e v dt te dv
dt du t u


+

+ = dt e e t dt e . t
t t t
2 2 2
2
2 2 2
.
El corchete de Barrow se anula en ambos extremos y la integral es justamente I 2 2 = . Entonces
: 1
2
1
2
2
2
=

dt e . t

t
. Por lo tanto ( )
2 2 2
X E + = y, en consecuencia,
( ) ( )
2 2 2 2 2 2
X E X V = + = =



Distribucin exponencial

Sea X una v.a. continua. Se dice que tiene distribucin exponencial con parmetro si su f.d.p. es de
la forma
0 donde
contrario caso 0
0 x si
) (

>

x
e
x f

La distribucin exponencial se utiliza algunas veces para modelar el tiempo que transcurre antes de
que ocurra un evento. A menudo se lo llama tiempo de espera.
La siguiente figura muestra la grfica de la densidad para diferentes valores del parmetro


4 =

2 =

- - - - - - 1 =






Es fcil verificar que f(x) es una densidad bien definida
a) Claramente 0 ) ( x f para todo x
b) 1
0
0
=
|
|

\
|

t
t
e
dt e

La F.d.a. de una v.a. exponencial es sencilla:

Si 0 < x entonces 0 ) ( ) ( = = x X P x F
0.5 1 1.5 2 2.5 3
0.2
0.4
0.6
0.8
1
1.2
1.4

Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
74
Si 0 x entonces
x
x
t x
t
e
e
dt e x X P x F

=
|
|

\
|

= = =

1 ) ( ) (
0
0

Por lo tanto

contrario caso 0
0 si 1
) (
x e
x F
x


Su grfica es














Notacin: ) ( ~ Exp X

Ejemplo:
Supongamos que el tiempo, en segundos, de respuesta en cierta terminal de computadora en lnea (es
decir el tiempo transcurrido entre el fin de la consulta del usuario y el principio de la respuesta del
sistema a esa consulta) se puede considerar como una variable aleatoria con distribucin exponencial
con parmetro 2 . 0 = . Calcular
a) la probabilidad de que el tiempo de respuesta sea a lo sumo 10 segundos.
b) la probabilidad de que el tiempo de respuesta est entre 5 y 10 segundos.

Solucin:
Sea X la v.a., entonces ) 2 . 0 ( ~ Exp X
a) Se pide calcular ) 10 ( X P
Por lo tanto
865 . 0 135 . 0 1 1 ) 10 ( ) 10 (
10 2 . 0
= = = =

e F X P
b) ( ) ( ) 233 . 0 1 1 ) 5 ( ) 10 ( ) 10 5 (
5 2 . 0 10 2 . 0
= = =

e e F F X P


Esperanza y varianza de la distribucin exponencial






Dem.)
Es til calcular en general ) (
k
X E el momento de orden k con respecto al origen siendo k un nmero
natural

x
F(x)
Sea ) ( ~ Exp X entonces

1
) ( = X E y
2
1
) (

= X V
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
75
( ) dx e x dx x f x X E
x k k k

+

+
= =
0 0
) (

( ) ,... , , k 2 1 0 = .
Integrando por partes:

=
=

dx e dv
x u
x
k

=
=

x
k
e v
dx kx du

+

+

+ =
0
1
0
dx e x k e x
x k x k
k

. El corchete de Barrow se
anula y queda

+

=
0
1
1
) ( dx e x k X E
x k k

. Aplicando reiteradamente se llega finalmente a


( )
k
x
k
k
k dx e k k X E |

\
|
= |

\
|
=

1
!
1
1 . 2 ... 1 ) (
0


Por lo tanto tenemos para la esperanza y la varianza:
( )

1
= X E
( )
2
2 2
2 2
1 1 1
2 ) (

= |

\
|
|

\
|
= = X E X V

Propiedades de la distribucin exponencial

1- Relacin entre la distribucin exponencial y el proceso de Poisson.

Sea T el tiempo de espera hasta el siguiente evento en un proceso de Poisson con parmetro .
Veamos cul es la F.d.a. de T.
Si 0 < t entonces claramente 0 ) ( ) ( = = t T P t F
Si 0 t entonces para hallar ) ( ) ( t T P t F = consideramos el evento complementario de { } t T .
Notar que { } t T > si y solo si no ocurre ningn evento durante las siguientes t unidades de tiempo.
Si X: nmero de eventos que ocurren en las siguientes t unidades de tiempo, entonces
{ } t T > ocurre si y solo si { } 0 = X ocurre, por lo tanto ) 0 ( ) ( = = > X P t T P
Como ) ( ~ t P X entonces

( )
t t
e
t
e X P t T P



= = = = >
! 0
) 0 ( ) (
0

Por lo tanto

t
e t T P t T P t F

= > = = 1 ) ( 1 ) ( ) (
Como F(t) es la F.d.a. de una v.a. exponencial, entonces ) ( ~ Exp T
Por lo tanto


Consideremos un aplicacin hidrolgica de estas ideas


tiempo
0 t
Si los eventos siguen un proceso de Poisson con parmetro , y si T representa el tiempo de espera
desde cualquier punto inicial hasta el prximo evento, entonces ) ( ~ Exp T
Parte 1 Variables aleatorias Prof. Mara B. Pintarelli
76


i) X = N de inundaciones en un perodo [ ] t , 0 ) ( ~ t P X
ii) = N medio de inundaciones por unidad de tiempo
( )
t
X E
=
iii) T = Tiempo transcurrido entre inundaciones T ( ) Exp
iv) ( ) T E = Tiempo medio de retorno de las inundaciones ( )

1
= T E .


2- Propiedad falta de memoria

La distribucin exponencial tiene una propiedad conocida como falta de memoria, que se muestra en el
siguiente ejemplo:
El tiempo de vida, en aos, de un circuito integrado particular tiene una distribucin exponencial con
parmetro 0.5. Encuentre la probabilidad de que el circuito dure ms de tres aos
Sea la v.a. X : tiempo de vida, en aos, de un circuito integrado particular, entonces ) 5 . 0 ( ~ Exp X
Y 223 . 0 ) 3 ( 1 ) 3 (
5 . 1
= = = >

e F X P
Supongamos ahora que actualmente un circuito tiene cuatro aos y an funciona. Se quiere hallar la
probabilidad de que funcione tres aos ms.
Por lo tanto planteamos una probabilidad condicional
( )
223 . 0
) 4 (
) 7 (
) 4 (
) 4 y 7 (
) 4 / 7 /
5 . 1 4 7 5 . 0
4 5 . 0
7 5 . 0
= = = =
>
>
=
>
> >
= > >



e e
e
e
X P
X P
X P
X X P
X X P
Observamos que ) 3 ( ) 4 7 ( ) 4 / 7 / > = > = > > X P X P X X P
En general, la probabilidad que se tenga que esperar t unidades adicionales, dado que ya se han espe-
rado s unidades, es la misma que la probabilidad de que se tenga que esperar t unidades desde el inicio.
La distribucin exponencial no recuerda cunto tiempo se ha esperado.
En particular, si el tiempo de vida de un componente sigue una distribucin exponencial, entonces la
probabilidad de que un componente que tiene s unidades de tiempo dure t unidades de tiempo adicio-
nales es la misma que la probabilidad de que un componente nuevo dure t unidades de tiempo. En
otras palabras, un componente cuyo tiempo de vida siga una distribucin exponencial no muestra nin-
gn sntoma de los aos o del uso.
Los clculos hechos en el ejemplo anterior se pueden repetir para valores cualesquiera s y t y entonces
se pude probar que

) ( ) / ( entonces positivos, nmeros son y y ) ( ~ si t X P s X s t X P s t Exp X > = > + >



Parte 1 Desigualdad de Chebyshev
Ley de los grandes nmeros Prof. Mara B. Pintarelli
77
4 - DESIGUALDAD DE CHEBYSHEV- LEY DE LOS
GRANDES NUMEROS

La desigualdad de Chebyshev es una importante herramienta terica. Entre otras
aplicaciones constituir un medio para comprender cmo la varianza mide la
variabilidad de una dada variable aleatoria, con respecto a su esperanza matemtica.
Tambin nos permitir establecer con ms precisin el hecho, reiteradamente sealando,
de que la frecuencia relativa
A
f de un suceso A asociado a un experimento aleatorio
tiende, cuando el nmero de repeticiones de se hace infinitamente grande, a la
probabilidad ( ) A P (resultado conocido como la Ley de los grandes nmeros). Pero
adems es de utilidad prctica pues, al constituir una cota de ciertas probabilidades, nos
podr servir como una estimacin de esas mismas probabilidades.


4.1-Desigualdad de Chebyshev
Sea X una variable aleatoria cuya esperanza es ( ) X E , sea c un nmero real cualquiera y
supongamos que ( ) [ ]
2
c X E existe y es finito. Entonces





Dem.) Consideraremos el caso en que X es una v.a. continua. El caso de una v.a.
discreta se demuestra en forma similar cambiando integrales por sumas.

Sea, entonces, ( ) x f la fdp de X. Tenemos:

( ) ( )


=
c x : x
dx x f c X P

Ahora bien, los valores de x que verifican c x son los mismos que verifican
( )
1
2
2

c x
. Entonces, puesto que ( ) 0 x f y que ambos miembros en la desigualdad
anterior son tambin no negativos es:

( ) ( )
( )
( )
( )
( )


= dx x f .

c x
dx x f .

c x
dx x f . c X P
c x : x c x : x
2
2
2
2
1
donde la ltima desigualdad proviene del hecho de que simplemente extiendo los
lmites de integracin a todos los reales pero siendo siempre el integrando positivo. De
manera que estoy agregando una contribucin positiva sobre el valor de la integral
( )
( )

c x : x
dx x f .

c x
2
2
.
Si tenemos presente la expresin para la esperanza de una funcin ( ) X H de una
variable aleatoria X:
0 > ( ) ( ) [ ]
2
2
1
c X E

c X P
Parte 1 Desigualdad de Chebyshev
Ley de los grandes nmeros Prof. Mara B. Pintarelli
78

( ) ( ) ( ) [ ]


= X H E dx x f x H y lo aplicamos a ( )
( )
2
2

c x
x H

= , tenemos finalmente:

( )
( )
( ) [ ]
2
2 2
2
1
c X E

c X
E c X P =
(




Observacin: La desigualdad lleva el nombre del matemtico ruso que la descubri. Su
nombre aparece en una variedad de formas en la literatura: Chebyshev, Chebychev,
Tchebyshev, etc.


Formas alternativas de la desigualdad de Chebyshev.

Podemos escribir la desigualdad de Chebyshev en una serie de formas alternativas:

1
a ) Tenemos en primer lugar la forma que acabamos de demostrar:

( ) ( ) [ ]
2
2
1
c X E

c X P

2
a ) Si consideramos el suceso complementario a c X , es decir c X < ,
podemos escribir, recordando que ( ) ( ) A P A P = 1 :
( ) ( ) ( ) [ ]
2
2
1
1 1 c X E

c X P c X P = < , esto es:



( ) ( ) [ ]
2
2
1
1 c X E

c X P <

1
b ) Si en
1
a ) elegimos ( ) X E c = tenemos ( ) ( ) ( ) [ ] ( )
2
2
1
X E X E

X E X P y
recordando la definicin de la varianza: ( ) ( ) [ ] ( )
2
X E X E X V = tenemos:

( ) ( )
( )
2

X V
X E X P

2
b ) La correspondiente expresin para el suceso complementario es:

( ) ( )
( )
2
1

X V
X E X P <

1
c ) Si en
1
a ) elegimos ( ) X E c = y adems elegimos ( ) X V k k
X
= = , tenemos
( ) ( )
( )
( ) ( )
2
2
2
X
X
X
X
k

k
X V
k X E X P = , es decir:
Parte 1 Desigualdad de Chebyshev
Ley de los grandes nmeros Prof. Mara B. Pintarelli
79

( ) ( )
2
1
k
k X E X P
X


2
c ) Finalmente a correspondiente expresin para el suceso complementario en
1
c ) es:

( ) ( )
2
1
1
k
k X E X P
X
<

A continuacin daremos un ejemplo en el que podremos apreciar cmo la desigualdad
de Chebyshev nos permite tener estimaciones de ciertas probabilidades que en algunos
casos mejoran las estimaciones triviales dadas por el axioma i) de las probabilidades,
esto es, que ( ) 1 0 A P .

Ejemplo Deseamos estimar la probabilidad ( ) |

\
|

X
X E X P
2
3

a) Sin conocer la distribucin
b) Sabiendo que X
(

+
3
1
1
3
1
1 , U .

a) Una estimacin de la probabilidad en consideracin cuando no se conoce la
distribucin, es decir que vale cualquiera sea la distribucin puede tenerse usando la
desigualdad de Chebyshev en la forma
1
c ) : ( ) ( )
2
1
k
k X E X P
X
con
2
3
= k .
Tenemos en consecuencia:
( )
( )
44 0
9
4
2 3
1
2
3
2
.
/
X E X P
X
= = |

\
|
. Vemos que, en este caso, la estimacin
mejora sustancialmente la cota superior trivial 1:

( ) 1 44 0
2
3
< |

\
|
. X E X P
X


Notemos que esta estimacin es aplicable cualquiera se la distribucin de X y vale sea
sta discreta o continua.
b)Si sabemos que X
(

+
3
1
1
3
1
1 , U tenemos toda la informacin y podemos
calcular la probabilidad exactamente.

Tenemos:
( ) 1
2
3
1
1
3
1
1
=
|

\
|
+ |

\
|
+
=
`
X E

Parte 1 Desigualdad de Chebyshev
Ley de los grandes nmeros Prof. Mara B. Pintarelli
80
( )
( )
3
1
9
1
36
4
12
3 2
12
3
1
1
3
1
1
2
2
= = = =
(

\
|
|

\
|
+
= =
/
`
X V
X
. Entonces:

( ) |

\
|
= |

\
|
< = |

\
|
= |

\
|

2
3
2
1
1
2
1
1 1
2
1
1
2
3
X P X P X P X E X P
X


( ) 134 0
2
3
1
3
2
1
1
3
1
1
3
1
1
2
1
2
3
1
2
3
. X E X P
X
= = =
|

\
|
|

\
|
+

= |

\
|
. Este valor
exacto es menor que la cota superior dada por la desigualdad de Chebyshev:

( ) 1 44 0 134 0
2
3
< = |

\
|
. . X E X P
X
.


La varianza como una medida de la concentracin de la fdp de una v.a. alrededor
de la esperanza.

Podemos usar las formas b) de la desigualdad de Chebyshev para interpretar a la
varianza ( ) X V como una medida de la variabilidad de la variable aleatoria X con
respecto a su esperanza o en otras palabras de cmo la distribucin de la v.a. X se
concentra o dispersa con respecto a la esperanza ( ) X E .
De la expresin ( ) ( )
( )
2

X V
X E X P vemos que, para un dado, si ( ) X V es
muy pequeo entonces la probabilidad de que X tome valores lejos de ( ) X E es muy
chica, es decir hay una gran probabilidad de que X tome valores prximos a ( ) X E .
Inversamente si ( ) X V es grande, la probabilidad de que X tome valores alejados de
( ) X E puede ser tambin grande. Podemos precisar un poco ms esto considerando el
siguiente

Teorema. Si ( ) 0 = X V entonces ( ) [ ] 1 = = X E X P . Decimos que ( ) X E X = con
probabilidad 1 (X es igual a su esperanza con probabilidad 1).

Dem.) Para cualquier 0 > , si ( ) 0 = X V tenemos de
2
b ) :

( ) ( )
( )
( ) ( ) 1 1
2
= < < X E X P

X V
X E X P , donde me quedo slo con la
igualdad porque la probabilidad no pude superar a 1.

Puesto que puede hacerse arbitrariamente pequeo, el teorema queda demostrado.



Parte 1 Desigualdad de Chebyshev
Ley de los grandes nmeros Prof. Mara B. Pintarelli
81

4.2 - La ley de los grandes nmeros.

La ley de los grandes nmeros establece en forma precisa el hecho que cuando el
nmero de repeticiones de un experimento se hace muy grande, la frecuencia relativa
A
f de un suceso A relacionado con el experimento converge en sentido probabilstico a
la probabilidad ( ) A P . Daremos una versin de la Ley de los grandes nmeros conocida
como la forma de Bernoulli.

Teorema (Forma de Bernoulli de la ley de los grandes nmeros)
Sea un experimento probabilstico y sea A un suceso asociado con l. Consideremos n
repeticiones independientes del experimento. Sea
A
n el nmero de veces que ocurre A
en las n repeticiones de forma tal que
n
n
f
A
A
= es la frecuencia relativa. Sea ( ) p A P =
(que se supone igual para todas las repeticiones). Entonces, para cualquier nmero
0 > se cumple
( )
( )
2
1
1
n
p p
p f P
A

< .
Dem.)
De acuerdo con su significado
A
n , el nmero de veces que ocurre el suceso A en las n
repeticiones, es una variable aleatoria distribuida binomialmente con parmetros n y p:
( ) p , n B n
A
. Luego:

( )
( ) ( )

=
=
p np n V
np n E
A
A
1


Por lo tanto
( ) ( )
( ) ( )
( )

= = |

\
|
=
= = |

\
|
=
n
p p
n V
n n
n
V f V
p n E
n n
n
E f E
A
A
A
A
A
A
1 1
1
2

En consecuencia, aplicando a la v.a.
A
f la desigualdad de Chebyshev en la forma
2
b )
( ) ( )
( )
2
1

X V
X E X P < , es decir,
( ) ( )
( )
2
1

f V
f E f P
A
A A
< llegamos a lo propuesto por el teorema:
( )
( )
2
1
1
n
p p
p f P
A

< .

Es evidente que el teorema anterior implica que
( ) 1 = <

p f P lim
A
n
para todo 0 > .

Entonces decimos que, en este sentido, la frecuencia relativa
A
f converge a la
probabilidad ( ) A P .
Parte 1 Desigualdad de Chebyshev
Ley de los grandes nmeros Prof. Mara B. Pintarelli
82

Observacin: Esta convergencia, llamada convergencia en probabilidad difiere de la
convergencia normalmente usada en Clculo (lmite aritmtico).
Recordemos que una sucesin ,... ,..., ,
n 2 1
tiene lmite o tambin que lim
n
n
=


si 0 > tal que
n
< para todo n > . Esto significa que, desde un n en
adelante,
n
se aproxima permanentemente al valor lmite . En cambio cuando
decimos que n / n f
A A
= converge a ( ) A P , estamos significando que la probabilidad del
suceso ( )
)
`

< A P f
A
puede hacerse arbitrariamente prximo a uno tomando un n
suficientemente grande. Pero estamos hablando de probabilidad y no de certeza como
en el caso del lmite aritmtico. Es decir, no significa que al tomar un n grande ocurra
ciertamente que nos aproximemos ms al valor de la probabilidad sino que existe una
gran probabilidad de que eso ocurra.

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
83
5- VARIABLES ALEATORIAS BIDIMENSIONALES

5.1 Generalidades

Hasta ahora hemos considerado el caso de variables aleatorias unidimensionales. Esto es, el resultado
del experimento de inters se registra como un nico nmero real.
En muchos casos, sin embargo, nos puede interesar asociar a cada resultado de un experimento aleatorio,
dos o ms caractersticas numricas. Por ejemplo, de los remaches que salen de una lnea de produccin
nos puede interesar el dimetro X y la longitud Y. Teniendo en cuenta la inevitable variabilidad en las
dimensiones de los remaches debido a las numerosas causas presentes en el proceso de fabricacin, los
podemos representar asocindoles dos variables aleatorias X e Y que pueden pensarse como una variable
aleatoria bidimensional: ( ) Y X, .

Sea un experimento aleatorio y S un espacio muestral asociado a l. Sean R S X : , R S Y : , que
a cada resultado S s le asignan el par de nmeros reales ( ) y x,
Llamaremos a ( ) Y X, variable aleatoria bidimensional.
Si en lugar de dos variables aleatorias, tenemos n variables aleatorias
n
X X X ,..., ,
2 1
, llamaremos a
( )
n
X ,..., X , X
2 1
variable aleatoria n-dimensional

En lo que sigue nos referiremos en particular a variables aleatorias n-dimensionales con n=2, es decir
nos concentraremos en variables aleatorias bidimensionales por cuanto son las ms simples de descri-
bir, fundamentalmente en relacin a la notacin. Pero debemos tener presente que las propiedades que
estudiemos para ellas se pueden extender sin demasiada dificultad al caso general.

Al conjunto de valores que toma la variable aleatoria bidimensional (X,Y) lo llamaremos recorrido de la
v.a. (X,Y) y lo indicaremos
XY
R . En otras palabras ( ) ( ) ( )
)
`

= = = S s con s Y y e s X x : y , x R
XY
, es
decir, es la imagen por ( ) Y , X del espacio muestral S.
Notar que el recorrido de (X,Y) es un subconjunto del espacio Euclidiano:
2
R R
XY
. Como antes,
puede considerarse al recorrido
XY
R como un espacio muestral cuyos elementos son ahora pares de n-
meros reales.

Como con cualquier espacio muestral, segn el nmero de elementos que lo constituyen, podemos cla-
sificar a los recorridos
XY
R en numerables (finitos o infinitos) y no-numerables.
Los recorridos numerables son, en general, de la forma
( ) ( ) ( ) ( ) { }
m n j i XY
y , x ,..., y , x , y , x m ,.. , j y n ,..., , i con y , x R
2 1 1 1
2 1 2 1 =
)
`

= = = (finito)
( ) ( ) ( ) { } ,... y , x , y , x ,.. , j y ,... , i con y , x R
j i XY 2 1 1 1
2 1 2 1 =
)
`

= = = (infinito numerable)

Los recorridos no numerables son regiones o subconjuntos no numerables del plano Euclidiano. Por
ejemplo:

( )
)
`

= d y c ; b x a : y , x R
XY
(no numerable)
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
84
( ) { } 1 : ,
2 2
+ = y x y x R
XY
(no numerable)

( )
)
`

= =
3 2 1
c , c , c y , b x a : y , x R
j j XY
(no numerable mixto)

cuyas grficas se pueden apreciar en la figura siguiente. Notar en el ltimo recorrido, X es v.a. continua
e Y discreta.


Clasificaremos a las variables aleatorias bidimensionales de la siguiente manera:
( ) Y , X es v.a. bidimensional discreta si X e Y son discretas
( ) Y , X es v.a. bidimensional continua si X e Y son continuas
El caso X continua, Y discreta (o viceversa) no lo consideramos.

Sea ( ) Y , X una variable aleatoria bidimensional discreta y sea
XY
R su recorrido (numerable). Sea
R R : p
XY
una funcin que a cada elemento ( )
j i
y , x le asigna un nmero real ( )
j i
y , x p tal que
( ) ( )
XY j i j i j i
R y , x y , x p y Y , x X P = |

\
|
= = y que verifica.
a) ( ) ( )
XY j i j i
R y , x y , x p 0
b) ( ) ( )
( )

= =
XY j i
R y x
j i
i j
j i
y x p y x p
,
1 , ,
A esta funcin la llamaremos funcin de probabilidad puntual conjunta de la variable aleatoria bidi-
mensional ( ) Y , X . En forma abreviada la designaremos fdp conjunta.

Sea ( ) Y , X una variable aleatoria bidimensional continua y sea
XY
R su recorrido (no numerable). Sea
R R : f
XY
una funcin que, a cada punto ( ) y , x de
XY
R le asigna un nmero real ( ) y , x f tal que
( ) ( ) R B dxdy y x f B P
B
=

, y que verifica.
a) ( ) ( )
2
, 0 , R y x y x f
b) ( ) 1 ,
2
=

R
dxdy y x f .
A esta funcin la llamaremos funcin de densidad de probabilidad conjunta de la variable aleatoria
bidimensional ( ) Y , X . En forma abreviada la designaremos tambin fdp conjunta.

0
0
0
0
0
a b x
c
d
y y y
1
2
3
1 2 a b x
R
XY
c
1

c
2

c
3

-1
-1
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
85
Ejemplos:
1-Dos lneas de produccin, sealadas I y II, manufacturan cierto tipo de artculo a pequea escala. Su-
pngase que la capacidad mxima de produccin de la lnea I es cinco artculos por da, mientras que
para la lnea II es 3 artculos/da. Debido a los innumerables factores presentes en todo proceso de pro-
duccin, el nmero de artculos realmente producido por cada lnea puede pensarse como una variable
aleatoria. En conjunto podemos pensar en una variable aleatoria bidimensional ( ) Y , X discreta, donde la
primera componente X corresponde a la produccin de la lnea I y la segunda componente Y a los art-
culos que salen de la lnea II. La fdp conjunta correspondiente a variables aleatorias bidimensionales
suele presentarse, por comodidad, como una tabla. Supongamos que la para la v.a. ( ) Y , X que nos inter-
esa aqu la tabla correspondiente a ( )
j i
y , x p es

X Y 0 1 2 3 4 5
0 0 0.01 0.03 0.05 0.07 0.09
1 0.01 0.02 0.04 0.05 0.06 0.08
2 0.01 0.03 0.05 0.05 0.05 0.06
3 0.01 0.02 0.04 0.06 0.06 0.05

Cul es la probabilidad de qu salgan ms artculos de la lnea I que de la lnea II?

Antes de calcular la probabilidad que nos pide el problema, hagamos algunas consideraciones sobre la
tabla que representa a ( )
j i
y , x p .
Se trata de una tabla a doble entrada donde en la primera fila se indican los valores que puede tomar la
v.a. X (en este caso X=0,1,2,3,4,5) y la primera columna indica los valores que puede tomar la variable Y
( 0,1,2,3). Para determinar el valor de la ( )
j i
y , x p cuando la v.a. ( ) Y , X toma el valor ( )
j i
y , x considera-
mos el nmero que se encuentra en la columna correspondiente a
i
x X = y la fila correspondiente a
j
y Y = . Por ejemplo: ( ) ( ) 05 0 2 4 2 4 . Y , X P , p = = = = .
Podemos verificar fcilmente que la fdp conjunta definida por esta bien definida. En efecto verifica las
condiciones a) ( ) ( )
XY j i j i
R y , x y , x p 0 y b) ( )
( )

=
XY j i
R y , x
j i
y , x p 1.
Para contestar la pregunta del enunciado, consideremos el suceso
XY
R B definido

B: es el suceso que ocurre cuando la lnea I produce ms artculos que la lnea II o,
{ } Y X B > = . Luego:
( ) ( ) ( )

= >
= = > =
3
0
j j i
y y x
j i
y , x p Y X P B P 0.01+0.03+0.05+0.07+0.09+0.04+0.05+0.06+0.08+
+0.05+0.05+0.06+0.06+0.05=0.75.

2- Hay tres cajas registradoras a la salida de un supermercado. Dos clientes llegan a las cajas en diferen-
tes momentos cuando no hay otros clientes ante aquellas. Cada cliente escoge una caja al azar e indepen-
dientemente del otro.
Sean las variables aleatorias X: n de clientes que escogen la caja 1 e Y: n de clientes que escogen la
caja 2. Hallar la fdp conjunta de (X,Y)

Podemos suponer que el espacio muestral original S es el conjunto de pares ordenados
{ } ) 3 , 3 ( ); 2 , 3 ( ); 1 , 3 ( ); 3 , 2 ( ); 2 , 2 ( ); 1 , 2 ( ); 3 , 1 ( ); 2 , 1 ( ); 1 , 1 ( = S donde la primera componente del par indica la
caja elegida por el cliente 1 y la segunda componente del par indica la caja elegida por el cliente 2.
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
86
Adems notar que X como Y pueden tomar los valores 0, 1, 2
El punto muestral (3,3) es el nico punto muestral que corresponde al evento { } 0 , 0 = = Y X
Entonces
9
1
) 0 , 0 ( = = = Y X P
; pensando de forma anloga los otros casos:
9
2
) 0 , 1 ( = = = Y X P
;
9
1
) 0 , 2 ( = = = Y X P
;
9
2
) 1 , 0 ( = = = Y X P
,
9
2
) 1 , 1 ( = = = Y X P
,
9
1
) 2 , 0 ( = = = Y X P
; 0 ) 2 , 2 ( ) 2 , 1 ( = = = = = = Y X P Y X P
Disponemos estas probabilidades en una tabla de la siguiente forma







3- Supongamos que una partcula radiactiva se localiza aleatoriamente en un cuadrado con lados de lon-
gitud unitaria. Es decir, si se consideran dos regiones de la misma rea, la partcula tendr igual probabi-
lidad de estar en cualquiera de ellas. Sean X e Y las coordenadas que localizan la partcula. Un modelo
adecuado para la distribucin conjunta de X e Y sera considerar a (X, Y) continua con fdp dada por


=
contrario caso 0
1 0 ; 1 0 si 1
) , (
y x
y x f

Es conveniente hacer un grfico en el plano del dominio de la fdp


Nos preguntamos cul es la probabilidad de que la
coordenada en x sea menor que 0.2 y la coordena-
da en y menor que 0.4 , es decir, cul es la
) 4 . 0 , 2 . 0 ( Y X P . Para calcularla, graficamos en
el plano xy la regin que corresponde al evento
interseccin la regin que es dominio de la fdp





Por lo tanto

= = =
4 . 0
0
2 . 0
0
08 . 0 4 . 0 2 . 0 1 ) 4 . 0 , 2 . 0 ( dxdy Y X P




Y \ X 0 1 2
0 1/9 2/9 1/9
1 2/9 2/9 0
2 1/9 0 0

{ } 4 . 0 , 2 . 0 Y X

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
87
En este ejemplo la fdp es un caso particular de v.a. bidimensional uniformemente distribuida
Diremos que una variable aleatoria bidimensional continua est uniformemente distribuida en la regin
XY
R del plano Euclidiano R si su funcin de densidad de probabilidad es
( )
( )
( )

=
XY
XY
R y x para
R y x para c
y x f
, 0
,
,

Puesto que la condicin de normalizacin exige ( )

= =
2
1 ,
R R
XY
cdxdy dxdy y x f debe ser

( )
XY
R rea
c
1
=

A una v.a. ( ) Y , X bidimensional continua uniformemente distribuida en su recorrido
XY
R la indicaremos
X [ ]
XY
R U .
Por ejemplo, supongamos que la v.a. ( ) Y , X est distribuida uniformemente en el recorrido
XY
R que se
muestra en la figura. Cul es su fdp conjunta?


De la figura calculamos el rea del recorrido:

( ) ( )

= = =
1
0
1
0
2
6
1
2
dx x x dy dx R rea
x
x
XY
. Por lo tanto

( )
( )


=
puntos dems los para
x y x x que tal y x para
y x f
0
, 1 0 , 6
,
2


5.2 - Funciones de distribucin marginales de una v.a. (X,Y) discreta

En el ejemplo 1, supongamos que queremos saber cul es la probabilidad de que el nmero de artculos
producidos por la lnea I sea 2, o sea ) 2 ( = X P
Como el evento { } 2 = X es igual a { } { } { } { } { } ( ) 3 2 1 0 2 = = = = = Y Y Y Y X , y a su vez
0
0
1
2
y
1 2 3 x
y = x
y = x
2

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
88
{ } { } { } { } { } ( )
{ } { } ( ) { } { } ( ) { } { } ( ) { } { } ( ) 3 2 2 2 1 2 0 2
3 2 1 0 2
= = = = = = = = =
= = = = = =
Y X Y X Y X Y X
Y Y Y Y X

Entonces

( )
{ } { } ( ) { } { } ( ) { } { } ( ) { } { } ( )

=
= = = = = + = = + = = + = = =
= = = + = = + = = + = = =
= =
3
0
) , 2 ( ) 3 , 2 ( ) 2 , 2 ( ) 1 , 2 ( ) 0 , 2 (
3 2 2 2 1 2 0 2
2
j
j Y X P Y X P Y X P Y X P Y X P
Y X P Y X P Y X P Y X P
X P

Razonando de la misma forma podemos escribir
( ) 5 ,..., 1 , 0 ) , (
3
0
= = = = =

=
i j Y i X P i X P
j

Es decir obtenemos la funcin de distribucin de probabilidad de X

Anlogamente obtenemos
( ) 3 , 2 , 1 , 0 ) , (
5
0
= = = = =

=
j j Y i X P j Y P
i

Que es la funcin de distribucin de probabilidad de Y

En general se las denomina distribuciones marginales de X e Y, y su definicin sera la siguiente

Sea (X,Y) discreta y sea ( )
j i
y , x p (i=1,2,n, j=1,2,,m) su funcin de probabilidad conjunta (Even-
tualmente n y/o m pueden ser ).

La funcin de probabilidad marginal de X es

( ) ( ) ( )

=
= = =
m
j
j i i i
y x p x X P x p
1
, (i=1,2,,n)

La funcin de probabilidad marginal de Y es

( ) ( ) ( )

=
= = =
n
i
j i j j
y x p y Y P y q
1
, (j=1,2,,m)

Observacin: Remarcamos que la funcin de probabilidad marginal de X, es decir ( )
i
x p calculada a
partir de ( )
j i
y , x p en la forma indicada, coincide con la funcin de probabilidad de la variable aleatoria
unidimensional X considerada en forma aislada. Anlogamente la funcin de probabilidad marginal de
Y, es decir ( )
j
y q calculada a partir de ( )
j i
y , x p en la forma indicada, coincide con la funcin de probabi-
lidad de variable aleatoria unidimensional Y considerada en forma aislada.

Ejemplo:
Siguiendo con el ejemplo 1,

( ) ( ) ( ) ( ) ( ) ( )
28 0
05 0 06 0 08 0 09 0 3 5 2 5 1 5 0 5 5 5
.
. . . . , p , p , p , p X P p
=
+ + + = + + + = = =

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
89
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
26 0
06 0 05 0 04 0 02 0 01 0 1 5 1 4 1 3 1 2 1 1 1 0 1 1
.
. . . . . , p , p , p , p , p , p Y P q
=
+ + + + = + + + + + = = =

Observemos que se verifica la condicin de normalizacin para cada una de las marginales:
( )

=
= + + + + + =
5
0
1 28 0 24 0 21 0 16 0 08 0 03 0
i
x
i
. . . . . . x p
( )

=
= + + + =
3
0
1 24 0 25 0 26 0 25 0
j
y
j
. . . . y q

5.3 - Funciones de distribucin marginales de una v.a. (X,Y) continua

En el ejemplo 3 supongamos que queremos hallar la probabilidad de que la coordenada x de la partcula
sea menor o igual a 0.2, es decir ) 2 . 0 ( X P . Podemos escribir

2 . 0 1 ) , ( ) , 2 . 0 ( ) 2 . 0 (
2 . 0
0
1
0
2 . 0
0
= = = < < =


dydx dydx y x f Y X P X P
En general si queremos hallar ) ( x X P podemos plantear



= = < < =
x x
dx x g dydx y x f Y x X P x X P ) ( ) , ( ) , ( ) (
donde


= ) ( ) , ( x g dy y x f
Por definicin de fdp debe ser ) (x g la fdp de la v.a. X

Anlogamente


= = < < =
y y
dx x h dxdy y x f y Y X P y Y P ) ( ) , ( ) , ( ) (
donde


= ) ( ) , ( x h dy y x f
Por definicin de fdp debe ser ) (x h la fdp de la v.a. Y

En general:
Sea (X,Y) continua y sea ( ) y , x f su funcin de densidad de probabilidad conjunta.
La funcin de densidad de probabilidad marginal de X es:

( ) ( )dy y , x f x g


=

La funcin de densidad de probabilidad marginal de Y es:

( ) ( )dx y , x f y h


=

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
90
Observacin: Remarcamos aqu tambin que la funcin de de densidad de probabilidad marginal de X,
es decir ( ) x g , calculada a partir de ( ) y , x f en la forma indicada, coincide con la funcin de densidad de
probabilidad de variable aleatoria unidimensional X considerada en forma aislada. Anlogamente la fun-
cin de densidad de probabilidad marginal de Y, es decir ( ) y h calculada a partir de ( ) y , x f en la forma
indicada, coincide con la funcin de densidad de probabilidad de variable aleatoria unidimensional Y
considerada en forma aislada. De manera que podemos calcular probabilidades como, por ejemplo

( ) ( )
( )


=
= = |

\
|
< < =


b
a
b
a
dx x g
dydx y , x f Y , b X a P b X a P


Ejemplo: Consideremos nuevamente la v.a. continua (X,Y) uniformemente distribuida cuyo recorrido
XY
R dibujamos otra vez



Ya vimos que la fdp est dada por

( )
( )


=
puntos dems los para
x y x x que tal y x para
y x f
0
, 1 0 , 6
,
2


Entonces las funciones de densidad de probabilidad de X e Y son

( )
( ) ( )

= =
=


valores dems los para
x x x dy dy y , x f
x g
x
x
0
1 0 6 6
2
2


( )
( ) ( )

= =
=


valores dems los para
y y y dx dx y x f
y h
y
y
0
1 0 6 6 ,


0
0
1
2
y
1 2 3 x
y = x
y = x
2

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
91
5.4 - Funciones de probabilidades condicionales

Caso discreto
Consideremos nuevamente el ejemplo de las dos lneas I y II que producen cierto artculo a pequea
escala. Definimos la v.a. ( ) Y , X cuya funcin de probabilidad conjunta ( )
j i
y , x p est dada por la tabla
anterior que repetimos
X Y 0 1 2 3 4 5 q(y
j
)
0 0 0.01 0.03 0.05 0.07 0.09 0.25
1 0.01 0.02 0.04 0.05 0.06 0.08 0.26
2 0.01 0.03 0.05 0.05 0.05 0.06 0.25
3 0.01 0.02 0.04 0.06 0.06 0.05 0.24
p(x
i
) 0.03 0.08 0.16 0.21 0.24 0.28 1

Supongamos que deseamos conocer la probabilidad de que la lnea I produzca tres artculos sabiendo
que la lnea II ha fabricado dos. Tenemos que calcular una probabilidad condicional. Entonces
( )
( )
( )
( )
2 . 0
25 . 0
05 . 0
2
2 , 3
2
2 , 3
2 3 = = =
=
|

\
|
= =
= = =
q
p
Y P
Y X P
Y X P

En general definimos la funcin de probabilidad puntual de X condicional a Y como sigue:
( ) ( )
( )
( )
j
j i
j i j i
y q
y , x p
y Y x X P y x p = = = = , es decir como el cociente de la funcin de probabilidad conjun-
ta de ( ) Y , X y la funcin de probabilidad puntual marginal de Y.


Anlogamente, definimos la funcin de probabilidad puntual de Y condicional a X :
( ) ( )
( )
( )
i
j i
i j i j
x p
y , x p
x X y Y P x y q = = = = , es decir como el cociente de la funcin de probabilidad puntual
conjunta de ( ) Y , X y la funcin de probabilidad puntual marginal de X.


b) Caso continuo
Como ocurre con la variables aleatoria continuas en general, el definir la probabilidad condicional de
ocurrencia de un valor dado de una de las variables aleatorias del par ( ) Y , X supuesto que ocurri la
otra, presenta las dificultades conocidas relacionadas con el hecho de que la probabilidad de un punto es
cero. Entonces probabilidades tales como ( )
j i
y Y x X P = = tienen el problema que ( ) 0 = =
j
y Y P .

Sea ( ) Y , X una variable aleatoria bidimensional continua cuya fdp conjunta es ( ) y , x f . Sean ( ) x g y
( ) y h la fdp marginales de X e Y, respectivamente. Definimos la funcin de densidad de probabilidad de
X condicional a que Y=y, a la que denotaremos ( ) y x g , de la siguiente manera:

( )
( )
( )
( ) 0 > = y h con
y h
y , x f
y x g .
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
92
Anlogamente, la funcin de densidad de probabilidad de Y condicional a que X=x, a la que denota-
remos ( ) x y h , se define:

( )
( )
( )
( ) 0 > = x g con
x g
y , x f
x y h .

De acuerdo con estas definiciones, podemos calcular, por ejemplo,

( ) ( )
( )
( ) c h
dx c , x f
dx c x g c Y b X a P
b
a
b
a

= = =

Observemos que si quisiramos calcular esta probabilidad usando la fdp conjunta, es decir, refirindonos
al recorrido completo, llegaramos a una indeterminacin:

( )
( ) ( ) [ ]
( )
( )
( )
0
0
= =
=
=
= =


+

c
c
b
a
c
c
y , x dyf dx
y , x dyf dx
c Y P
c Y b X a P
c Y b X a P
I
.

Notar la diferencia entre la funcin de densidad de probabilidad condicional ( ) y x g y la funcin de den-
sidad de probabilidad marginal ( ) x g :

( ) ( ) b X a P dx x g
b
a
=

, mientras que

( ) ( )

= =
b
a
y Y b X a P dx y x g .

Ejemplo:
Una mquina vendedora de refrescos se llena al principio de un da dado con una cantidad aleatoria Y, y
se despacha durante el da una cantidad aleatoria X (medida en galones). No se le vuelve a surtir durante
el da y entonces Y X
Se ha observado que (X,Y) tienen la densidad conjunta




Cul es la probabilidad de que se venda menos de
galn, dado que la mquina contiene 1 galn al inicio del
da?

Solucin: Primero es conveniente hacer un grfico de la
regin del plano donde la densidad conjunta
est definida


=
contrario caso 0
2 0 ; 0 si 2 / 1
) , (
y y x
y x f
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
93

Hallamos la densidad condicional de X dado Y. Para esto primero encontramos la fdp marginal de Y


= =


contrario caso 0
2 y 0 si ) 2 / 1 (

contrario caso 0
2 0 si ) 2 / 1 (
) , ( ) (
0
y
y dx
dx y x f y h
y


Entonces la densidad condicional es

<
=

<
= =
contrario caso 0
2 0 si
1

contrario caso 0
2 0 si
) 2 / 1 (
2 / 1
) (
) , (
) | (
y x
y
y x
y
x g
y x f
x y h

La probabilidad que interesa es

( )
2
1
1 ) 1 | ( ) 1 | 2 / 1 (
2 / 1
0
2 / 1

= = = = =

dx dx y x f Y X P

Notar que si la mquina hubiera contenido 2 galones al principio del da, entonces

4
1
) 1 | ( ) 2 | 2 / 1 (
2 / 1
0
2
1
2 / 1

= = = = =

dx dx y x f Y X P

As la probabilidad condicional que 2 / 1 X depende de la eleccin de Y


5.5 Variables aleatorias independientes

Ya se discuti el concepto de independencia entre dos eventos A y B. Esas mismas ideas podemos tras-
ladarlas en relacin a dos variables aleatorias X e Y que, eventualmente, podemos considerarlas como las
componentes de una variable aleatoria bidimensional ( ) Y , X .
De acuerdo con esto, intuitivamente decimos que dos variables, X e Y, son independientes si el valor que
toma una de ellas no influye de ninguna manera sobre el valor que toma la otra. Esto lo establecemos
ms formalmente:

a) Sea ( ) Y , X una variable aleatoria bidimensional discreta. Sea ( )
j i
y , x p su fdp conjunta y ( )
i
x p y
( )
j
y q las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias inde-
pendientes si y slo si

( ) ( ) ( ) ( )
XY j i j i j i
R y , x y q x p y , x p =
b) Sea ( ) Y , X una variable aleatoria bidimensional continua. Sea ( ) y , x f su fdp conjunta y ( ) x g y ( ) y h
las correspondientes fdp marginales de X e Y. Decimos que X e Y son variables aleatorias independien-
tes si y slo si

( ) ( ) ( ) ( )
2
R y , x y h x g y , x f =
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
94

Observacin: Notar que para poder afirmar la independencia de X e Y debe cumplirse la factorizacin
de la fdp conjunta como producto de las fdp marginales para todos los pares de valores de la v.a. ( ) Y , X .
Por lo tanto, para verificar la independencia es necesario demostrar la validez de la factorizacin para
todos los pares. En cambio, es suficiente encontrar un solo par que no la verifica, para afirmar, de acuer-
do con la definicin, que las variables X e Y son no independientes, es decir, que son dependientes. Esto
es, para demostrar la dependencia es suficiente con encontrar un solo par que no verifique la factoriza-
cin sealada.

Vimos que dos sucesos A y B son independientes si y slo si ( ) ( ) A P B A P = y ( ) ( ) B P A B P = (donde
por supuesto deba ser ( ) 0 A P y ( ) 0 B P ). En trminos de variables aleatorias, esta forma de ver la
independencia se manifiesta en la igualdad entre las fdp condicionales y las correspondientes fdp margi-
nales, como demostramos en este

Teorema
a) Sea ( ) Y , X una variable aleatoria bidimensional discreta cuyas fdp conjunta, condicionales y margina-
les son, respectivamente, ( )
j i
y , x p ; ( )
j i
y x p , ( )
i j
x y q y ( )
i
x p , ( )
j
y q .
Entonces, X e Y son variables aleatorias independientes si y slo si


a
1
) ( ) ( ) ( )
XY j i i j i
R y , x x p y x p = , o
a
2
) ( ) ( ) ( )
XY j i j i j
R y , x y q x y q = , que es equivalente a lo anterior

b) Sea ( ) Y , X una variable aleatoria bidimensional continua cuyas fdp conjunta, condicionales y margi-
nales son, respectivamente, ( ) y , x f ; ( ) y x g , ( ) x y h y ( ) x g , ( ) y h .
Entonces, X e Y son variables aleatorias independientes si y slo si

b
1
) ( ) ( ) ( )
2
R y , x x g y x g = , o
b
2
) ( ) ( ) ( )
2
R y , x y h x y h = , que es equivalente al anterior.

Dem.)
a) Demostraremos solamente a
1
). La equivalencia entre a
1
) y a
2
) la dejamos como ejercicio.
Para demostrar a
1
) verificaremos la doble equivalencia entre sta y la definicin de v.a. independientes.
)
Sean X e Y variables aleatorias independientes. Entonces ( )
XY j i
R y , x
( )
( )
( )
( ) ( )
( )
( )
i
j
j i
j
j i
j i
x p
y q
y q x p
y q
y , x p
y x p = = =
Aqu la primera igualdad es la definicin de fdp condicional y la segunda sale de la definicin de inde-
pendencia al suponer que X e Y son independientes.
)
Supongamos que se verifica a
1
). Entonces ( )
XY j i
R y , x
( ) ( )
( )
( )
( ) ( ) ( ) ( )
j i j i i
j
j i
i j i
y q x p y , x p x p
y q
y , x p
x p y x p = = = X e Y independientes
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
95
Aqu, la primera implicacin se debe a la definicin de fdp condicional y la tercera a la definicin de v.a.
independientes.

b) Tambin demostramos slo b
1
) y dejamos como ejercicio demostrar la equivalencia entre b
1
) y b
2
).

)
Sean X e Y variables aleatorias independientes. Entonces ( )
2
R y , x
( )
( )
( )
( ) ( )
( )
( ) x g
y h
y h x g
y h
y , x f
y x g = = =
Aqu la primera igualdad es la definicin de fdp condicional y la segunda sale de la definicin de inde-
pendencia al suponer que X e Y son independientes.
)
Supongamos que se verifica b1). Entonces ( )
2
R y , x
( ) ( )
( )
( )
( ) ( ) ( ) ( ) y h x g y , x f x g
y h
y , x g
x g y x g = = = X e Y independientes.
Aqu, la primera implicacin se debe a la definicin de fdp condicional y la tercera a la definicin de v.a.
independientes.

Ejemplos:
1- Supongamos que una mquina se usa para un trabajo especfico a la maana y para uno diferente en
la tarde. Representemos por X e Y el nmero de veces que la mquina falla en la maana y en la tarde
respectivamente. Supongamos que la tabla siguiente da la funcin de probabilidad conjunta ( )
j i
y , x p de
la variable aleatoria bidimensional discreta ( ) Y , X .

Y/X 0 1 2 q(y
j
)
0 0.1 0.2 0.2 0.5
1 0.04 0.08 0.08 0.2
2 0.06 0.12 0.12 0.3
P(x
i
) 0.2 0.4 0.4 1

Deseamos saber si las variables aleatorias X e Y son independientes o dependientes.
Para demostrar que son independientes debemos probar que se verifica ( )
XY j i
R y , x
( ) ( ) ( )
j i j i
y q x p y , x p = Verificamos directamente que

( ) ( ) ( ) 5 0 2 0 0 0 1 0 0 0 . . q p . , p = = =
( ) ( ) ( ) 2 0 2 0 1 0 04 0 1 0 . . q p . , p = = =
( ) ( ) ( ) 3 0 2 0 2 0 06 0 2 0 . . q p . , p = = =
( ) ( ) ( ) 5 0 4 0 0 1 2 0 0 1 . . q p . , p = = =
( ) ( ) ( ) 2 0 4 0 1 1 08 0 1 1 . . q p . , p = = =
( ) ( ) ( ) 3 0 4 0 2 1 12 0 2 1 . . q p . , p = = =
( ) ( ) ( ) 5 0 4 0 0 2 2 0 0 2 . . q p . , p = = =
( ) ( ) ( ) 2 0 4 0 1 2 08 0 1 2 . . q p . , p = = =
( ) ( ) ( ) 3 0 4 0 2 2 12 0 2 2 . . q p . , p = = =

Luego X e Y son independientes.
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
96

Podramos haber usado las condiciones a1) ( ) ( ) ( )
XY j i i j i
R y , x x p y x p = , o su equivalente
a
2
) ( ) ( ) ( )
XY j i j i j
R y , x y q x y q = . Veamos, como muestra para un solo valor, que se verifica
( )
( )
( )
( ) 2 4 0
2 0
08 0
1
1 2
1 2 p .
.
.
q
, p
p = = = = . Para demostrar la independencia por este camino habra que de-
mostrar que se cumple la condicin para el resto de los pares de valores. Se deja este clculo como ejer-
cicio optativo.

2- Sean X e Y v.a. continuas que representan el tiempo de vida de dos dispositivos electrnicos. Supon-
gamos que la fdp conjunta de la v.a. continua ( ) Y , X es:

( )
( )

< <
=
+
valores dems los para 0
0 , 0
,
y x e
y x f
y x


Deseamos saber si X e Y son variables aleatorias independientes.
Calculamos las fdp marginales de X e Y :

( ) ( )
( ) x y x
e dy e dy y , x f x g

+
+
+


= = =
0

( ) ( )
( ) y y x
e dx e dx y , x f y h

+
+
+


= = =
0

Luego las marginales son:

( )

<
=

valores dems los para


x e
x g
x
0
0

( )

<
=

valores dems los para


y e
y h
y
0
0

Vemos que efectivamente
( ) ( ) ( )
( )

< < =
= =
+
valores dems los para 0
0 , 0
,
y x e e e
y h x g y x f
y x y x

Es decir X e Y son v.a. independientes.

Tambin podemos verificar la condicin b
1
):

( )
( )
( )
( )
( ) x g
x e
e
e
y h
y x f
y x g
x
y
y x
=

< =
= =

+
valores dems los para 0
0
,
( )
2
R y . x


Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
97
3- Consideremos un ejemplo donde no se verifica la independencia.

Sea una v.a.b cuya fdp conjunta es

( )


=
valores dems los para 0
1 0 8
,
y x xy
y x f

En la figura siguiente mostramos el recorrido


















Calculamos las fdp marginales de X e Y :

( )
( )

=
=

valores dems los para 0
1 0 1 4 8
1
2
x
x x x xydy
x g
( )

=
=

valores dems los para 0
1 0 4 8
0
3
y
y y xydx
y h
y podemos apreciar que para 1 0 y x en general es

( ) ( ) ( ) ( ) y h x g y x x xy y , x f = =
3 2
1 16 8 .

Luego X e Y son variables aleatorias dependientes.

Observaciones
1- De la definicin de las fdp marginales, vemos que tanto en el caso discreto como en el continuo, la
fdp conjunta determina unvocamente las fdp marginales. Es decir, si ( ) Y , X es discreta del conocimien-
to de la funcin de probabilidad conjunta ( )
j i
y , x p podemos determinar unvocamente las funciones de
probabilidad ( )
i
x p y ( )
j
y q . Anlogamente, si ( ) Y , X es continua del conocimiento de la funcin de
0
0
1
2
y
1 2 3
x
y = x
R
XY
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
98
densidad de probabilidad conjunta ( ) y , x f podemos determinar unvocamente las funciones de densidad
( ) x g y ( ) y h . Sin embargo la inversa no se cumple en general. Es decir del conocimiento de ( )
i
x p y
( )
j
y q no se puede, en general, reconstruir ( )
j i
y , x p a menos que X e Y sean variables independientes en
cuyo caso es ( ) ( ) ( )
j i j i
y q x p y , x p = y, anlogamente, en el caso continuo, del conocimiento de ( ) x g y
( ) y h no se puede construir en general ( ) y , x f excepto cuando X e Y son independientes en cuyo caso
puedo escribir ( ) ( ) ( ) y h x g y , x f =

2- Podemos observar del ltimo ejemplo, que puede ocurrir que an cuando la funcin ( ) y , x f ya est
escrita en forma factorizada como una funcin slo de x por una funcin slo de y, las variables X e Y
no sean independientes puesto que el dominio es tal que hace que las variables sean dependientes. As,
en el ejemplo anterior, el recorrido ( ) { } 1 0 = y x : Y , X R
XY
condiciona los valores que toma x a
los valores que toma y.

3- El concepto de independencia entre dos variables aleatorias se puede generalizar a n variables aleato-
rias
n
X X X ,..., ,
2 1



5.6 - Funcin de una variable aleatoria bidimensional

Existen muchas situaciones en las que dado una variable aleatoria bidimensional nos interesa considerar
otra variable aleatoria que es funcin de aqulla. Por ejemplo, supongamos que las variables aleatorias X
e Y denotan la longitud y el ancho, respectivamente, de una pieza, entonces Y X Z 2 2 + = es una v.a. que
representa el permetro de la pieza, o la v.a. Y X W . = representa el rea de la pieza. Tanto Z como W
son variables aleatorias.

En general, sea S un espacio muestral asociado a un experimento probabilstico , sean R S : X e
R S : Y dos variables aleatorias que definen una variable aleatoria bidimensional ( ) Y , X cuyo reco-
rrido es
XY
R , y sea una funcin de dos variables reales R R : H
XY
que a cada elemento ( ) y , x del re-
corrido
XY
R le hace corresponder un nmero real ( ) y , x H z = , entonces la funcin compuesta
( ) R S Y X H Z = : , es una variable aleatoria, puesto que a cada elemento S s le hace corresponder
un nmero real ( ) ( ) [ ] s Y , s X H z = . Diremos que la variable aleatoria Z es funcin de la variable aleato-
ria bidimensional (X,Y).

Algunas variables aleatorias que son funcin de variables aleatorias bidimensionales son Y X Z + = ,
Y . X Z = , Y / X Z = , ( ) Y , X mn Z = , ( ) Y , X mx Z = , etc.

Lo anterior se puede generalizar si en lugar de dos variables aleatorias tenemos n variables aleatorias
n
X X X ,..., ,
2 1
, y ( )
n
x x x H z ,... ,
2 1
= es una funcin de n variables a valores reales.

Ejemplos:
1- Sea ) , ( ~ p n B Z
Podemos escribir a Z como suma de variables aleatorias de la siguiente forma.
Recordar que Z cuenta el nmero de xitos en n repeticiones o ensayos del experimento
Si definimos
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
99


=
contrario caso
xito ocurre de repeticin sima la en si
X
i
0
1
n i ,..., 2 , 1 =
Notar que a cada
i
X se la puede considerar ) , 1 ( p B , y adems
n
X X X ,..., ,
2 1
son independientes
Podemos escribir
n
X X X Z + + + = ...
2 1


2- Sea Z v.a. binomial negativa con parmetros r y p, es decir ) , ( ~ p r BN Z
Si definimos
1
X : nmero de repeticiones del experimento requeridos hasta el 1 xito
2
X : nmero de repeticiones del experimento adicionales requeridos hasta el 2 xito
3
X : nmero de repeticiones del experimento adicionales requeridos hasta el 3 xito
Y en general
i
X : nmero de repeticiones del experimento adicionales despus del (i-1)simo xito requeridos hasta
el i-simo xito
Entonces cada variable tiene distribucin geomtrica con parmetro p y
r
X X X Z + + + = ...
2 1

Notar adems que
r
X X X ,..., ,
2 1
son independientes


Esperanza de una v.a. que es funcin de una v.a. bidimensional

Sea una variable aleatoria bidimensional ( ) Y , X cuya fdp conjunta es la funcin de probabilidad conjun-
ta ( )
j i
y , x p si es discreta o la funcin de densidad de probabilidad conjunta ( ) y , x f si es continua y sea
una funcin real de dos variables ( ) y , x H z = de manera que podemos definir una variable aleatoria Z
que es funcin de la variable aleatoria bidimensional ( ) Y , X de la forma ( ) Y , X H Z = . Si la fdp de Z es
( )
i
z q , si Z es discreta, o ( ) z q si es continua, entonces la esperanza matemtica de Z es, de acuerdo con
la definicin general,

( ) ( )

=
X i
R x
i i
z q . z Z E (para Z discreta)
( ) ( )


= dz z zq Z E (para Z continua)
Nuevamente lo interesante es considerar la posibilidad de evaluar ( ) Z E sin tener que calcular previa-
mente la fdp de Z. El siguiente teorema nos muestra cmo hacerlo.

Teorema Sea (X,Y) una variable aleatoria bidimensional y sea Z=H(X,Y) una variable aleatoria que es
funcin de (X,Y).

a) Si Z es variable aleatoria discreta que proviene de la variable aleatoria bidimensional discreta (X,Y)
cuyo recorrido es
XY
R y su fdp conjunta es ( )
j i
y , x p , entonces:

( ) ( ) [ ] ( ) ( )
( )

= =
XY j i
R y , x
j i j i
y , x p y , x H Y , X H E Z E

b) Si Z es variable aleatoria continua que proviene de la variable aleatoria continua bidimensional (X,Y)
cuya fdp conjunta es ( ) y , x f , entonces:
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
100

( ) ( ) [ ] ( ) ( )


= = dxdy y , x f y , x H Y , X H E Z E .
Dem.) sin demostracin

Ejemplo:
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un cir-
cuito varan aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R inde-
pendientes. Supongamos que las correspondientes fdp son:

( )


=
valores dems
i i
i g
0
1 0 2
( )


=
valores dems
r
r
r h
0
3 0
9
2

Nos interesa considerar el voltaje r . i v = de manera que podemos definir la variable aleatoria R . I V = .
Especficamente deseamos conocer el valor esperado o esperanza matemtica del voltaje: ( ) V E .
Usando la propiedad establecida en el teorema anterior:

( ) ( ) ( )didr r , i f . r , i H V E


= . Ahora bien, puesto que consideramos que I y R son variables aleatorias
independientes, la fdp conjunta de la v.a. bidimensional (I,R) es simplemete el producto de las margina-
les o sea de las fdp de las variables aleatorias I y R tomadas como variables aleatorias unidimensionales:
( ) ( ) ( ) r h . i g r , i f = , es decir:

( )


=
valores dems
r y i si r . i
r , i f
0
3 0 1 0
9
2
2


Entonces

( ) ( )
2
3
9
2
9
2
1
0
2
3
0
3 2
1
0
3
0
= = =

di i dr r r . i . r . i di dr V E

Esperanza de una suma de variables aleatorias




Dem.) en el teorema anterior consideramos y x y x H + = ) , (
Si (X,Y) es discreta

( ) ( ) [ ] ( ) ( )
( )
= + = = =


) , ( ) ( , , ,
) , ( ,
j
R y x
i j i
R y x
j i j i
y x p y x y x p y x H Y X H E Z E
XY j i XY j i

Aplicando la propiedad distributiva y separando en dos sumas

( ) = + = + =


) , ( ) , ( ) , ( ) (
) , ( ) , ( ) , (
j
R y x
i j j i
R y x
i j
R y x
i j i
y x p y y x p x y x p y x Z E
XY j i XY j i XY j i

Sean X e Y dos variables aleatorias arbitrarias. Entonces ( ) ( ) ( ) Y E X E Y X E + = + .
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
101

= + = + =
j i
j i j
i j
j i i j i
i j
j j i
i j
i
y x p y y x p x y x p y y x p x ) , ( ) , ( ) , ( ) , (

Pero ) ( ) , (

=
j
i j i
x p y x p y ) ( ) , (

=
i
j j i
y q y x p , por lo tanto
) ( ) ( ) ( ) ( Y E X E y q y x p x
j
j j i
i
i
+ = + =



Para el caso continuo la demostracin es anloga, cambiando sumatorias por integrales.

Podemos generalizar la propiedad anterior a un nmero finito cualquiera de variables aleatorias:


(leeremos: la esperanza de la suma es la suma de las esperanzas)

Dem.) Se deduce por induccin completa sobre el nmero n de variables aleatorias.


Observacin: se deduce que la esperanza verifica la propiedad lineal:

( )

= =
= |

\
|
n
i
i i
n
i
i i
X E a X a E
1 1
.

Ejemplos:
1- Vamos a aplicar algunas de las propiedades anteriores para calcular de una manera alternativa la espe-
ranza matemtica de una variable aleatoria X distribuida binomialmente.
Sea entonces una v.a. XB(n,p).
Ya vimos que podemos escribir
n
X X X X + + + = ...
2 1
donde cada
i
X se la puede considerar ) , 1 ( p B ,
y adems
n
X X X ,..., ,
2 1
son independientes
Entonces
p X P X P X P X E
i i i i
= = = = + = = ) 1 ( ) 0 ( 0 ) 1 ( 1 ) ( para cualquier i
Por lo tanto
( ) ( ) ( ) ( ) np p p p X E X E X E X X X E X E
veces n
n n
= + + + = + + + = + + + =
4 43 4 42 1
... ... ... ) (
2 1 2 1

Observacin: muchas veces es conveniente descomponer una variable aleatoria como suma de otras ms
simples para facilitar los clculos

2- Esperanza de una v.a. binomial negativa
Cuando se trat la v.a. binomial negativa se dijo cul era su esperanza. Ahora damos una demostracin
Sea X v.a. binomial negativa con parmetros r y p, es decir ) , ( ~ p r BN X
Si definimos
Sean
n
X ,..., X , X
2 1
n variables aleatorias arbitrarias. Entonces:

( ) ( ) ( ) ( )
n n
X E ... X E X E X ... X X E + + + = + + +
2 1 2 1
o, en notacin ms concentrada,:

( )

= =
= |

\
|
n
i
i
n
i
X E X E
1 1
1

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
102
1
X : nmero de repeticiones del experimento requeridos hasta el 1 xito
2
X : nmero de repeticiones del experimento adicionales requeridos hasta el 2 xito
3
X : nmero de repeticiones del experimento adicionales requeridos hasta el 3 xito
Y en general
i
X : nmero de repeticiones del experimento adicionales despus del (i-1)simo xito requeridos hasta
el i-simo xito
Entonces cada variable tiene distribucin geomtrica con parmetro p y
r
X X X X + + + = ...
2 1

Por lo tanto
( ) ( ) ( ) ( )
p
r
p
r
p p p
X E X E X E X X X E X E
veces r
r r
= = + + + = + + + = + + + =
1 1
...
1 1
... ... ) (
2 1 2 1
4 4 3 4 4 2 1


3- Esperanza de una v.a. hipergeomtrica
) ( entonces ) , ( ~ Si
N
nM
X E N M, n H X =
Para facilitar la demostracin supongamos que tenemos N bolillas en una urna de las cuales M son rojas
y N-M son blancas. Queremos hallar el nmero esperado de bolillas rojas extradas
Definimos las variables


=
contrario caso
extrada es roja bolilla sima i la si
X
i
0
1

Las variables
M
X X X ,... ,
2 1
no son independientes
Se puede escribir
M
X X X X + + + = ...
2 1
, adems

N
n
n
N
n
N
X P X E
i i
=
|
|

\
|
|
|

\
|

|
|

\
|
= = =
1
1
1
1
) 1 ( ) (
Por lo tanto

( ) ( ) ( ) ( )
N
nM
N
n
M
N
n
N
n
N
n
X E X E X E X X X E X E
veces M
Mr M
= = + + + = + + + = + + + =
4 4 3 4 4 2 1
... ... ... ) (
2 1 2 1



En general la esperanza de un producto de variables aleatorias no es igual al producto de las esperan-
zas

(leeremos: la esperanza del producto es el producto de las esperanzas).

Dem.) (caso continuo)
Si ( ) Y , X es una variable aleatoria bidimensional tal que X e Y son variables aleatorias independien-
tes, entonces: ( ) ( ) ( ) Y E . X E Y . X E =
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
103
Sea ( ) Y . X Y , X H Z = = y sea ( ) y , x f la fdp conjunta de la v.a. ( ) Y , X . Entonces, usando el teorema
que establece que ( ) ( ) [ ] ( ) ( )


= = dxdy y , x f y , x H Y , X H E Z E , tenemos:

( ) ( ) ( )


= dxdy y , x f y . x Y . X E . Pero siendo X e Y variables aleatorias independientes es
( ) ( ) ( ) y h x g y , x f = , donde ( ) x g y ( ) y h son las fdp marginales de X e Y que sabemos coinciden con las
fdp de X e Y tomadas como variables aleatorias unidimensionales. Luego:

( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) , Y E . X E
dy y yh dx x xg dxdy y h x g y . x Y . X E
=
= =




donde en la ltima igualdad tuvimos en cuenta la definicin de esperanza de v.a. unidimensionales.

Ejemplo:
Nuevamente consideramos el siguiente ejemplo
Supongamos que debido a innumerables causas incontrolables la corriente i y la resistencia r de un cir-
cuito varan aleatoriamente de forma tal que pueden considerarse como variables aleatorias I y R inde-
pendientes. Supongamos que las correspondientes fdp son:

( )


=
valores dems
i i
i g
0
1 0 2
( )


=
valores dems
r
r
r h
0
3 0
9
2

Nos interesa considerar el voltaje r . i v = de manera que podemos definir la variable aleatoria R . I V = .
Hallar el valor esperado o esperanza matemtica del voltaje: ( ) V E .
Como I y R son independientes, usando la propiedad anterior

( ) ) ( ) ( R E I E V E =

3
2
3
2 ) 2 ( ) (
1
0
3 1
0
= = =

i
di i i I E 1
9
3
9
1
4 9
1
9
) (
4
3
0
4 3
0
2
= = =
|
|

\
|
=

r
dr
r
r R E

3
2
1
3
2
) ( = = V E


Varianza de una suma de variables aleatorias


.


Dem.) Escribimos la varianza en su forma alternativa

( ) ( ) ( )
XY
Y V X V Y X V 2 + + = + con ( ) ( ) ( ) Y E . X E Y . X E
XY
=
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
104
( ) [ ] ( ) ( ) [ ]
2 2
Y X E Y X E Y X V + + = + . Desarrollamos los cuadrados y aplicamos la propiedad lineal de
la esperanza:

( ) ( ) ( ) ( ) [ ]
( ) ( ) ( ) ( ) [ ] ( ) ( ) ( ) [ ] { }
2 2 2 2
2 2 2
2 2
2
Y E Y E X E X E Y E Y . X E X E
Y E X E Y Y . X . X E Y X V
+ + + + =
+ + + = +


Agrupando convenientemente:

( ) ( ) ( ) [ ] { } ( ) ( ) [ ] { } ( ) ( ) ( ) { }
( ) ( ) ( ) ( ) ( ) { } Y E X E Y . X E Y V X V
Y E X E Y . X E Y E Y E X E X E Y X V
+ + =
+ + = +
2
2
2 2 2 2
, es decir

( ) ( ) ( )
XY
Y V X V Y X V 2 + + = +





Observaciones:
1- Teniendo presente la definicin de la desviacin estndar de una v.a. X: ( ) X V
X
= , vemos que a la
propiedad anterior la podemos escribir:

( )
XY Y X
Y X V 2
2 2
+ + = +

2- Anlogamente se prueba que ( )
XY Y X
Y X V 2
2 2
+ =

3- X e Y son independientes, entonces ( ) ( ) ( ) Y V X V Y X V Y X V + = = + ) (
Esto es porque si las variables aleatorias X e Y son independientes, entonces ( ) ( ) ( ) Y E . X E Y . X E = .
Por lo tanto la covarianza vale cero : ( ) ( ) ( ) 0 = = Y E . X E Y . X E
XY
.

4- Podemos generalizar, usando el principio de induccin completa, al caso de n variables aleatorias
independientes:
Si
n
X ,..., X , X
2 1
son n variables aleatorias independientes entonces:
( ) ( ) ( ) ( )
n n
X V ... X V X V X ... X X V + + + = + + +
2 1 2 1
o, en forma ms compacta, ( )

= =
= |

\
|
n
i
i
n
i
i
X V X V
1 1
.
5- Vemos que la esperanza de la suma de dos variables aleatorias X e Y es igual a la suma de las espe-
ranzas ( ) ( ) ( ) Y E X E Y X E + = + cualesquiera sean X e Y . En cambio la varianza de la suma de las va-
riables aleatorias X e Y es, en general, igual a la suma de las varianzas, ( ) ( ) ( ) Y V X V Y X V + = + , slo si
X e Y son variables independientes.


Ejemplos:
1- Podemos ejemplificar la aplicacin de las propiedades de la varianza, calculando nuevamente la va-
rianza de una v.a. X distribuida binomialmente con parmetros n y p.
Sea entonces una v.a. XB(n,p). Vimos que se puede escribir:
( ) ( ) ( ) Y E . X E Y . X E
XY
= se la llama la covarianza de X e Y.
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
105
n
X X X X + + + = ...
2 1
, donde las n variables aleatorias son independientes entre s y tienen todas la
misma distribucin:
( ) p B X
i
, 1 n ,..., , i 2 1 =
Entonces, tratndose de n variables aleatorias independientes
( ) ( ) ( ) ( )
n
X V X V X V X V + + + = ...
2 1
todas la varianzas son iguales y podemos escribir la suma como n
veces una cualquiera de ellas:
( ) ( )
i
X nV X V = . Pero
( ) ( ) ( ) [ ]
2 2
i i i
X E X E X V = .
Ya vimos que ( ) ( ) 0 1 0 . 1 = + = p p X E
i

Adems es: ( ) ( ) p p p X E
i
= + = 1 0 . 1
2 2 2

Entonces: ( ) ( ) ( ) [ ] ( ) p p p p X E X E X V
i i i
= = = 1
2 2 2
.
Luego:
( ) ( ) ( ) p np X nV X V
i
= = 1
que es el resultado que habamos obtenido a partir de la definicin y llevando las sumas involucradas a
la forma del desarrollo de un binomio de Newton.

2- Varianza de una v.a. binomial negativa
Ya vimos que podemos escribir
r
X X X X + + + = ...
2 1
, donde cada variable
i
X tiene distribucin
geomtrica con parmetro p
Por lo tanto
( ) ( ) ( ) ( )
2
2 1
1
...
p
p
r X V X V X V X V
r

= + + + =



5.7 - Covarianza

Sean X e Y dos variables aleatorias. La covarianza de X e Y se define:




Notacin: la notacin usual para la covarianza de X e Y es
XY
o ) , ( Y X Cov

La ltima igualdad surge de desarrollar el producto y aplicar las propiedades de la esperanza:
( ) [ ] ( ) [ ] { } ( ) ( ) ( ) ( ) { } Y E X E Y . X E Y E . X Y . X E Y E Y . X E X E + =

Teniendo presente que ( ) X E y ( ) Y E son constantes:
( ) [ ] ( ) [ ] { } ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) Y E . X E Y . X E Y E X E Y E X E Y E . X E Y . X E Y E Y . X E X E = + = .

La esperanza en la definicin debe pensarse de la siguiente manera (suponiendo que la v.a. ( ) Y , X es
continua):
( ) { } ( ) ( )


= = dxdy y x f y x H Y X H E Y X Cov , , , ) , ( con ( ) ( ) [ ] ( ) [ ] Y E y . X E x y , x H =

Ya vimos la siguiente propiedad
( ) [ ] ( ) [ ] { } ( ) ( ) ( ) Y E X E Y X E Y E Y X E X E Y X Cov . . . ) , ( = =
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
106




Dem. )
Segn vimos, si X e Y son variables aleatorias independientes, entonces ( ) ( ) ( ) Y E . X E Y . X E = , de donde
se sigue la propiedad.

Propiedades de la covarianza

Las siguientes propiedades son tiles y su verificacin se deja como ejercicio
1- ) , ( ) , ( Y X bdCov dY c bX a Cov = + +
2- ) , ( ) , ( ) , ( Z Y Cov Z X Cov Z Y X Cov + = +
3-

= = = =
=
|
|

\
|
n
i
m
j
j i
m
j
j
n
i
i
Y X Cov Y X Cov
1 1 1 1
) , ( ,
4- ) ( ) , ( X V X X Cov =

Ejemplo: Varianza de una v.a. hipergeomtrica
|

\
|

\
|
=
1
) ( entonces ) , ( ~ Si
N
n N
N
M N
N
M
n X V N M, n H X
Para facilitar la demostracin supongamos que tenemos N bolillas en una urna de las cuales M son rojas
y N-M son blancas. Queremos hallar la varianza del nmero de bolillas blancas extradas
Como antes definimos las variables


=
contrario caso
extrada es roja bolilla sima i la si
X
i
0
1

Las variables
M
X X X ,... ,
2 1
no son independientes
Se puede escribir
M
X X X X + + + = ...
2 1
, adems

N
n
n
N
n
N
X P X E
i i
=
|
|

\
|
|
|

\
|

|
|

\
|
= = =
1
1
1
1
) 1 ( ) ( y
( ) |

\
|
= |

\
|
= =
N
n
N
n
N
n
N
n
X E X E X V
i i i
1 ) ( ) ( ) (
2
2 2


Por lo tanto ) , ( 2 ) ( ) ... ( ) (
1 1
2 1 j
M
i M j i
i i M
X X Cov X V X X X V X V

= <
+ = + + + =
Por otro lado ) ( ) ( ) ( ) ; (
j i j i j i
Y E X E X X E X X Cov =

Y
) 1 (
) 1 (
) (

=
N N
n n
X X E
j i
, entonces
2
) 1 (
) 1 (
) ; ( |

\
|

=
N
n
N N
n n
X X Cov
j i


Si X e Y son variables aleatorias independientes, entonces 0 ) , ( = Y X Cov .
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
107
Aplicando algunos pasos algebraicos se llega a |

\
|
|

\
|

= |

\
|

=
N
n
N N
n
N
n
N N
n n
X X Cov
j i
1
1
1
) 1 (
) 1 (
) ; (
2

Reemplazando
(

\
|
|

\
|

|
|

\
|
+ |

\
|
= + =

= <
N
n
N
n
N
M
N
n
N
n
M X X Cov X V X V
j
M
i M j i
i i
1
1
1
2
2 1 ) , ( 2 ) ( ) (
1 1


Nuevamente, luego de algunos clculos algebraicos se llega a

|

\
|

\
|
=
1
) (
N
n N
N
M N
N
M
n X V



5.8 - Coeficiente de correlacin lineal.

En realidad ms que la covarianza aqu nos interesa considerar una cantidad relacionada con
XY
y que
segn veremos nos dar informacin sobre el grado de asociacin que existe entre X e Y . Ms concre-
tamente nos contar si existe algn grado de relacin lineal entre X e Y . Esa cantidad es el coeficiente de
correlacin lineal.
En el mismo sentido en que podemos tener una idea aproximada sobre la probabilidad de un suceso A si
repetimos el experimento y consideramos las ocurrencias de A en las n repeticiones,
as podemos tener tambin una primera idea sobre la existencia de una relacin funcional, especfica-
mente una relacin lineal, entre X e Y si consideramos un diagrama de dispersin. Consiste en dibujar
pares de valores ( )
j i
y , x medidos de la variable aleatoria ( ) Y , X en un sistema de coordenadas. En la
figura mostramos diversas situaciones posibles.




















De la figura a se deducira que entre X e Y no hay ningn tipo de relacin funcional. La figura b sugiere
la posibilidad de que exista una relacin funcional que corresponde a una parbola. La figura c, por su
parte, sugiere una relacin lineal entre X e Y . Este ltimo es el comportamiento que nos interesa caracte-
rizar. Con ese fin definimos el coeficiente de correlacin lineal como sigue:
0
0
a b c
x x
y y y
(x
i
y
i
)
x
Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
108

En consecuencia:

( ) [ ] ( ) [ ] { }
( ) ( )
( ) ( ) ( )
( ) ( ) Y V . X V
Y E . X E Y . X E
Y V . X V
Y E Y . X E X E

XY

=

= .

Daremos una serie de propiedades de
XY
que nos permitirn establecer ms concretamente su signifi-
cado.

Propiedad 1




Dem.) inmediata a partir del hecho que si X e Y son independientes entonces ) ( ) ( ) ( Y E X E XY E =

Observacin: La inversa no es necesariamente cierta. Puede ser que 0 =
XY
y sin embargo X e Y no
sean variables aleatorias independientes. En efecto si tenemos una v.a. bidimensional ( ) Y , X que da
lugar a un diagrama de dispersin como el que se muestra en la figura, veremos que correspondera a un
coeficiente de correlacin lineal 0 =
XY
y sin embargo la figura sugiere que entre X e Y existe la rela-
cin funcional 1
2 2
= +Y X , es decir X e Y son v.a. dependientes. En realidad, como veremos,
XY
es
una medida de la existencia de una relacin lineal entre X e Y y una circunferencia se aleja mucho de
una lnea recta.



Propiedad 2 :


Dem.)
y
x
0
1 2 3 -1 -2
-1
1
Sea ( ) Y , X una variable aleatoria bidimensional. Definimos el coeficiente de correlacin lineal entre
X e Y como
Y X
XY
Y X Cov

) , (
=
Si X e Y son variables aleatorias independientes entonces 0 =
XY
.
1 1
XY

Parte 1 Variables aleatorias bidimensionales Prof. Mara B. Pintarelli
109
Si consideramos la v.a.
Y X
Y X

+ entonces
( )
XY
Y X Y X Y X
Y X Cov Y V X V Y X
V

+ = + + =
|
|

\
|
+ 1 2
) , ( 2 ) ( ) (
0
2 2


Implicando que
XY
1

Por otro lado: ( )
XY
Y X Y X Y X
Y X Cov Y V X V Y X
V

= + =
|
|

\
|
1 2
) , ( 2 ) ( ) (
0
2 2


Implicando que 1
XY


1 1
XY



Propiedad 3 :






Dem.) Si 1
2
=
XY
entonces 1 =
XY
o 1 =
XY

Si 1 =
XY
entonces de la demostracin anterior se deduce que

( ) 0 1 2 = + =
|
|

\
|
+
XY
Y X
Y X
V

, lo que implica que la v.a.
Y X
Y X
Z

+ = tiene varianza cero. Segn la
interpretacin de varianza podemos deducir (en forma intuitiva) que la v.a. no tiene dispersin con res-
pecto a su esperanza, es decir la v.a. Z es una constante con probabilidad 1
Por lo tanto esto implica que B X . A Y + = con 0 < =
X
Y
A


Anlogamente 1 =
XY
implica que B X . A Y + = con 0 > =
X
Y
A



Propiedad 4 :






Dem.) se deja como ejercicio


Observacin: Claramente las propiedades anteriores establecen que el coeficiente de correlacin lineal
es una medida del grado de linealidad entre X e Y.
Si 1
2
=
XY
, entonces con probabilidad 1 es B X . A Y + = donde A y B son constantes.
Si X e Y son dos variables aleatorias tales que B X . A Y + = , donde A y B son constantes,
entonces 1
2
=
XY
. Si 0 > A es 1 =
XY
y si 0 < A es 1 =
XY
.
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
110
6- SUMA DE VARIABLES ALEATORIAS Y TEOREMA
CENTRAL DEL LMITE

6.1 Suma de variables aleatorias independientes

Cuando se estudiaron las variables aleatorias bidimensionales se habl de una funcin de variable
aleatoria bidimensional. En particular se nombr la suma de n variables aleatorias, pero no se dijo
nada sobre la distribucin de esa v.a. suma.
Es a menudo importante saber cul es la distribucin de una suma de variables aleatorias indepen-
dientes.
Consideramos algunos ejemplos en el caso discreto

1- Suma de variables aleatorias independientes con distribucin Poisson

) ( ~ ntes independie Y y ; ) ( ~ ; ) ( ~
2 1 2 1
+ + P Y X X P Y P X
Dem.)
Consideramos el evento { } n Y X = + como unin de eventos excluyentes
{ } n k k n Y k X = = 0 , , entonces
( )
=

= = = = = = = = +

= =

! !
) ( ) ( ) , ( ) (
2
0
1
0 0
2 1
k n
e
k
e k n Y P k X P k n Y k X P n Y X P
k n n
k
k n
k
n
k




X e Y independientes

( ) ( )
( )
n k n
n
k
k
n
k
k n k
n
e
k n k
n
n
e
k n k
e
2 1
) (
2
0
1
) (
0
2 1 ) (
! ! !
!
! ! !
2 1 2 1
2 1




+ =

=
+

=
+
=

+



Binomio de Newton

O sea X+Y tiene distribucin Poisson con parmetro
2 1
+

2- Suma de variables aleatorias binomiales independientes

) , ( ~ ntes independie Y y ; ) , ( ~ ; ) , ( ~
2 1 2 1
p n n B Y X X p n B Y p n B X + +

Dem.)
Nuevamente consideramos el evento { } k Y X = + como unin de eventos excluyentes
{ }
1
0 , n i i k Y i X = = , entonces
=
|
|

\
|

|
|

\
|
= = = = = = = = +
+
= = =

i k n i k i n i
n
k
n
i
n
i
p p
i k
n
p p
i
n
i k Y P i X P i k Y i X P k Y X P
2 1
1 1 1
) 1 ( ) 1 ( ) ( ) ( ) , ( ) (
2
0
1
0 0
X e Y independientes
|
|

\
|

|
|

\
|
=

=
+
i k
n
i
n
p p
n
i
k n n k 2
0
1
1
2 1
) 1 (



En la expresin anterior si r j > entonces 0 =
|
|

\
|
j
r

Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
111
Por ltimo usamos la siguiente identidad combinatoria

=
|
|

\
| +
=
|
|

\
|

|
|

\
|
1
0
2 1 2 1
n
i
k
n n
i k
n
i
n

Y entonces

k n n k
p p
k
n n
k Y X P
+

|
|

\
| +
= = +
2 1
) 1 ( ) (
2 1

O sea X+Y tiene distribucin binomial con parmetros
2 1
n n + y p

Observacin: en los dos casos anteriores se puede generalizar el resultado a n variables aleatorias
independientes, usando el principio de induccin completa, es decir
1- Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) ( ~
i i
P X para todo
n i ,..., 2 , 1 = entonces ) ( ~
0 0

= =
n
i
i
n
i
i
P X
2- Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~ p n B X
i i
para todo
n i ,..., 2 , 1 = entonces ) , ( ~
0 0
p n B X
n
i
i
n
i
i
= =



Suma de variables aleatorias normales independientes

Si X e Y son dos variables aleatorias continuas independientes con densidades g(x) y h(y) respecti-
vamente se puede probar (no lo demostraremos aqu) que la v.a. Y X Z + = tiene densidad dada
por


+
= dy y h y z g z f
Y X
) ( ) ( ) (
Usando esto se puede demostrar el siguiente importante resultado:


Por induccin completa se puede generalizar este resultado a n variables:

De lo anterior y del hecho que ( ) ) , ~ , ~
2 2 2
a b N(a b aX N X + + tenemos:


Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~
2
i i i
N X para todo
n i ,..., 2 , 1 = entonces ) , ( ~
1
2
0 0

= = =
n
i
i
n
i
i
n
i
i
N X
Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~
2
i i i
N X para todo
n i ,..., 2 , 1 = entonces ) , ( ~
1
2 2
0 0

= = =
n
i
i i
n
i
i i
n
i
i i
a a N X a donde
n
a a a ,..., ,
2 1
son nmeros reales
Si X e Y son variables aleatorias independientes donde ( ) , ~
2
1 1
N X y ( ) , ~
2
2 2
N Y enton-
ces ( ) , ~
2
2
2
1 2 1
+ + + N Y X
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
112

Se dice que

=
n
i
i i
X a
0
es una combinacin lineal de variables aleatorias.

Ejemplos:
1- La envoltura de plstico para un disco magntico est formada por dos hojas. El espesor de cada
una tiene una distribucin normal con media 1.5 milmetros y desviacin estndar de 0.1 mil-
metros. Las hojas son independientes.
a) Determine la media y la desviacin estndar del espesor total de las dos hojas.
b) Cul es la probabilidad de que el espesor total sea mayor que 3.3 milmetros?

Solucin: Sean las variables aleatorias
X: espesor de la hoja 1 e Y: espesor de la hoja 2
Entonces ) 1 . 0 , 5 . 1 ~
2
N( X ; ) 1 . 0 , 5 . 1 ~
2
N( Y y X e Y independientes
a) Si definimos la v.a. Z: espesor total de las dos hojas , entonces Y X Z + =
Por lo tanto ) 1 . 0 1 . 0 , 5 . 1 5 . 1 ~
2 2
+ + N( Z es decir ) 02 . 0 , 3 ~ N( Z
En consecuencia 3 ) ( = Z E , 02 . 0 ) ( = = Z V
Z

b) Se pide calcular ) 3 . 3 ( > Z P
( ) 017 . 0 983 . 0 1 12132 . 2 1
02 . 0
3 3 . 3
1
02 . 0
3 3 . 3
02 . 0
3
) 3 . 3 ( = = =
|
|

\
|
=
|
|

\
|
>

= >
Z
P Z P

2-Tengo tres mensajes que atender en el edificio administrativo. Sea X
i
: el tiempo que toma el i-
simo mensaje (i = 1, 2 ,3), y sea X
4
: el tiempo total que utilizo para caminar hacia y desde el
edificio y entre cada mensaje. Suponga que las X
i
son independientes, normalmente distribui-
das, con las siguientes medias y desviaciones estndar:
3 , 12 , 2 , 8 , 1 , 5 , 4 min, 15
4 4 3 3 2 2 1 1
= = = = = = = =
Pienso salir de mi oficina precisamente a las 10.00 a.m. y deseo pegar una nota en mi puerta que
dice regreso a las t a.m. A qu hora t debo escribir si deseo que la probabilidad de mi llegada
despus de t sea 0.01?

Solucin: Definimos la v.a. Z: tiempo transcurrido desde que salgo de mi oficina hasta que re-
greso, entonces
4 3 2 1
X X X X T + + + =
Por lo tanto |

\
|

= =
4
1
2
4
1
, ~
i
i
i
i
N T , y se pide hallar t tal que 01 . 0 ) ( = > t T P
50 12 8 5 15
4
1
= + + + =

= i
i
y 30 3 2 1 4
2 2 2
4
1
2 2
= + + + =

= i
i


Entonces 01 . 0
30
50
1 ) ( =
|
|

\
|
= >
t
t T P , es decir 99 . 0
30
50
=
|
|

\
|

t

Buscando en la tabla de la normal 7619 . 62 50 30 33 . 2 33 . 2
30
50
= + = =

t
t


3- El ancho del marco de una puerta tiene una distribucin normal con media 24 pulgadas y des-
viacin estndar de 1/8 de pulgada. El ancho de la puerta tiene una distribucin normal con me-
dia 23.875 de pulgadas y desviacin estndar de 1/16 de pulgadas. Suponer independencia.
a) Determine la distribucin, la media y la desviacin estndar de la diferencia entre el ancho
del marco y de la puerta.
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
113
b) Cul es la probabilidad de que la diferencia entre el ancho del marco y de la puerta sea ma-
yor que de pulgada?.
c) Cul es la probabilidad de que la puerta no quepa en el marco?.

Solucin: Sean las variables aleatorias
X: ancho del marco de la puerta en pulgadas
Y: ancho de la puerta en pulgadas
Entonces ) 1/8) ( , 24 ~
2
N( X , ) 1/16) ( , 875 . 23 ~
2
N( Y , X e Y independientes
a) Se pide la distribucin de X-Y , ) ( Y X E , ) ( Y X V
Y X
=


125 . 0 875 . 23 24 ) ( ) ( ) ( = = = Y E X E Y X E

16
5

256
5
16
1
8
1
) ( ) ( ) (
2 2
= = |

\
|
+ |

\
|
= + =
Y X
Y V X V Y X V
Por lo tanto
|
|

\
|
|
|

\
|

2
16
5
, 125 . 0 ~ N Y X
b) Se pide la probabilidad ) 4 / 1 ( > Y X P
1867 . 0 8133 . 0 1 ) 8944 . 0 ( 1
5
5 2
1
16
5
125 . 0 25 . 0
1 ) 4 / 1 ( = = =
|
|

\
|
=
|
|
|
|

\
|

= > Y X P
c) Si la puerta no entra en el marco entonces se da el evento { } Y X < o equivalentemente
{ } 0 < Y X , por lo tanto
1867 . 0
5
5 2
1
5
5 2
16
5
125 . 0 0
) 0 ( =
|
|

\
|
=
|
|

\
|
=
|
|
|
|

\
|

= < Y X P

4- Supongamos que las variables aleatorias X e Y denotan la longitud y el ancho en cm, respecti-
vamente, de una pieza.
Supongamos adems que X e Y son independientes y que X ~ N(2 , 0.1
2
) , Y ~ N(5 , 0.2
2
).
Entonces Z = 2X + 2Y es una v.a. que representa el permetro de la pieza.
Calcular la probabilidad de que el permetro sea mayor que 14.5 cm.

Solucin: tenemos que ( )
2 2 2 2
2 . 0 2 1 . 0 2 , 5 2 2 2 ~ + + N Z , o sea ( ) 0.2 , 14 ~ N Z
La probabilidad pedida es ) 5 . 14 ( > Z P , entonces
( ) 119 . 0 8810 . 0 1 1180 . 1 1
2
5
1
2 . 0
14 5 . 14
1 ) 5 . 14 ( = = =
|
|

\
|
=
|
|

\
|
= > Z P

5- Si se aplican dos cargas aleatorias
2 1
y X X a una viga voladiza como se muestra en la figura si-
guiente, el momento de flexin en 0 debido a las cargas es
2 2 1 1
X a X a + .
a) Suponga que
2 1
y X X son v.a. independientes con medias 2
y 4 KLbs respectivamente, y desviaciones estndar 0.5 y
1.0 KLbs, respectivamente.

Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
114
Si 5
1
= a pies y 10
2
= a pies, cul es el momento de flexin esperado y cul es la desviacin
estndar del momento de flexin?
b) Si
2 1
y X X estn normalmente distribuidas, cul es la probabilidad de que el momento de
flexin supere 75 KLbs?

Solucin: Sea la v.a. Z: momento de flexin en 0, entonces
2 1
10 5 X X Z + =
Por lo tanto
a) 50 4 10 2 5 ) ( 10 ) ( 5 ) (
2 1
= + = + = X E X E Z E

4
65

4
65
1 10 25 . 0 25 1 10 5 . 0 5 ) (
2 2 2 2
= = + = + =
Z
Z V
b) Si
2 1
y X X estn normalmente distribuidas, entonces |

\
|
4
65
, 50 ~ N Z
Por lo tanto
( ) 0 1 1 20 . 6 1
13
65 10
1
4
65
50 75
1 ) 75 ( = =
|
|

\
|
=
|
|
|
|

\
|

= > Z P


Promedio de variables aleatorias normales independientes

Dem.) Notar que
n
X
X
n
i
i
=
=
1
es un caso particular de combinacin lineal de variables aleatorias
donde
n
a
i
1
= para todo n i ,..., 2 , 1 =
Adems en este caso =
i
y
2 2
=
i
para todo n i ,..., 2 , 1 =
Por lo tanto, X tiene distribucin normal con esperanza = = =

= =
n
i
n
i
i
n
n n n
1 1
1 1 1
y varian-
za
n
n
n n n
n
i
i
n
i
2
2
2
2
2
1
2
2
1
1 1 1
= |

\
|
= |

\
|
= |

\
|

= =

Es decir,
|
|

\
|
n
N X
2
, ~


Observacin: a X se lo llama promedio muestral o media muestral

Si
n
X X X ,..., ,
2 1
son n variables aleatorias independientes donde ) , ( ~
2
N X
i
para todo
n i ,..., 2 , 1 = entonces la v.a.
n
X
X
n
i
i
=
=
1
tiene distribucin normal con
media y varianza
n
2


Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
115


Ejemplo:
Una mquina embotelladora puede regularse de tal manera que llene un promedio de onzas por
botella. Se ha observado que la cantidad de contenido que suministra la mquina presenta una dis-
tribucin normal con 1 = onza. De la produccin de la mquina un cierto da, se obtiene una
muestra de 9 botellas llenas (todas fueron llenadas con las mismas posiciones del control operati-
vo) y se miden las onzas del contenido de cada una.
a) Determinar la probabilidad de que la media muestral se encuentre a lo ms a 0.3 onzas de la
media real para tales posiciones de control
b) Cuntas observaciones deben incluirse en la muestra si se desea que la media muestral est a
lo ms a 0.3 onzas de con una probabilidad de 0.95?

Solucin:
a) Sean las variables aleatorias :
i
X contenido en onzas de la botella i 9 ,..., 2 , 1 = i
Entonces ( ) 1 , ~ N X
i
para cada i.
Por lo tanto |

\
|
9
1
, ~ N X . Se desea calcular

6318 . 0 1 ) 9 . 0 ( 2
) 9 . 0 ( ) 9 . 0 ( 9 . 0 9 . 0
3 . 0 3 . 0
3 . 0 3 . 0
) 3 . 0 3 . 0 ( ) 3 . 0 (
= =
= =
|
|
|

\
|

=
|
|
|

\
|

=
=
|
|
|

\
|

= =
n
X
P
n n
X
n
P
n n
X
n
P X P X P




b) Ahora se pretende que
95 . 0 ) 3 . 0 3 . 0 ( ) 3 . 0 ( = = X P X P
Entonces
95 . 0 3 . 0
1
3 . 0
3 . 0 3 . 0
) 3 . 0 ( =
|
|
|

\
|

=
|
|
|

\
|

= n
n
X
n P
n n
X
n
P X P


Mediante la tabla de la acumulada de la normal estndar se tiene que


( ) ( ) ( ) 96 . 1 3 . 0 0.975 3 . 0 95 . 0 1 3 . 0 2 3 . 0
1
3 . 0 = = = =
|
|
|

\
|

n n n n
n
X
n P



O sea 68 . 42
3 . 0
96 . 1
2
= |

\
|
n
Si tomamos 43 = n , entonces ) 3 . 0 ( X P ser un poco mayor que 0.95


Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
116
6.2 - Teorema central del lmite

Acabamos de ver que la suma de un nmero finito n de variables aleatorias independientes que
estn normalmente distribuidas es una variable aleatoria tambin normalmente distribuida. Esta
propiedad reproductiva no es exclusiva de la distribucin normal. En efecto, por ejemplo, ya vimos
que existen variables aleatorias discretas que la cumplen, es el caso de la Poisson y la Binomial.
En realidad, la propiedad que le da a la distribucin normal el lugar privilegiado que ocupa entre
todas las distribuciones es el hecho de que la suma de un nmero muy grande, rigurosamente un
nmero infinito numerable, de variables aleatorias independientes con distribuciones arbitrarias
(no necesariamente normales) es una variable aleatoria que tiene, aproximadamente, una distribu-
cin normal. Este es, esencialmente, el contenido del

Dem.) sin demostracin

Observaciones:
1- Notar que ( ) ( ) n X E X E S E
n
i
i
n
i
i n
= = |

\
|
=

= = 1 1
y ( ) ( )
2
1 1
n X V X V S V
n
i
i
n
i
i n
= = |

\
|
=

= =

Por lo tanto
2

n
n S
Z
n
n

= es la v.a.
n
S estandarizada
2- Notar que
|
|
|

\
|

=
|
|
|
|
|

\
|

=
|
|

\
|

n
X
P z
n
n
n
n S
P z
n
n S
P
n
n

2 2
, por lo tanto tambin se puede
enunciar el Teorema central del lmite de la siguiente forma

Donde
n
X
Z
n


=
es el promedio muestral estandarizado
Teorema central del lmite (T.C.L.):
Sean
n
X ,..., X , X
2 1
variables aleatorias independientes con ( ) =
i
X E y ( )
2
=
i
X V para todo
n ,..., , i 2 1 = , es decir independientes idnticamente distribuidas
Sea la v.a.

=
=
n
i
i n
X S
1
y sea
2

n
n S
Z
n
n

= .
Entonces ( ) ( ) z z Z P lim
n
n
=

, esto es


=
|
|

\
|

z
x
n
n
dx e z
n
n S
P
2
2
2
2
1
lim


Sean
n
X ,..., X , X
2 1
variables aleatorias independientes con ( ) =
i
X E y ( )
2
=
i
X V para todo
n ,..., , i 2 1 = , es decir independientes idnticamente distribuidas
Sea la v.a. promedio muestral

=
=
n
i
i
X
n
X
1
1
y sea
n
X
Z
n


=
.
Entonces ( ) ( ) z z Z P lim
n
n
=

, esto es


=
|
|

\
|

z
x
n
dx e z
n
X
P
2
2
2
1
lim


Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
117
3- Aunque en muchos casos el T.C.L. funciona bien para valores de n pequeos , en particular
donde la poblacin es continua y simtrica, en otras situaciones se requieren valores de n mas
grandes, dependiendo de la forma de la distribucin de las
i
X . En muchos casos de inters prcti-
co, si 30 n , la aproximacin normal ser satisfactoria sin importar cmo sea la forma de la dis-
tribucin de las
i
X . Si 30 < n , el T.C.L. funciona si la distribucin de las
i
X no est muy alejada
de una distribucin normal

4- Para interpretar el significado del T.C.L., se generan (por computadora) n valores de una v.a.
exponencial con parmetro 5 . 0 = , y se calcula el promedio de esos n valores. Esto se repite 1000
veces, por lo tanto tenemos 1000 valores de la v.a. X .
Hacemos un histograma de frecuencias de X , esto es, tomamos un intervalo ) , ( b a donde
caen todos los valores de X , y lo subdividimos en intervalos mas chicos de igual longitud. La
frecuencia de cada subintervalo es la cantidad de valores de X que caen en dicho subintervalo.
Se grafican estas frecuencias obtenindose los grficos siguientes que se pueden considerar una
aproximacin a la verdadera distribucin de X .
Se observa que a medida que aumenta el valor de n los grficos se van haciendo ms simtricos,
parecindose a la grfica de una distribucin normal.






Ejemplos:
1- Supngase que 30 instrumentos electrnicos D
1
, D
2
, ......,D
30
, se usan de la manera siguiente: tan
pronto como D
1
falla empieza a actuar D
2
. Cuando D
2
falla empieza a actuar D
3
, etc. Supngase
que el tiempo de falla de D
i
es una v.a. distribuida exponencialmente con parmetro = 0.1 por
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
50
100
150

12 34 567 891011121314151617181920212223242526272829303132
20
40
60
80

1 2 3 4 5 6 7 8 91011121314151617181920212223242526272829
10
20
30
40
50


1 2 3 4 5 6 7 8 9 10111213141516171819202122
10
20
30
40


n=2
n = 5
n = 15
n = 30
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
118
hora. Sea T el tiempo total de operacin de los 30 instrumentos. Cul es la probabilidad de que T
exceda 350 horas?

Solucin:
Si
i
X : tiempo de falla del instrumento
i
D 30 ,..., 2 , 1 = i
Entonces ) 1 . 0 ( ~ Exp X
i
para 30 ,..., 2 , 1 = i
El tiempo total de operacin de los 30 instrumentos es

=
=
30
1 i
i
X T , donde
300
1 . 0
1
30 ) ( 30 ) (
30
1
= = = |

\
|
=

=
i
i
i
X E X E T E

3000
1 . 0
1
30 ) ( 30 ) (
2
30
1
= = = |

\
|
=

=
i
i
i
X V X V T V
Entonces por T.C.L. N(0,1) ~
3000
300 T
aproximadamente pues 30 = n
La probabilidad pedida es
( ) 18141 . 0 81859 . 0 1 9128 . 0 1
3000
300 350
1
3000
300 350
3000
300
) 350 ( = = =
|
|

\
|

|
|

\
|
>

= >
T
P T P

T.C.L.

2- Suponga que el consumo de caloras por da de una determinada persona es una v.a. con media
3000 caloras y desviacin estndar de 230 caloras. Cul es la probabilidad de que el promedio
de consumo de caloras diario de dicha persona en el siguiente ao (365 das) sea entre 2959 y
3050?

Solucin:
Definimos las variables aleatorias
i
X : cantidad de caloras que una persona consume en el da i 365 ,..., 2 , 1 = i
Se sabe que 3000 ) ( =
i
X E y
2
230 ) ( =
i
X V
Si

=
=
365
1
365
1
i
i
X X entonces 3000 ) ( = X E y
365
230
) (
2 2
= =
n
X V


La probabilidad pedida es
( )
( ) ( ) 1 0 1 40 . 3 15 . 4
365
230
3000 2959
365
230
3000 3050
365
230
3000 3050
365
230
3000
365
230
3000 2959
3050 2959
= =
|
|
|

\
|


|
|
|

\
|

|
|
|

\
|

=
X
P X P
T.C.L.






Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
119
Aplicaciones del Teorema central del lmite

Aproximacin normal a la distribucin binomial
El Teorema central del lmite se puede utilizar para aproximar las probabilidades de algunas varia-
bles aleatorias discretas cuando es difcil calcular las probabilidades exactas para valores grandes
de los parmetros.
Supongamos que X tiene una distribucin binomial con parmetros n y p. Para calcular ) ( k X P
debemos hacer la suma

=
= =
k
i
i X P k X P
0
) ( ) ( o recurrir a las tablas de la F.d.a. , pero para valo-
res de n grandes no existen tablas, por lo tanto habra que hacer el clculo en forma directa y mu-
chas veces es laborioso.
Como una opcin podemos considerar a X como suma de variables aleatorias ms simples, espec-
ficamente, si definimos


=
contrario caso
xito ocurre de repeticin sima la en si
X
i
0
1
n i ,..., 2 , 1 =
entonces cada
i
X se la puede considerar ) , 1 ( p B , y adems
n
X X X ,..., ,
2 1
son independientes
Podemos escribir

=
= + + + =
n
i
i n
X X X X X
1
2 1
... y si n es grande entonces X tendr aproxima-
damente una distribucin normal con parmetros np y ) 1 ( p np , es decir
( )
( ) 1 , 0
1 .
.
2
N
p p n
p n X
n
n X
Z
n

si n es lo suficientemente grande

Observaciones:
1- La aproximacin normal a la distribucin binomial funciona bien aun cuando n no sea muy
grande si p no est demasiado cerca de cero o de uno. En particular la aproximacin normal a la
binomial es buena si n es grande , 5 > np y 5 ) 1 ( > p n , pero es ms efectivo aplicar esta aproxi-
macin cuando 10 > np y 10 ) 1 ( > p n

2- Correccin por continuidad.
Acabamos de ver que si XB(n,p) entonces, para n suficientemente grande, podemos considerar
que aproximadamente es X ( ) [ ] p p . n , p . n N 1 . El problema que surge de inmediato si deseo cal-
cular, por ejemplo, la probabilidad de que k X = (con k alguno de los valores posibles 0,1,2,,n)
es que la binomial es una distribucin discreta y tiene sentido calcular probabilidades como
( ) k X P = mientras que la normal es una distribucin continua y, en consecuencia, ( ) 0 = = k X P
puesto que para una variable aleatoria continua la probabilidad de que sta tome un valor aislado
es cero. Esto se resuelve si se considera ( ) |

\
|
+ =
2
1
2
1
k X k P k X P
Tambin se puede usar esta correccin para mejorar la aproximacin en otros casos, especfica-
mente en lugar de ) ( k X P calculamos
|

\
|
+
2
1
) ( k X P k X P
Y en lugar de |

\
|

2
1
) ( k X P k X P
En los grficos siguientes se muestra para diferentes valores de n y p cmo aproxima la distribu-
cin )) 1 ( , ( p np np N a la distribucin ) , ( p n B
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
120




5 10 15 20 25
0.025
0.05
0.075
0.1
0.125
0.15
0.175
2 4 6 8 10 12 14
0.05
0.1
0.15
0.2



5 10 15 20
0.05
0.1
0.15
0.2
0.25
0.3
0.35
50 60 70 80 90 100
0.02
0.04
0.06
0.08





20 40 60 80 100 120 140
0.02
0.04
0.06
0.08
0.1
2 4 6 8 10
0.1
0.2
0.3
0.4




Ejemplos:
1- Sea X B(25,0.4). Hallar las probabilidades exactas de que 8 X y 8 = X y comparar estos
resultados con los valores correspondientes encontrados por la aproximacin normal.

Solucin:
De la tabla de la F.d.a. de la binomial encontramos 274 . 0 ) 8 ( = X P
Y 120 . 0 154 . 0 274 . 0 ) 7 ( ) 8 ( ) 8 ( = = = = X P X P X P
Ahora usamos la aproximacin normal
n = 25
p = 0.7
n = 15
p = 0.5
n =15
p = 0.9
n = 100
p = 0.7
n = 150
p = 0.1
n = 10
p = 0.1
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
121
( ) 2709 . 0 61 . 0
6 . 0 4 . 0 25
10 5 . 8
) 1 (
) 5 . 8 ( ) 8 ( =
|
|

\
|

=
p np
np X
P X P X P
correccin por continuidad

Observar que el valor aproximado est muy cercano al valor exacto para 274 . 0 ) 8 ( = X P

( )
1170 . 0 1593 . 0 2709 . 0
61 . 0
6
10
02 . 1
6
10 5 . 8
6
10
6
10 5 . 7
5 . 8 5 . 7 ) 8 (
= =
=
|
|

\
|

=
|
|

\
|

= =
X
P
X
P X P X P


Nuevamente este valor aproximado est muy cerca del valor real de 120 . 0 ) 8 ( = = X P

2- Suponga que el 10% de todos los ejes de acero producidos por cierto proceso estn fuera de
especificaciones, pero se pueden volver a trabajar (en lugar de tener que enviarlos a la chatarra).
Considere una muestra aleatoria de 200 ejes y denote por X el nmero entre ellos que estn fuera
de especificaciones y se puedan volver a trabajar. Cul es la probabilidad (aproximada) de que X
sea
a) a lo sumo 30?
b) menos de 30?
c) entre 15 y 25 (inclusive)?

Solucin:
Sea la v.a. X: nmero de ejes fuera de especificaciones
Entonces ) 1 . 0 , 200 ( ~ B X , adems 5 20 1 . 0 200 > = = np y 5 180 ) 1 . 0 1 ( 200 ) 1 ( > = = p n
Por lo tanto podemos aplicar la aproximacin normal a la binomial
a) la probabilidad pedida es ) 30 ( X P
( ) 993244 . 0 474 . 2
18
20 5 . 30
18
20 5 . 30
) 1 (
) 5 . 30 ( ) 30 ( = =
|
|

\
|

|
|

\
|

=
p np
np X
P X P X P
b) La probabilidad pedida es ) 30 ( < X P
Al ser X una v.a. discreta con distribucin binomial ) 29 ( ) 30 ( = < X P X P
( ) 98745 . 0 2391 . 2
18
20 5 . 29
) 5 . 29 ( ) 29 ( = =
|
|

\
|
X P X P
c)

( ) ( )
( ) ( ) ( ) 80294 . 0 1 90147 . 0 2 1 2963 . 1 2 2963 . 1 2963 . 1
18
20 5 . 14
18
20 5 . 25
5 . 25 5 . 14 25 15
= = = =
=
|
|

\
|

|
|

\
|
X P X P


3- El gerente de un supermercado desea recabar informacin sobre la proporcin de clientes a los
que no les agrada una nueva poltica respecto de la aceptacin de cheques. Cuntos clientes ten-
dra que incluir en una muestra si desea que la fraccin de la muestra se desve a lo mas en 0.15 de
la verdadera fraccin, con probabilidad de 0.98?.

Solucin:
Sea X: nmero de clientes a los que no les agrada la nueva poltica de aceptacin de cheques
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
122
Entonces ) , ( ~ p n B X donde p es desconocido y es la verdadera proporcin de clientes a los que
no les agrada la nueva poltica de aceptacin de cheques. El gerente tomar una muestra de n clien-
tes para estimar p con
n
X
X = ya que
n
X
X = es la proporcin de clientes a los que no les
agrada la nueva poltica de aceptacin de cheques en la muestra de n clientes. Si no se toman a
todos los clientes, entonces
n
X
X = no ser igual a p.
La pregunta es cul debe ser n para que
n
X
X = se aleje del verdadero p en menos de 0.15 con
probabilidad 0.98 por lo menos, o sea para que ( ) 98 . 0 15 . 0 p X P
Entonces planteamos
( ) ( )
|
|

\
|

= =
) 1 (
15 . 0
) 1 ( ) 1 (
15 . 0
15 . 0 15 . 0 15 . 0
p np
n
p np
np X
p np
n
P p X P p X P
T.C.L.
98 . 0 1
) 1 (
15 . 0
2
) 1 (
15 . 0
) 1 (
15 . 0

|
|

\
|

=
|
|

\
|


|
|

\
|


p np
n
p np
n
p np
n


Por lo tanto 99 . 0
2
1 98 . 0
) 1 (
15 . 0
=
+

|
|

\
|

p np
n


Adems n
n
p p
n
p np
n
3 . 0
) 5 . 0 1 ( 5 . 0
15 . 0
) 1 (
15 . 0
) 1 (
15 . 0
=



Entonces debe cumplirse que 33 . 2 3 . 0 n o sea 3211 . 60
3 . 0
33 . 2
2
= |

\
|
n

O sea se debe tomar una muestra de al menos 61 clientes


Aproximacin normal a la distribucin Poisson

Se puede probar aplicando Teorema central del lmite que


Es decir para suficientemente grande ) 1 , 0 ( N
X


En la prctica si 30 la aproximacin es buena.

Si ) ( ~ P X entonces para suficientemente grande

X
tiene aproximadamente distribu-
cin ) 1 , 0 ( N
Parte 1 Suma de variables aleatorias y
Teorema central del lmite Prof. Mara B. Pintarelli
123
Observacin: la demostracin es sencilla si es igual a un nmero natural n pues, si considera-
mos las variables aleatorias ) 1 ( ~ P X
i
con n i ,..., 2 , 1 = independientes, entonces ya sabemos que
|

\
|

= =
n
i
n
i
i
P X
1 1
1 ~ , es decir ) ( ~
1
n P X
n
i
i
=

Pero adems por T.C.L. si n es grande

=
n
i
i
X
1
tiene aproximadamente distribucin normal con pa-
rmetros n n n = = 1 y n n n = = 1
2

O sea la distribucin de

=
n
i
i
X
1
que es exactamente Poisson con parmetro n, se puede aproximar
con una ) , ( n n N , por lo tanto ) 1 , 0 ( N
n
n X

aproximadamente para valores de n suficientemente


grandes
En los grficos siguientes se muestra para diferentes valores de cmo aproxima la distribucin
) , ( N a la distribucin ) ( P

20 40 60 80 100
0.01
0.02
0.03
0.04
0.05
5 10 15 20 25 30
0.05
0.1
0.15
0.2


Ejemplo:
El nmero de infracciones por estacionamiento en cierta ciudad en cualquier da hbil tiene una
distribucin de Poisson con parmetro = 50. Cul es la probabilidad aproximada de que:
a) entre 35 y 70 infracciones se expidan en un da en particular?
b) el nmero total de infracciones expedidas durante una semana de 5 das sea entre 225 y 275?

Solucin:
Sea X: nmero de infracciones por estacionamiento en cierta ciudad en cualquier da hbil
Entonces ) ( ~ P X donde 50 =
Como 50 = entonces ) 1 , 0 (
50
50
N
X

(aproximadamente)
a) la probabilidad pedida es

( ) ( ) ( )
9805 . 0 017 . 0 997599 . 0
12132 . 2 8284 . 2
50
50 35
50
50 70
70 35
= =
= =
|
|

\
|

|
|

\
|
X P

b) Sea Y: nmero total de infracciones expedidas durante una semana de 5 das
Entonces ) ( ~ P Y donde 250 5 50 = =
La probabilidad pedida es

( ) ( ) ( )
( ) 8859 . 0 1 94295 . 0 2 1 5811 . 1 2
5811 . 1 5811 . 1
250
250 225
250
250 275
275 225
= = =
= =
|
|

\
|

|
|

\
|
Y P

50 =
3 =
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
124
PARTE 2 - ESTADISTICA

7- Estimacin puntual

7. 1 Introduccin

Supongamos la siguiente situacin: en una fbrica se producen artculos, el inters est en la produc-
cin de un da, especficamente, de todos los artculos producidos en un da nos interesa una caracte-
rstica determinada, si el artculo es o no defectuoso. Sea p la proporcin de artculos defectuosos en
la poblacin, es decir en la produccin de un da.
Tomamos una muestra de 25 artculos, podemos definir la v.a. X: nmero de artculos defectuosos
en la muestra, y podemos asumir que ) , 25 ( ~ p B X .
En Probabilidades se conocan todos los datos sobre la v.a. X, es decir conocamos p. De esa forma
podamos responder preguntas como: cul es la probabilidad que entre los 25 artculos halla 5 de-
fectuosos?. Si, por ejemplo, 1 . 0 = p entonces calculbamos ) 5 ( = X P donde ) 1 . 0 , 25 ( ~ B X .
En Estadstica desconocemos las caractersticas de X total o parcialmente, y a partir de la muestra
de 25 artculos tratamos de inferir informacin sobre la distribucin de X, o dicho de otra forma tra-
tamos de inferir informacin sobre la poblacin.
Por ejemplo, en estadstica sabremos que X tiene distribucin binomial pero desconocemos p, y a
partir de la muestra de 25 artculos trataremos de hallar informacin sobre p.
En Estadstica nos haremos preguntas tales como: si en la muestra de 25 artculos se encontraron 5
defectuosos, ese hecho me permite inferir que el verdadero p es 0.1?.
El campo de la inferencia estadstica est formado por los mtodos utilizados para tomar decisiones
o para obtener conclusiones sobre el o los parmetros de una poblacin. Estos mtodos utilizan la
informacin contenida en una muestra de la poblacin para obtener conclusiones.
La inferencia estadstica puede dividirse en dos grandes reas: estimacin de parmetros y pruebas
de hiptesis.


7.2 Muestreo aleatorio

En muchos problemas estadsticos es necesario utilizar una muestra de observaciones tomadas de la
poblacin de inters con objeto de obtener conclusiones sobre ella. A continuacin se presenta la
definicin de algunos trminos

En muchos problemas de inferencia estadstica es poco prctico o imposible, observar toda la pobla-
cin, en ese caso se toma una parte o subconjunto de la poblacin




Para que las inferencias sean vlidas, la muestra debe ser representativa de la poblacin. Se seleccio-
na una muestra aleatoria como el resultado de un mecanismo aleatorio. En consecuencia, la seleccin
de una muestra es un experimento aleatorio, y cada observacin de la muestra es el valor observado
de una variable aleatoria. Las observaciones en la poblacin determinan la distribucin de probabili-
dad de la variable aleatoria.
Una poblacin est formada por la totalidad de las observaciones en las cuales se tiene cierto
inters
Una muestra es un subconjunto de observaciones seleccionada de una poblacin
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
125
Para definir muestra aleatoria, sea X la v.a. que representa el resultado de tomar una observacin de
la poblacin. Sea ) (x f la f.d.p. de la v.a. X. supongamos que cada observacin en la muestra se ob-
tiene de manera independiente, bajo las mismas condiciones. Es decir, las observaciones de la mues-
tra se obtienen al observar X de manera independiente bajo condiciones que no cambian, digamos n
veces.
Sea
i
X la variable aleatoria que representa la i-sima observacin. Entonces
n
X X X ,..., ,
2 1
constitu-
yen una muestra aleatoria, donde los valores numricos obtenidos son
n
x x x ,..., ,
2 1
. Las variables
aleatorias en una muestra aleatoria son independientes, con la misma distribucin de probabilidad
f(x) debido a que cada observacin se obtiene bajo las mismas condiciones. Es decir las funciones de
densidad marginales de
n
X X X ,..., ,
2 1
son todas iguales a f(x) y por independencia, la distribucin de
probabilidad conjunta de la muestra aleatoria es el producto de las marginales ) ( )... ( ) (
2 1 n
x f x f x f

El propsito de tomar una muestra aleatoria es obtener informacin sobre los parmetros desconoci-
dos de la poblacin. Por ejemplo, se desea alcanzar una conclusin acerca de la proporcin de artcu-
los defectuosos en la produccin diaria de una fbrica. Sea p la proporcin de artculos defectuosos
en la poblacin, para hacer una inferencia con respecto a p, se selecciona una muestra aleatoria (de
un tamao apropiado) y se utiliza la proporcin observada de artculos defectuosos en la muestra
para estimar p.
La proporcin de la muestra p se calcula dividiendo el nmero de artculos defectuosos en la mues-
tra por el nmero total de artculos de la muestra. Entonces p es una funcin de los valores observa-
dos en la muestra aleatoria. Como es posible obtener muchas muestras aleatorias de una poblacin,
el valor de p cambiar de una a otra. Es decir p es una variable aleatoria. Esta variable aleatoria se
conoce como estadstico.





Estadsticos usuales

Sea
n
X X X ,..., ,
2 1
una muestra aleatoria de una v.a. X donde = ) ( X E y
2
) ( = X V
Si desconocemos un estadstico que se utiliza para estimar ese parmetro es la media o promedio
muestral

=
=
n
i
i
X
n
X
1
1

Anlogamente si se desconoce
2
un estadstico usado para tener alguna informacin sobre ese pa-
rmetro es la varianza muestral que se define como ( )

=
n
i
i
X X
n
S
1
2
2
1
1

Otro estadstico es la desviacin estndar muestral ( )

=
n
i
i
X X
n
S
1
2
1
1

Como un estadstico es una variable aleatoria, ste tiene una distribucin de probabilidad, esperanza
y varianza.
Las variables aleatorias ( )
n
X X X ,..., ,
2 1
constituyen una muestra aleatoria de tamao n de una
v.a. X si
n
X X X ,..., ,
2 1
son independientes idnticamente distribuidas
Un estadstico es cualquier funcin de la muestra aleatoria
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
126
Una aplicacin de los estadsticos es obtener estimaciones puntuales de los parmetros desconoci-
dos de una distribucin. Por ejemplo como se dijo antes se suelen estimar la media y la varianza de
una poblacin.
Cuando un estadstico se utiliza para estimar un parmetro desconocido se lo llama estimador pun-
tual. Es habitual simbolizar en forma genrica a un parmetro con la letra y al estadstico que se
utiliza como estimador puntual de , simbolizarlo con

.
Por lo tanto

es una funcin de la muestra aleatoria: ( )


n
X X X h ,..., ,

2 1
=
Al medir la muestra aleatoria se obtienen
n
x x x ,..., ,
2 1
, y entonces el valor que toma

es
( )
n
x x x h ,..., ,

2 1
= y se denomina estimacin puntual de
El objetivo de la estimacin puntual es seleccionar un nmero, a partir de los valores de la muestra,
que sea el valor ms probable de .
Por ejemplo, supongamos que
4 3 2 1
, , , X X X X es una muestra aleatoria de una v.a. X. Sabemos que X
tiene distribucin normal pero desconocemos .
Tomamos como estimador de al promedio muestral X , es decir X =
Tomamos la muestra (medimos
4 3 2 1
, , , X X X X ) y obtenemos 32 , 27 , 30 , 24
4 3 2 1
= = = = x x x x
Entonces la estimacin puntual de es 25 . 28
4
32 27 30 24
=
+ + +
= x
Si la varianza
2
de X tambin es desconocida, un estimador puntual usual de
2
es la varianza
muestral, es decir ( )

=
n
i
i
X X
n
S
1
2
2
1
1
, para la muestra dada la estimacin de
2
es 12.25.
Otro parmetro que a menudo es necesario estimar es la proporcin p de objetos de una poblacin
que cumplen una determinada caracterstica.
En este caso el estimador puntual de p sera

=
=
n
i
i
X
n
p
1
1
donde


=
contrario caso
ers de tica caracters la tiene n observaci sima la si
X
i
0
int 1
n i ,..., 2 , 1 =
Por lo tanto

=
=
n
i
i
X
n
p
1
1
es la proporcin de objetos en la muestra cumplen la caracterstica de inte-
rs

Puede ocurrir que se tenga ms de un estimador para un parmetro, por ejemplo para estimar la me-
dia muestral se pueden considerar el promedio muestral, o tambin la semisuma entre
1
X y
n
X , es
decir
2

1 n
X X +
= . En estos casos necesitamos de algn criterio para decidir cul es mejor estima-
dor de .


7.3 Criterios para evaluar estimadores puntuales

Lo que se desea de un estimador puntual es que tome valores prximos al verdadero parmetro.
Podemos exigir que el estimador

tenga una distribucin cuya media sea .


Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
127



Notar que si un estimador es insesgado entonces su sesgo es cero

Ejemplos:
1- Sea
n
X X X ,..., ,
2 1
una muestra aleatoria de una v.a. X donde = ) ( X E y
2
) ( = X V
Si desconocemos un estadstico que se utiliza usualmente para estimar este parmetro es la media
o promedio muestral

=
=
n
i
i
X
n
X
1
1
. Veamos si es un estimador insesgado de . Debemos ver si
( ) = X E .

Usamos las propiedades de la esperanza, particularmente la propiedad de linealidad.

( ) ( )

= = =
= |

\
|
= |

\
|
=
n
i
i
n
i
i
n
i
i
X E
n
X E
n
X
n
E X E
1 1 1
1 1 1
.
Pero, tratndose de las componentes de una muestra aleatoria es:

( ) ( ) n ,..., , i X E X E
i
2 1 = = = . Luego:
( ) . n
n
X E = =
1


2- Sea X una variable aleatoria asociada con alguna caracterstica de los individuos de una poblacin
y sean ( ) X E = y ( )
2
X V = . Sea ( )
2
1
2
1
1

=
n
i
i
X X
n
S la varianza muestral (con
n / X X
n
i
i
|

\
|
=

=1
la esperanza muestral) para una muestra aleatoria de tamao n, ( )
n
X ,..., X , X
2 1
.
Entonces ( )
2 2
S E = es decir ( )
2
1
2
1
1

=
n
i
i
X X
n
S es un estimador insesgado de ( )
2
X V =
pues:

( ) ( ) ( )
|
|

\
|

=
|
|

\
|

=

= =
2
1
2
1
2
1
1
1
1
n
i
i
n
i
i
X X E
n
X X
n
E S E .
Reescribiremos la suma de una forma ms conveniente. Sumamos y restamos y desarrollamos el
cuadrado:

( ) ( ) [ ] [ ] ( ) = + = + =

= = =
2
1
2
1
2
1
n
i
i
n
i
i
n
i
i
X X X X X X
[ ] [ ][ ] [ ]

=
)
`

+ + =
n
i
i i
X X X X
1
2
2
2 [ ] [ ] [ ] [ ] = + + =

= =
2
1 1
2
2 X n X X X
n
i
i
n
i
i

Se dice que el estimador puntual

es un estimador insesgado del parmetro si ( ) =

E
cualquiera sea el valor verdadero de
La deferencia ( )

E se conoce como sesgo de estimador

. Anotamos ( ) ( ) =

E b
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
128
[ ] [ ] [ ] [ ]
2
1
2
2 X n X n X X
n
i
i
+ + =

=
[ ] [ ] [ ]
2 2
1
2
2 X n X n X
n
i
i
+ =

=
.

Esto es:

( ) [ ] [ ]
2
1
2
2
1
X n X X X
n
i
i
n
i
i
=

= =


Entonces:

( ) ( ) [ ] [ ] = |

\
|

=
|
|

\
|

=

= =
2
1
2
2
1
2
1
1
1
1
X n X E
n
X X E
n
S E
n
i
i
n
i
i

[ ] [ ] = |

\
|

=

=
2
1
2
1
1
X nE X E
n
n
i
i
( ) ( ) [ ] ( ) ( ) = |

\
|

= |

\
|

=

= =
X nV X V
n
X E X nE X V
n
n
i
i
n
i
i
1
2
1
1
1
1
1

|
|

\
|

n
n n
n
2
2
1
1
,

donde en la ltima igualdad tuvimos en cuenta que ( ) ( ) n ,..., , i X V X V
i
2 1
2
= = = y que
( )
n

X V
2
= . Luego llegamos a lo que se deseaba demostrar: ( )
2 2
S E = .

3- Supongamos que tomamos como estimador de
2
a ( )
2
1
2
1

=
=
n
i
i
X X
n

Entonces notar que podemos escribir ( )
( )
2 1
2
2
1
2
1
1
1 1
S
n
n
n
X X
n
n
X X
n
n
i
i n
i
i

= =

=
=

Por lo tanto ( ) ( )
2 2 2 2 2
1 1 1

= |

\
|
=
n
n
S E
n
n
S
n
n
E E
Es decir
2
no es un estimador insesgado de
2
, es sesgado, y su sesgo es
( ) ( )
2 2 2 2 2 2
1 1

n n
n
E b = |

\
|
= =
Como el sesgo es negativo el estimador tiende a subestimar el valor de verdadero parmetro


En ocasiones hay ms de un estimador insesgado de un parmetro
Por lo tanto necesitamos un mtodo para seleccionar un estimador entre varios estimadores insesga-
dos.


Varianza y error cuadrtico medio de un estimador puntual

Supongamos que
1

y
2

son dos estimadores insegados de un parmetro . Esto indica que la


distribucin de cada estimador est centrada en el verdadero parmetro . Sin embargo las varianzas
de estas distribuciones pueden ser diferentes. La figura siguiente ilustra este hecho.
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
129

-15 -10 -5 5 10 15
0.1
0.2
0.3
0.4




Como
1

tiene menor varianza que


2

, entonces es ms probable que el estimador


1

produzca
una estimacin ms cercana al verdadero valor de . Por lo tanto si tenemos dos estimadores inses-
gados se seleccionar aquel te tenga menor varianza.

Ejemplo: Sea
n
X X X ,..., ,
2 1
una muestra aleatoria de una v.a. X donde = ) ( X E y
2
) ( = X V
Suponemos desconocido.
Estimamos al parmetro con la media o promedio muestral

=
=
n
i
i
X
n
X
1
1
. Sabemos que es un
estimador insesgado de . Anotamos

=
= =
n
i
i
X
n
X
1
1
1

Supongamos que tomamos otro estimador para , lo anotamos
2

1
2
n
X X +
=
Entonces como
( ) ( ) ( ) ( ) ( ) = = + = + = |

\
| +
= 2
2
1
2
1
2
1
2

2 1
1
2
X E X E
X X
E E
n
,
2

1
2
n
X X +
= es tambin un estimador insesgado de
Cul de los dos estimadores es mejor?
Calculamos la varianza de cada uno utilizando las propiedades de la varianza.
Ya sabemos cul es la varianza de

=
=
n
i
i
X
n
X
1
1
(se la hall para T.C.L.):
( ) = X V ( ), X V
n
X V
n
X
n
V
n
i
i
n
i
i
n
i
i
= = =
= |

\
|
= |

\
|
1
2
1
2
1
1 1 1


donde en la ltima igualdad hemos tenido en cuenta que, por tratarse de una muestra aleatoria, las
i
X con i=1,2,,n son variables aleatorias independientes y, en consecuencia, la varianza de la suma
de ellas es la suma de las varianzas. Si tenemos en cuenta que adems todas tienen la misma distri-
bucin que X y por lo tanto la misma varianza:

( ) ( ) n ,..., , i X V X V
i
2 1
2
= = = , tenemos
( ) = X V .
n

n
n
2
2
2
1
=
Distribucin de
1


Distribucin de
2



Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
130
Anlogamente calculamos la varianza de
2

1
2
n
X X +
= :
( ) ( ) ( )
2 4
1
) ( ) (
4
1
2

2
2 2
2 1
1
2

= + = + = |

\
| +
= X V X V
X X
V V
n

Vemos que si 2 > n entonces ) ( ) (
2 1
V V < . Por lo tanto si 2 > n es mejor estimador
1



Supongamos ahora que
1

y
2

son dos estimadores de un parmetro y alguno de ellos no es


insesgado.
A veces es necesario utilizar un estimador sesgado. En esos casos puede ser importante el error cua-
drtico medio del estimador.








El error cuadrtico medio puede escribirse de la siguiente forma:

( ) ( ) ( ) ( )
2

+ = b V ECM

Dem.) Por definicin ( ) ( )
(

=
2

E ECM . Sumamos y restamos el nmero ( )

E :
( ) ( ) ( ) ( )
(

+ =
2

E E E ECM , y desarrollamos el cuadrado:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) =
(

+ + =
(

+ =

2

2 2 2
E E E E E E E E ECM

Aplicamos propiedades de la esperanza:

( ) ( )
( )
( ) ( )
( )
( ) ( ) ( ) ( ) ( ) ( ) ( )
2
0

2

2

2
+ = + +
(

b V E E E E E E
b
V
43 42 1 43 42 1
4 4 3 4 4 2 1


El error cuadrtico medio es un criterio importante para comparar estimadores.








Si la eficiencia relativa es menor que 1 entonces
1

tiene menor error cuadrtico medio que


2


Por lo tanto
1

es ms eficiente que
2


El error cuadrtico medio de un estimador

de un parmetro est definido como


( ) ( )
(

=
2

E ECM
Si
1

y
2

son dos estimadores de un parmetro .


La eficiencia relativa de
2

con respecto a
1

se define como
( )
( )
2
1

ECM
ECM

Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
131
Observaciones:
1- Si

es un estimador insesgado de , entonces ( ) ( ) =



V ECM
2- A veces es preferible utilizar estimadores sesgados que estimadores insesgados, si es que tienen
un error cuadrtico medio menor.
En el error cuadrtico medio se consideran tanto la varianza como el sesgo del estimador.
Si
1

y
2

son dos estimadores de un parmetro , tales que ( ) =


1

E ; ( )
2

E y
( ) ( )
1 2

< V V , habra que calcular el error cuadrtico medio de cada uno, y tomar el que tenga me-
nor error cuadrtico medio. Pues puede ocurrir que
2

, aunque sea sesgado, al tener menor varianza


tome valores mas cercanos al verdadero parmetro que
1



-7.5 -5 -2.5 2.5 5 7.5
0.1
0.2
0.3
0.4




Ejemplo:
Supngase que
1

,
2

y
3

son dos estimadores de un parmetro , y que


( ) ( ) ;

2 1
= = E E ( )
3

E , 10 )

(
1
= V , 6 )

(
2
= V y ( ) 4

2
3
=
(

E . Haga una comparacin


de estos estimadores. Cul prefiere y por qu?

Solucin: Calculamos el error cuadrtico medio de cada estimador
( ) ( ) 10

1 1
= = V ECM pues
1

es insesgado
( ) ( ) 6

2 2
= = V ECM pues
2

es insesgado
( ) ( ) 4

2
3 3
=
(

= E ECM es dato
En consecuencia
3

es el mejor estimador de los tres dados porque tiene menor error cuadrtico
medio.


Consistencia de estimadores puntuales


Distribucin de
1


Distribucin de
2



Sea
n

un estimador del parmetro , basado en una muestra aleatoria ( )


n
X ,..., X , X
2 1
de tama-
o n. Se dice que
n

es un estimador consistente de si

( ) 0

lim =


n
n
P para todo 0 >
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
132
Observacin:
Este tipo de convergencia, que involucra a una sucesin de variables aleatorias, se llama convergen-
cia en probabilidad y es la misma que consideramos en relacin a la ley de los grandes nmeros
Suele escribirse tambin
P
n

.
Este tipo de convergencia debe distinguirse de la considerada en relacin al teorema central del lmi-
te. En este ltimo caso tenamos una sucesin de distribuciones: ( ) ( ) z Z P z F
n Z
n
= y se considera
el lmite ( ) ( ) ( ) z z Z P lim z F lim
n
n
Z
n
n
= =

.
Se habla, entonces, de convergencia en distribucin y suele indicarse Z Z
d
n
( ) 1 0, N .

Teorema. Sea
n

un estimador del parmetro basado en una muestra aleatoria ( )


n
X ,..., X , X
2 1
.
Si ( ) =

n
n
E

lim y ( ) 0

lim =

n
n
V , entonces
n

es un estimador consistente de .
Dem.)
Utilizamos la desigualdad de Chebyshev 0 > :

( )
( )
( ) ( ) ( )
(

+ = =


2
2 2 2
2

1

n n n
n
n
b V ECM
E
P



Entonces, al tomar el lmite
n
lim y teniendo presente que ( ) =

n
n
E

lim y ( ) 0

lim =

n
n
V , vemos que
( ) 0

lim =


n
n
P 0 > , es decir
n

es un estimador convergente de .


Ejemplo:
Sea X una variable aleatoria que describe alguna caracterstica numrica de los individuos de una
poblacin y sean ( ) X E = y ( ) X V =
2
la esperanza poblacional y la varianza poblacional, res-
pectivamente. Sea

=
=
n
i
i
X
n
X
1
1
la esperanza muestral basada en una muestra aleatoria
( )
n
X ,..., X , X
2 1
. Entonces X es un estimador consistente de la esperanza poblacional ( ) X E = .

Sabemos que
a) ( ) ( ) X E X E = = n
b) ( )
( )
n
X V
n

X V = =
2
n
La propiedad a) ya me dice que X es un estimador insesgado de ( ) X E = .
Por otra parte si a) vale para todo n, tambin vale en particular en el lmite n :
( ) ( ) X E X E lim
n
= =

.
Adems, de b) deducimos inmediatamente que
( ) 0 =

X V lim
n
.
Por lo tanto vemos que X es un estimador consistente de ( ) X E = .




Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
133
7.4 Mtodos de estimacin puntual

Los criterios anteriores establecen propiedades que es deseable que sean verificadas por los estima-
dores. Entre dos estimadores posibles para un dado parmetro poblacional es razonable elegir aqul
que cumple la mayor cantidad de criterios o alguno en particular que se considera importante para el
problema que se est analizando. Sin embargo estos criterios no nos ensean por s mismos a cons-
truir los estimadores. Existen una serie de mtodos para construir estimadores los cuales en general
se basan en principios bsicos de razonabilidad. Entre stos podemos mencionar:

- Mtodo de los momentos

- Mtodo de mxima verosimilitud


Mtodo de los momentos

Se puede probar usando la desigualdad de Chebyshev el siguiente resultado:


Definimos los momentos de orden k de una variable aleatoria como:

( ) ( )

= =
X i
R x
i
k
i
k
k
x p x X E ( ) ,... , , k 2 1 0 = Si X es discreta

( ) ( )

+

= = dx x f x X E
k k
k
( ) ,... , , k 2 1 0 = Si X es continua,

y definimos los correspondientes momentos muestrales de orden k como:

=
=
n
i
k
i k
X
n
M
1
1
( ) ,... , , k 2 1 0 = ,

Entonces la dbil de los grandes nmeros se puede generalizar:

( ) 0 lim =


k k
n
M P ( ) ,... , , k 2 1 0 = .

De acuerdo con esto parece razonable estimar los momentos poblacionales de orden k mediante los
momentos muestrales de orden k:
k

k
M ( ) ,... , , k 2 1 0 = .

Ley dbil de los grandes nmeros:
Sean ( )
n
X ,..., X , X
2 1
n variables aleatorias independientes todas las cuales tienen la misma espe-
ranza ( ) X E = y varianza ( ) X V =
2
. Sea

=
=
n
i
i
X
n
X
1
1
. Entonces
( ) 0 lim =

X P
n

Decimos que X converge a en probabilidad y lo indicamos: X
p
.
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
134
Supongamos, entonces, una variable aleatoria X y supongamos que la distribucin de X depende de r
parmetros
r
,..., ,
2 1
, esto es la la fdp poblacional es ( )
r i
x p ,..., , ,
2 1
si X es discreta o
( )
r
x f ,..., , ,
2 1
si es continua. Sean
r
,..., ,
2 1
los primeros r momentos poblacionales:


( ) ( )

= =
X i
R x
r i
k
i
k
k
x p x X E ,..., , ,
2 1
( ) r ,..., , k 2 1 = Si X es discreta

( ) ( )

+

= = dx x f x X E
r
k k
k
,..., , ,
2 1
( ) r ,..., , k 2 1 = Si X es continua,
y sean

=
=
n
i
k
i k
X
n
M
1
1
( ) r ,..., , k 2 1 = los r primeros momentos maestrales para una muestra de tamao n
( )
n
X ,..., X , X
2 1
. Entonces el mtodo de los momentos consiste en plantear el sistema de ecuaciones:

=
=
=
r r
M
M
M
M M M
2 2
1 1


Es decir

( )
( )
( )

=
=
=



=
=
=
n
i
r
i
R x
r i
r
i
n
i
i
R x
r i i
n
i
i
R x
r i i
X
n
x p x
X
n
x p x
X
n
x p x
X i
X i
X i
1
2 1
1
2
2 1
2
1
1
2 1
1
,..., , ,
1
,..., , ,
1
,..., , ,



M M M
Si X es discreta,

o

( )
( )
( )

=
=
=

=
+

=
+

=
+

n
i
r
i r
r
n
i
i r
n
i
i r
X
n
dx x f x
X
n
dx x f x
X
n
dx x xf
1
2 1
1
2
2 1
2
1
1
2 1
1
,..., , ,
1
,..., , ,
1
,..., , ,



M M M
Si X es continua.

Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
135
Resolviendo estos sistema de ecuaciones para los parmetros desconocidos
r
,..., ,
2 1
en funcin de
la muestra aleatoria ( )
n
X ,..., X , X
2 1
obtenemos los estimadores:


( )
( )
( )

=
=
=
n r r
n
n
X X X H
X X X H
X X X H
,..., ,

,..., ,

,..., ,

2 1
2 1 2 2
2 1 1 1
M



Observacin:
En la forma que presentamos aqu el mtodo necesitamos conocer la forma de la fdp poblacional, por
lo tanto estamos frente a un caso de estimacin puntual paramtrica.

Ejemplos:
1- Sea X una variable aleatoria. Supongamos que X tiene distribucin gama con parmetros y :
X ( ) , , es decir su fdp est dada por:

( )

> |

\
|
=

valores dems
x e

x
) x ( f

x
0
0
1
1

con 0 > ; 0 > y ( )


=
0
1
dx e x
x
.
Sea ( )
n
X X X ,..., ,
2 1
una muestra aleatoria de tamao n. Deseamos calcular los estimadores de y
dados por el mtodo de los momentos.

Solucin:
Como tenemos dos parmetros desconocidos a estimar, planteamos el sistema de ecuaciones:

=
=
2 2
1 1
M
M


Se puede probar que

. =
1


2 2 2
2
. . + =

Tenemos, entonces, el sistema de ecuaciones

= +
=

=
=
n
i
i
n
i
i
X
n
. .
X
n
.
1
2 2 2 2
1
1
1

= +
=

=
n
i
i
X
n
X
1
2 2 2 2
1
. .
.




Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
136
Reemplazando en la segunda ecuacin:

=
= +
n
i
i
X
n
X X
1
2 2
1

X
X X
n
n
i
i
=

=
1
2 2
1

Y despejando de la primera ecuacin y reemplazando la expresin hallada para



( )
( )

=
=
X n
X X
X X
X n
n
i
i
n
i
i
1
2
1
2
2




2- Sea ( )
n
X X X ,..., ,
2 1
una muestra aleatoria de tamao n de una v.a. X donde [ ] , 0 ~U X , des-
conocido. Hallar el estimador de por el mtodo de los momentos.

Solucin:
Planteamos la ecuacin:
1 1
M =
Sabemos que
2 2
0
) (
1

=
+
= = X E . Entonces X =
2

X 2

=
Observacin: notar que el estimador X 2

= es un estimador consistente de , pues


( ) ( ) ( )

= = = =
2
2 2 2

X E X E E y ( ) ( ) ( )
( )
0
3 12
0
4 4 2

2 2

=

= = =
n
n n
X V X V V



3- Sea( )
n
X ,..., X , X
2 1
una muestra aleatoria de una v.a. X~ ) , (
2
N .
Encuentra los estimadores de y por el mtodo de momentos.

Solucin:
Planteamos las ecuaciones

=
=
2 2
1 1
M
M

( )

=
=

=
n
i
i
X
n
X E
X
1
2 2
1



pero en general es vlido que
2 2
) ( ) ( = X E X V + = ) ( ) (
2
X V X E
Entonces las ecuaciones quedan

= +
=

=
n
i
i
X
n
X
1
2 2 2
1

=
=

=
2
1
2 2
1

X X
n
X
n
i
i




4- Sea( )
n
X ,..., X , X
2 1
una muestra aleatoria de una v.a. X~ ) , 0 (
2
N .
Hallar un estimador por el mtodo de los momentos de
2


Solucin: en este caso no es conveniente plantear
1 1
M = pues quedara
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
137
la ecuacin X = 0 que no conduce a nada.
Entonces podemos plantear
2 2
M = es decir

=
=
n
i
i
X
n
X E
1
2 2
1
) (

=
= +
n
i
i
X
n
1
2 2
1
0

=
=
n
i
i
X
n
1
2 2
1



Observacin: si

es un estimador por el mtodo de los momentos de un parmetro , el estimador


de los momentos de ( ) g es ( )

g , si ) (x g es una funcin inyectiva.


Por ejemplo, en el ejemplo anterior un estimador de por el mtodo de los momentos sera

=
= =
n
i
i
X
n
1
2 2
1
. Notar que x x g = ) ( es inyectiva para los reales positivos.


Mtodo de mxima verosimilitud

Uno de los mejores mtodos para obtener un estimador puntual de un parmetro es el mtodo de
mxima verosimilitud.

La interpretacin del mtodo sera: el estimador de mxima verosimilitud es aquel valor del pa-
rmetro que maximiza la probabilidad de ocurrencia de los valores muestrales

La adaptacin para el caso en que X es una v.a. continua sera la siguiente

Notacin: abreviamos estimador de mxima verosimilitud con EMV



Supongamos que X es una v.a. discreta con funcin de distribucin de probabilidad ) , ( x p , don-
de es un parmetro desconocido. Sean
n
x x x ,..., ,
2 1
los valores observados de una muestra alea-
toria de tamao n.
Se define la funcin de verosimilitud como la funcin de distribucin conjunta de las observa-
ciones:
( ) ) , ( )..... , ( ). , ( ) ( )... ( ) ( , ,..., ,
2 1 2 2 1 1 2 1

n n n n
x p x p x p x X P x X P x X P x x x L = = = = =
Notar que la funcin de verosimilitud es una funcin de .
El estimador de mxima verosimilitud de es aquel valor de que maximiza la funcin de vero-
similitud
Supongamos que X es una v.a. continua con funcin de densidad de probabilidad ) , ( x f , donde
es un parmetro desconocido. Sean
n
x x x ,..., ,
2 1
los valores observados de una muestra aleato-
ria de tamao n.
Se define la funcin de verosimilitud como la funcin de distribucin conjunta de las observa-
ciones:
( ) ) , ( )..... , ( ). , ( , ,..., ,
2 1 2 1

n n
x f x f x f x x x L =
La funcin de verosimilitud es una funcin de .
El estimador de mxima verosimilitud de es aquel valor de que maximiza la funcin de vero-
similitud
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
138
Ejemplos:
1- Sea( )
n
X ,..., X , X
2 1
una muestra aleatoria de una v.a. X~ ) , 1 ( p B
Por ejemplo, se eligen al azar n objetos de una lnea de produccin, y cada uno se clasifica como
defectuoso (en cuyo caso 1 =
i
x ) o no defectuoso (en cuyo caso 0 =
i
x ).
Entonces ) 1 ( = =
i
X P p , es decir es la verdadera proporcin de objetos defectuosos en la produccin
total.
Queremos hallar el EMV de p

Solucin:
Si X~ ) , 1 ( p B entonces
k k
p p
k
k X P

|
|

\
|
= =
1
) 1 (
1
) ( 1 , 0 = k
Planteamos la funcin de verosimilitud

( ) ( ) ( ) ( ) ( ) [ ] ( ) [ ] ( ) [ ]
n n
x x x x x x
n n
p p p p p p p x p p x p p x p p x x x L

= =
1 1 1
2 1 2 1
1 ... 1 1 ; ... ; ; ; ,.., ,
2 2 1 1


Esto puede escribirse:

( ) ( )

=
=
=

n
i
i
n
i
i
x n
x
n
p p p x x x L
1
1
1 ; ,..., ,
2 1


Para maximizar la funcin de verosimilitud y facilitar los clculos tomamos el logaritmo natural de L
Pues maximizar L es equivalente a maximizar ln(L) y al tomar logaritmos transformamos productos
en sumas.
Entonces
( ) ( ) ( ) p x n p x p x x x L
n
i
i
n
i
i n
|

\
|
+ |

\
|
=

= =
1 ln ln ; ,..., , ln
1 1
2 1

Y ahora podemos maximizar la funcin derivando e igualando a cero


( )
0
1
; ,..., , ln
1 1 2 1
=


= =
p
x n
p
x
p
p x x x L
n
i
i
n
i
i
n

de donde despejando p
x
n
x
p
n
i
i
= =

=1
la proporcin de defectuosos en la muestra
Por lo tanto se toma como estimador a

=
= =
n
i
i
X
n
X p
1
1


2- El tiempo de fallar T de una componente tiene una distribucin exponencial con parmetro :
T ( ) Exp , es decir la fdp es

( )

<
=

valores dems
t e
t f
t
0
0
;



Recordemos que la esperanza y varianza son:
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
139

( )

1
= T E y ( )
2
1

= T V , respectivamente.

Se desea calcular el estimador de mxima verosimilitud del parmetro para una muestra de tama-
o n.

Solucin:
La funcin de probabilidad es:
( ) ( ) ( ) ( ) [ ] [ ] [ ]
n
t t t
n n
e e e t f t f t f t t t L



= = ... ; ... ; ; ; ,..., ,
2 1
2 1 2 1
,

que puede escribirse:

( ) ( )

=
=

n
i
i
t
n
n
e t t t L
1
; ,..., ,
2 1



Nuevamente tomamos logaritmo natural

( ) =
=
n
i
i n
t n t t t L
1
2 1
ln ; ,..., , ln


( )
0
1 ; ,..., , ln
1
2 1
= =

=
n
i
i
n
T n
t t t L


de donde podemos despejar :

t
t
n
n
i
i
= =

=1
, entonces el estimador de es

=
=
n
i
i
T
n
1




El mtodo de mxima verosimilitud presenta, algunas veces, dificultades para maximizar la funcin
de verosimilitud debido a que la ecuacin obtenida a partir de 0 ) ( =

L
d
d
no resulta fcil de resol-
ver. O tambin puede ocurrir que los mtodos de clculo para maximizar ) ( L no son aplicables.

Por ejemplo:
Sea ( )
n
X X X ,..., ,
2 1
una muestra aleatoria de tamao n de una v.a. X donde [ ] , 0 ~ U X , descono-
cido. Hallar el estimador de por el mtodo mxima verosimilitud.
Solucin:
La f.d.p. de X es

< <
=
contrario caso
x si
x f
0
0
1
) (


Planteamos la funcin de verosimilitud
( )
( )

<
=

< <
=
contrario caso
x si
contrario caso
i x si
x x x L
i
i
n i n
n
0
max
1
0
0
1
, ,... ,
2 1


Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
140

Si derivamos con respecto a obtenemos
1 +

=
n
n
n
d
d

que es siempre menor que cero. Por lo


tanto la funcin de verosimilitud es una funcin decreciente para todos los ( )
i
i
x max >
Si hacemos un grfico de la funcin de verosimilitud














Vemos que donde la funcin tiene el mximo hay una discontinuidad no evitable.
Por lo tanto ( )
i
i
x max

=

El mtodo de mxima verosimilitud puede emplearse en el caso donde hay ms de un parmetro
desconocido para estimar. En ese caso la funcin de verosimilitud es una funcin de varias variables.
Especficamente si tenemos para estimar k parmetros
k
,... ,
2 1
, entonces la funcin de verosimili-
tud es una funcin de k variables ( )
k n
x x x L ,... , , ,..., ,
2 1 2 1
y los estimadores de mxima verosimili-
tud
k

,...

2 1
se obtienen al plantear ( si existen las derivadas parciales) y resolver el sistema de k
ecuaciones con k incgnitas
k
,... ,
2 1

( ) k i x x x L
d
d
k n
i
,.. 2 , 1 0 ,... , , ,..., ,
2 1 2 1
= =



Ejemplo:
La variable aleatoria X tiene distribucin ( )
2
, N con y
2
ambos parmetros desconocidos para
los cuales se desea encontrar los estimadores mxima verosimilitud. La fdp es

( )
2
2
1
2
2
1
|

\
|

=

x
e

, ; x f < < x ,
La funcin de verosimilitud para una muestra aleatoria de tamao n es

( )
( )
2
1
2 2
2
2
1
2
1
2
2
2
1
2
1
2
1
2
2 1
2
2
1
...
2
1
2
1
, ; ,..., ,
|

\
|

\
|
|

\
|
|

\
|

=
= =
=



i
n
i
n
x
n
x x x
n
e
e e e x x x L

Luego


( )
i
i
x max
) ( L
Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
141
( ) ( )
2
1
2 2
2 1
2
1
2 ln
2
, ; ,..., , ln

=
|

\
|
=
n
i
i
n
x n
x x x L


y el sistema de ecuaciones de verosimilitud queda:


( )
( ) ( )

+ =

= |

\
|
=

=
=
0
2
1
2
, ; ,..., , ln
0
, ; ,..., , ln
1
4
2
2 2
2
2 1
1
2
2 1
n
i
i n
n
i
i n
x n x x x L
x x x x L




Resolvemos con respecto a y
2
:


( ) ( )

= =
= =

= =
=
n
i
n
i
i i
n
i
i
x x
n
x
n
x x
n
1 1
2 2 2
1
1 1
1



Entonces los estimadores mxima verosimilitud de y
2
son


( )

=
= =

=
=
n
i
i
n
i
i
X X
n
X X
n
1
2
2
1
1




Propiedades de los estimadores mxima verosimilitud

1- Los EMV pueden ser sesgados, pero en general si

es el EMV de un parmetro basado en


una muestra de tamao n, entonces =

)

( limE
n
, es decir son asintticamente insesgados
2- Bajo condiciones bastantes generales se puede probar que los EMV son asintticamente consis-
tentes
3- Bajo condiciones bastantes generales se puede probar que los EMV asintticamente tienen va-
rianza mnima
4-Los EMV cumplen la propiedad de invarianza es decir:
si

es un EMV de un parmetro , el EMV de ( ) g es ( )

g , si ) (x g es una funcin inyectiva.



Ejemplos:
1- Si consideramos nuevamente la situacin considerada en el Ejemplo 2, donde tenamos una v.a. T
cuya distribucin es una exponencial: T ( ) Exp , entonces, si queremos el EMV de la varianza po-
blacional, podemos calcularlo recordando que ( )
2
1

= T V , es decir, ( ) ( )
2
1

= = g T V . Vimos que
T
T
n
n
i
i
1

1
= =

=
. Por lo tanto el EMV de la varianza es
2
2

= .

Parte 2 Estimacin puntual Prof. Mara B. Pintarelli
142
2- Sea
n
X X X ,........, ,
2 1
una muestra aleatoria de una v.a. ) , 1 ( p B . Un EMV de p es

=
= =
n
i
i
X
n
X p
1
1

Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compaa.
Sea X : el nmero entre los n que tienen defectos , y p = P(el casco tiene defecto).
Supongamos que solo se observa X ( el nmero de cascos con defectos).
Si n = 20 y x = 3, es la estimacin de p es
20
3
= p
El E.M.V. de la probabilidad (1-p)
5
, de que ninguno de los siguientes cinco cascos que se examinen
tenga defectos ser ( )
5
1 p y su estimacin en este caso
5
20
3
1 |

\
|





Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
143
8- Intervalos de confianza

8.1 Introduccin

Se ha visto como construir a partir de una muestra aleatoria un estimador puntual de un parmetro
desconocido. En esos casos necesitbamos dar algunas caractersticas del estimador, como por
ejemplo si era insesgado o su varianza.
A veces resulta ms conveniente dar un intervalo de valores posibles del parmetro desconocido,
de manera tal que dicho intervalo contenga al verdadero parmetro con determinada probabilidad.
Especficamente, a partir de una muestra aleatoria se construye un intervalo ( )
2 1

donde los
extremos
1

y
2

son dos estadsticos, tal que ( ) ( ) = 1

2 1
P donde es el parmetro
desconocido a estimar y es un valor real entre cero y uno dado de antemano. Por ejemplo si
05 . 0 = , se quiere construir un intervalo ( )
2 1

tal que ( ) ( ) 95 . 0

2 1
= P , o escrito de otra
forma ( ) 95 . 0

2 1
= P
Esta probabilidad tiene el siguiente significado: como
1

y
2

son estadsticos, los valores que


ellos toman varan con los valores de la muestra, es decir si
n
x x x ,..., ,
2 1
son los valores medidos de
la muestra entonces el estadstico
1

tomar el valor
1
y el estadstico
2

tomar el valor
2
. Si
medimos nuevamente la muestra obtendremos ahora valores
, ,
2
,
1
,..., ,
n
x x x y por lo tanto
1

toma-
r el valor
,
1
y el estadstico
2

tomar el valor
,
2
, diferentes en general de los anteriores. Esto
significa que si medimos la muestra 100 veces obtendremos 100 valores diferentes para
1

y
2


y por lo tanto obtendremos 100 intervalos distintos, de los cuales aproximadamente 5 de ellos no
contendrn al verdadero parmetro.
Al valor 1 se lo llama nivel de confianza del intervalo. Tambin se suele definir como nivel de
confianza al ( ) % 100 1
La construccin repetida de un intervalo de confianza para se ilustra en la siguiente figura






















Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
144
8.2 Intervalo de confianza para la media de una distribucin normal, varianza conocida.

El mtodo general para construir intervalos de confianza es el siguiente llamado mtodo del pivo-
te:

Supongamos el siguiente caso particular, sea ( )
n
X X X ,..., ,
2 1
una muestra aleatoria de tamao n de
una v.a. X donde ) , ( ~
2
N X ,
2
conocido, se quiere construir un intervalo de confianza para
de nivel 1 . Supongamos 05 . 0 = .
1- tomamos un estimador puntual de , sabemos que X = es un estimador con buenas propie-
dades.
2- a partir de X = construimos el estadstico
n
X
Z


= . Notar que Z (pivote) contiene al ver-
dadero parmetro y que bajo las condiciones dadas ) 1 , 0 ( ~ N Z
3- como conocemos la distribucin de Z, podemos plantear: hallar un nmero z tal que
( ) 95 . 0 = z Z z P
Por la simetra de la distribucin normal estndar podemos escribir
( ) ( ) ( ) ( ) 95 . 0 1 2 = = = z z z z Z z P ( ) 975 . 0 = z 96 . 1 = z

Por lo tanto ( ) 95 . 0 96 . 1 96 . 1 96 . 1 96 . 1 =
|
|
|

\
|

=
n
X
P Z P


Despejamos :
95 . 0 96 . 1 96 . 1 96 . 1 96 . 1
96 . 1 96 . 1 96 . 1 96 . 1
=
|
|

\
|
+ =
|
|

\
|
=
=
|
|

\
|
=
|
|
|

\
|


n
X
n
X P X
n
X
n
P
n
X
n
P
n
X
P



Entonces
95 . 0 96 . 1 ; 96 . 1 96 . 1 96 . 1 =
|
|

\
|
|
|

\
|
+ =
|
|

\
|
+
n
X
n
X P
n
X
n
X P



Es decir el intervalo de confianza para es
|
|

\
|
+
n
X
n
X

96 . 1 ; 96 . 1 y tiene nivel de confian-
za 0.95 o 95%.
Aqu
n
X

96 . 1

1
= y
n
X

96 . 1

2
+ =

Repetimos el procedimiento anterior y construimos un intervalo de confianza para con nivel de
confianza 1
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
145
1-Partimos de la esperanza muestral

=
=
n
i
X
n
X
1 1
1
para una muestra aleatoria ( )
n
X ,..., X , X
2 1
de
tamao n. Sabemos que es un estimador insesgado y consistente de .
2-Construimos el estadstico
N ~
n /
X
Z

= (0,1)

La variable aleatoria Z cumple las condiciones necesarias de un pivote
Para construir un intervalo de confianza al nivel de confianza 1- partiendo del pivote Z, comen-
zamos por plantear la ecuacin

( ) = z Z z P 1- ,

donde la incgnita es el nmero real z.

Si reemplazamos la v.a. Z por su expresin tenemos:

= |

\
|
+ = |

\
|
=
|
|

\
|

z X
n

z X P
n

z X
n

z P z
n /
X
z P 1-

Multiplicando todos los miembros de la desigualdad por -1 (el orden de los miembros se invierte)
llegamos a:
= |

\
|
+
n

z X
n

z X P 1-
Evidentemente, si definimos

+ =
=
n
z X
n
z X

2
1

, hemos construido dos estadsticos


1

y
2

tales que ( ) =
2 1

P 1- ,
es decir hemos construido el intervalo de confianza bilateral deseado [ ]
2 1

. Todos los elemen-


tos que forman los estadsticos
1

y
2

son conocidos ya que el nmero z verifica la ecuacin


anterior, es decir (ver figura):













z
2

z

2

z


2

z z =
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
146
( ) ( ) ( ) z z z Z z P = =1- donde ( ) z es la Fda para la v.a. N ~ Z (0,1)

Recordando que ( ) ( ) z z = 1 , esta ecuacin queda:
( ) ( ) z z = ( ) 1 2 z =1- , o bien (ver figura anterior),
( )
2
1

z = o de otra forma
2
) (

= > z Z P .
Al valor de z que verifica esta ecuacin se lo suele indicar
2

z . En consecuencia, el intervalo de
confianza bilateral al nivel de significacin 1- queda:

[ ]
(

+ =
n
z X
n
z X


2 2
2 1
,


En consecuencia:



Ejemplo:
Un ingeniero civil analiza la resistencia a la compresin del concreto. La resistencia est distribui-
da aproximadamente de manera normal, con varianza 1000 (psi)
2
. Al tomar una muestra aleatoria
de 12 especmenes, se tiene que 3250 = x psi.
a) Construya un intervalo de confianza del 95% para la resistencia a la compresin promedio.
b) Construya un intervalo de confianza del 99% para la resistencia a la compresin promedio.
Compare el ancho de este intervalo de confianza con el ancho encontrado en el inciso a).

Solucin:
La v. a. de inters es X
i
: resistencia a la compresin del concreto en un espcimen i
Tenemos una muestra de 12 = n especmenes.
Asumimos que ) , ( ~
2
N X
i
para 12 ,..., 3 , 2 , 1 = i con 1000
2
=
a) Queremos un intervalo de confianza para de nivel 95%. Por lo tanto 05 . 0 =
El intervalo a utilizar es
(

+
n
z X
n
z X


2 2
, .
Buscamos en la tabla de la normal estndar el valor de 96 . 1
025 . 0
2
= = z z


Reemplazando:

(

=
(

+ 89227 . 3267 , 10773 . 3232


12
1000
96 . 1 3250 ,
12
1000
96 . 1 3250
b) repetimos lo anterior pero ahora 01 . 0 =
Si ( )
n
X X X ,..., ,
2 1
una muestra aleatoria de tamao n de una v.a. X donde ) , ( ~
2
N X ,
2

conocido, un intervalo de confianza para de nivel 1 es

(

+
n
z X
n
z X


2 2
, (8.1)
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
147
El intervalo a utilizar es
(

+
n
z X
n
z X


2 2
, .
Buscamos en la tabla de la normal estndar el valor de 58 . 2
005 . 0
2
= = z z


Reemplazando:

(

=
(

+ 55207 . 3273 , 44793 . 3226


12
1000
58 . 2 3250 ,
12
1000
58 . 2 3250

La longitud del intervalo encontrado en a) es: 35.78454
La longitud del intervalo encontrado en b) es: 47.10414
Notar que la seguridad de que el verdadero parmetro se encuentre en el intervalo hallado es ma-
yor en el intervalo b) que en el a), pero la longitud del intervalo b) es mayor que la del intervalo a).
Al aumentar el nivel de confianza se perdi precisin en la estimacin, ya que a menor longitud
hay mayor precisin en la estimacin.
En general la longitud del intervalo es
n
z L

2
2 =
Notar que:
a) si n y estn fijos, a medida que disminuye tenemos que
2

z aumenta, por lo tanto L


aumenta.
b) si y estn fijos, entonces a medida que n aumenta tenemos que L disminuye.

Podemos plantearnos la siguiente pregunta relacionada con el ejemplo anterior: qu tamao n de
muestra se necesita para que el intervalo tenga nivel de confianza 99% y longitud la mitad de la
longitud del intervalo hallado en a)?
Solucin: el intervalo hallado en a) tiene longitud 35.78454, y queremos que el nuevo intervalo
tenga longitud 17.89227 aproximadamente. Planteamos:
89227 . 17
1000
58 . 2 2 89227 . 17 2
2
=
n n
z L



Despejando n :
170 . 83
89227 . 17
1000
58 . 2 2
2

|
|

\
|
n n
O sea, hay que tomar por lo menos 84 especmenes para que el intervalo tenga la longitud pedida.

En general, si queremos hallar n tal que l
n
z L =

2
2 , donde l es un valor dado, entonces
despejando n

2
2
2
|
|
|

\
|

l
z
n


Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
148
Si estimamos puntualmente al parmetro con X estamos cometiendo un error en la estimacin
menor o igual a
n
z
L

2
2
= , que se conoce como precisin del estimador
Ejemplo: Se estima que el tiempo de reaccin a un estmulo de cierto dispositivo electrnico est
distribuido normalmente con desviacin estndar de 0.05 segundos. Cul es el nmero de medi-
ciones temporales que deber hacerse para que la confianza de que el error de la estimacin de la
esperanza no exceda de 0.01 sea del 95%?

Nos piden calcular n tal que 01 . 0
2
2
< =
n
z
L

con 05 . 0 = .
Por lo tanto
2
025 . 0
01 . 0
05 . 0
|

\
|
z n .
Adems
025 , 0
z =1.96. Entonces ( ) 04 96 5 96 1
01 0
05 0
2
2
975 0
. .
.
.
z n
.
= = |

\
|
.
O sea hay que tomar por lo menos 97 mediciones temporales.


Ejemplo:
Supongamos que X representa la duracin de una pieza de equipo y que se probaron 100 de esas
piezas dando una duracin promedio de 501.2 horas. Se sabe que la desviacin estndar poblacio-
nal es =4 horas. Se desea tener un intervalo del 95% de confianza para la esperanza poblacional
( ) X E = .
Solucin:
En este caso, si bien no conocemos cul es la distribucin de X tenemos que el tamao de la mues-
tra es 30 100 > = n (muestra grande) por lo tanto el intervalo buscado es
(

+
n
z X
n
z X


2 2
,

Puesto que 1- =0.95 025 . 0
2
05 . 0 95 . 0 1 = = =


De la tabla de la normal estandarizada obtenemos
025 , 0
z =1.96. Entonces reemplazando:

(

+
100
4
96 . 1 ,
100
4
96 . 1 X X

Para el valor particular x =501.2 tenemos el intervalo

Para muestras tomadas de una poblacin normal, o para muestras de tamao 30 n , de una
poblacin cualquiera, el intervalo de confianza dado anteriormente en (8.1), proporciona buenos
resultados.
En el caso de que la poblacin de la que se extrae la muestra no sea normal pero 30 n , el ni-
vel de confianza del intervalo (8.1) es aproximadamente 1 .
Pero para muestras pequeas tomadas de poblaciones que no son normales no se puede garanti-
zar que el nivel de confianza sea 1 si se utiliza (8.1).
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
149
(

=
(

+ =
(

+ 0 . 502 , 4 . 500
10
4
96 . 1 2 . 501 ,
10
4
96 . 1 2 . 501
4
96 . 1 ,
100
4
96 . 1
n
x x .

Al establecer que
(

0 502 4 500 . , . es un intervalo al 95% de confianza de estamos diciendo que


la probabilidad de que el intervalo
(

0 502 4 500 . , . contenga a es 0.95. O, en otras palabras, la


probabilidad de que la muestra aleatoria ( )
n
X ,..., X , X
2 1
tome valores tales que el intervalo aleato-
rio
(

+
100
4
96 . 1 ,
100
4
96 . 1 X X defina un intervalo numrico que contenga al parmetro fijo
desconocido es 0.95.


8.2 - Intervalo de confianza para la media de una distribucin normal, varianza desconocida

Nuevamente como se trata de encontrar un intervalo de confianza para nos basamos en la espe-
ranza muestral

=
=
n
i
X
n
X
1 1
1
que sabemos es un buen estimador de . Pero ahora no podemos
usar como pivote a

n /
X
Z

=
porque desconocemos y una condicin para ser pivote es que, excepto por el parmetro a esti-
mar ( en este caso ), todos los parmetros que aparecen en l deben ser conocidos. Entonces pro-
ponemos como pivote una variable aleatoria definida en forma parecida a Z pero reemplazando
por un estimador adecuado.
Ya vimos que la varianza muestral definida

( )
2
1 1
2
1
1

=
n
i
X X
n
S ,
donde X es la esperanza muestral, es un estimador insesgado de la varianza poblacional ( ) X V , es
decir, ( ) ( )
2 2
X V S E = = n . Entonces estimamos con S y proponemos como pivote a la va-
riable aleatoria


n / S
X
T

= .

Pero para poder usar a T como pivote debemos conocer su distribucin.
Se puede probar que la distribucin de T es una distribucin llamada Student con parmetro n-1.

Nota: Una v.a. continua tiene distribucin Student con k grados de libertad, si su f.d.p. es de la
forma
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
150

( )
< <
(

+
|
|

\
| |

\
|

=
+
x
k
x
k
k
k
x f
k

1
1
2

2
1
) (
2
1
2



Notacin:
k
t T ~
La grfica de la f.d.p. de la distribucin Student tiene forma de campana como la normal, pero
tiende a cero ms lentamente. Se puede probar que cuando k la fdp de la Student tiende a la
fdp de la ) 1 , 0 ( N .
En la figura siguiente se grafica f(x) para diferentes valores de k




1 = k

6 = k

- - - - - = k










Anotaremos
k
t
,
al cuantil de la Student con k grados de libertad que deja bajo la fdp a derecha un
rea de , y a su izquierda un rea de 1 .


Luego, para construir el intervalo de confianza buscado a partir del pivote T procedemos como en
los casos anteriores:

Comenzamos por plantear la ecuacin

( ) = t T t P 1- ,
donde la incgnita es el nmero real t.

Si reemplazamos la v.a. T por su expresin, tenemos sucesivamente (multiplicando por n / S y
restando X ):
= |

\
|
+ = |

\
|
=
|
|

\
|


n
S
t X
n
S
t X P
n
S
t X
n
S
t P t
n / S
X
t P 1-
Multiplicando todos los miembros de la desigualdad por -1 (el orden de los miembros se invierte)
llegamos a:
-3 -2 -1 1 2 3
0.1
0.2
0.3
0.4

Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
151
= |

\
|
+
n
S
t X
n
S
t X P 1-
Evidentemente, si definimos

+ =
=
n
S
t X
n
S
t X
2
1

, hemos construido dos estadsticos


1

y
2

tales que ( ) =
2 1

P 1- ,
veamos quien es el nmero t que verifica la ecuacin, es decir (ver figura):















( ) ( ) ( ) t F t F t T t P = =1- donde ( ) t F es la Fda para la v.a. T
1 n
t .

Por la simetra de la distribucin t de Student se deduce fcilmente de la figura anterior que
( ) ( ) t F t F = 1 , entonces:

( ) ( ) t F t F = ( ) 1 2 t F =1- , o bien (ver figura anterior),

( )
2
1

t F = .
Al valor de t que verifica esta ecuacin se lo suele indicar
1 ,
2
n
t

. En consecuencia, el intervalo de
confianza bilateral al nivel de significacin 1- queda:

(

+

n
S
t X
n
S
t X
n n 1 ,
2
1 ,
2
,

con
2
1
1 ,
2

=
|
|

\
|
n
t F .
En consecuencia:








Si ( )
n
X X X ,..., ,
2 1
una muestra aleatoria de tamao n de una v.a. X donde ) , ( ~
2
N X ,
2
desconocido, un intervalo de confianza para de nivel 1 es

(

+
n
S
t X
n
S
t X
2 2
,

(8.2)

2

t
2

t
libertad de grados 4 = k
2


Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
152

Ejemplo:
Se hicieron 10 mediciones sobre la resistencia de cierto tipo de alambre que dieron valores
10 2 1
x ,..., x , x tales que

=
= =
10
1
48 10
10
1
i
i
. x x ohms y ( )

=
=
10
2
9
1
! i
i
x x S = 1.36 ohms. Supngase
que X~N(,
2
).
Se desea obtener un intervalo de confianza para la esperanza poblacional al 90 %.

Tenemos que = 90 0 1 . = 1 0. 05 . 0 2 / =
De la Tabla de la t de Student tenemos que 8331 . 1
9 , 05 . 0
= t . Entonces el intervalo de confianza
buscado es:
(

+ =
(

+

10
36 . 1
8331 . 1 48 . 10 ,
10
36 . 1
8331 . 1 48 . 10 ,
1 ,
2
1 ,
2
n
S
t X
n
S
t X
n n



Esto es: [ ] 27 . 11 , 69 . 9 .



8.3 Intervalo de confianza para la diferencia de dos medias, varianzas conocidas

Supongamos que tenemos dos variables aleatorias independientes normalmente distribuidas:
( )
( )

2
2 2 2
2
1 1 1
, N ~ X
, N ~ X
y suponemos que las varianzas
2
1
y
2
2
son conocidas.

Sean adems
( )
1
1 12 11 n
X ,..., X , X una muestra aleatoria de tamao
1
n de
1
X
( )
2
2 22 21 n
X ,..., X , X una muestra aleatoria de tamao
2
n de
2
X .

Deseamos construir un intervalo al nivel de confianza 1 para la diferencia de esperanzas
2 1
.
Ya sabemos cul es la distribucin del promedio de variables aleatorias normales independientes:

Si la muestra aleatoria se toma de una distribucin normal,
2
es desconocido y el tamao de la
muestra grande, entonces se puede probar que al reemplazar por S, el estadstico

( ) 1 0, N
n / S
X
Z

= aproximadamente

y puedo construir el intervalo para como antes:
(

+
n
S
z X
n
S
z X
2 2
,

, pero su nivel es aproximadamente 1
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
153

|
|

\
|
=
|
|

\
|
=

=
=
2
1
1 2
2
2
2 2
2
2
1 1
2
1
1 1
1
1
1
1
n
i
i
n
i
i
n

, N ~ X
n
X
n

, N ~ X
n
X


Consideremos ahora la diferencia
2 1
X X Y = . Si
1
X y
2
X tienen distribucin normal y son in-
dependientes, su diferencia tambin es normal, con esperanza igual a la diferencia de las esperan-
zas y la varianza es la suma de las varianzas:

|
|

\
|
+
2
2
2
1
2
1
2 1 2 1
, N ~
n n
X X

.
Por lo tanto

( )
( ) 1 , 0 N ~
2
2
2
1
2
1
2 1 2 1
n n
X X
Z


+

= , es decir, tiene distribucin normal estandarizada.

La v.a. Z cumple con toda las condiciones para servir de pivote y construiremos nuestro intervalo
en forma anloga a cmo hicimos en los casos anteriores:
Comenzamos por plantear la ecuacin

( ) = z Z z P 1- ,
donde la incgnita es el nmero real z.

Reemplazamos la v.a. Z por su expresin y tenemos sucesivamente (multiplicando por n / y
restando X ):

( )
( )
( ) ( ) ( )








=
|
|

\
|
+ + + =
=
|
|

\
|
+ + =
|
|
|
|
|

\
|

+


1
2
2
2
1
2
1
2 1 2 1
2
2
2
1
2
1
2 1
2
2
2
1
2
1
2 1 2 1
2
2
2
1
2
1
2
2
2
1
2
1
2 1 2 1
n n
z X X
n n
z X X P
n n
z X X
n n
z P z
n n
X X
z P

Multiplicando todos los miembros de la desigualdad por -1 (el orden de los miembros se invierte)
llegamos a:
( )



=
|
|

\
|
+ + + 1
2
2
2
1
2
1
2 1 2 1
2
2
2
1
2
1
2 1
n n
z X X
n n
z X X P


Evidentemente, si definimos
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
154

+ =
+ =
,

2
2
2
1
2
1
2 1 2
2
2
2
1
2
1
2 1 1
n n
z X X
n n
z X X



habremos construido dos estadsticos
1

y
2

tales que ( ) ( ) =
2 2 1 1

P 1- , es decir
habremos construido el intervalo de confianza bilateral deseado [ ]
2 1
A

, A

. Todos los elementos que


forman los estadsticos
1

y
2

son conocidos ya que el nmero z verifica la ecuacin anterior,


es decir:

( ) ( ) ( ) z z z Z z P = =1- donde ( ) z es la Fda para la v.a. N ~ Z (0,1)

o bien, segn vimos:
( )
2
1

z = que anotamos
2

z
En consecuencia, el intervalo de confianza bilateral al nivel de significacin 1- queda:

(
(

+ + +
2
2
2
1
2
1
2
2 1
2
2
2
1
2
1
2
2 1
,
n n
z X X
n n
z X X




Por lo tanto


Ejemplo:
Se utilizan dos mquinas para llenar botellas de plstico con detergente para mquinas lavaplatos.
Se sabe que las desviaciones estndar de volumen de llenado son 10 . 0
1
= onzas de lquido y
15 . 0
2
= onzas de lquido para las dos mquinas respectivamente. Se toman dos muestras aleato-
rias, 12
1
= n botellas de la mquina 1 y 10
2
= n botellas de la mquina 2. Los volmenes prome-
dio de llenado son 87 . 30
1
= x onzas de lquido y 68 . 30
2
= x onzas de lquido.
Asumiendo que ambas muestras provienen de distribuciones normales
Construya un intervalo de confianza de nivel 90% para la diferencia entre las medias del volumen
de llenado.

Solucin:
Como 90 . 0 1 = entonces 10 . 0 =
Si
1
X y
2
X son dos variables aleatorias independientes normalmente distribuidas:
( )
2
1 1 1
, N ~ X , ( )
2
2 2 2
, N ~ X y suponemos que las varianzas
2
1
y
2
2
son conocidas. Un
intervalo de confianza para la diferencia
2 1
de nivel 1 es


(
(

+ + +
2
2
2
1
2
1
2
2 1
2
2
2
1
2
1
2
2 1
,
n n
z X X
n n
z X X


r
(8.3)
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
155
Por lo tanto 65 . 1
05 . 0
2
= = z z


El intervalo ser ( ) ( )
(
(

+ + +
10
15 . 0
12
10 . 0
65 . 1 68 . 30 87 . 30 ;
10
15 . 0
12
10 . 0
65 . 1 68 . 30 87 . 30
2 2 2 2

O sea
(

281620 . 0 ; 09837 . 0

Si se conocen las desviaciones estndar y los tamaos de las muestras son iguales (es decir
n n n = =
2 1
), entonces puede determinarse el tamao requerido de la muestra de manera tal que la
longitud del intervalo sea menor que l

( )
2
2
2
1
2
2
2
2
2
1
2
2
2

+
|
|
|

\
|
+ =
l
z
n l
n n
z L


Ejemplo:
De una muestra de 150 lmparas del fabricante A se obtuvo una vida media de 1400 hs y una des-
viacin tpica de 120 hs. Mientras que de una muestra de 100 lmparas del fabricante B se obtuvo
una vida media de 1200 hs. y una desviacin tpica de 80 hs.
Halla los lmites de confianza del 95% para la diferencia las vidas medias de las poblaciones A y
B.

Para muestras tomadas de dos poblaciones normales, o para muestras de tamao 30
1
n y
30
2
n , de dos poblaciones cualesquiera, el intervalo de confianza dado anteriormente en
(8.3), proporciona buenos resultados.
En el caso de que la poblacin de la que se extrae la muestra no sea normal pero 30
1
n y
30
2
n , el nivel de confianza del intervalo (8.3) es aproximadamente 1 .

Si las muestras aleatorias se toma de una distribucin normal, donde
1
y
2
son desconocidos,
30
1
n y 30
2
n , entonces se puede probar que al reemplazar
1
por S
1
y
2
por S
2
, el esta-
dstico

) 1 , 0 (
) (
1
2
1
1
2
1
2 1 2 1
N
n
S
n
S
X X

+

.
aproximadamente

y puedo construir el intervalo para
2 1
como antes:

(
(

+ + +
1
2
1
1
2
1
2
2 1
1
2
1
1
2
1
2
2 1
,
n
S
n
S
z X X
n
S
n
S
z X X

, (8.4)
pero su nivel es aproximadamente 1
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
156
Solucin:
Sean las variables aleatorias:
:
1
X duracin en horas de una lmpara del fabricante A
:
2
X duracin en horas de una lmpara del fabricante B
No se dice cul es la distribucin de estas variables, pero como 150
1
= n y 100
2
= n
podemos usar el intervalo dado en (8.4)

Tenemos que 1400
1
= x , 1200
2
= x , 120
1
= s y 80
2
= s .
Adems 95 . 0 1 = 1.96 z z
0.025
2
= =


Entonces el intervalo es
(

=
(
(

+ + 7922 . 224 ; 2077 . 175


100
80
150
120
96 . 1 1200 1400 ;
100
80
150
120
96 . 1 1200 1400
2 2 2 2


Observacin: como este intervalo no contiene al cero, podemos inferir que hay diferencia entre las
medias con probabilidad 0.95, es ms, podemos inferir que la media del tiempo de duracin de las
lmparas del fabricante A es mayor que la media del tiempo de duracin de las lmparas del fabri-
cante B con probabilidad 0.95 .


8.4 Intervalo de confianza para la diferencia de dos medias, varianzas desconocidas

Nuevamente supongamos que tenemos dos variables aleatorias independientes normalmente dis-
tribuidas:

( )
( )

2
2 2 2
2
1 1 1
, N ~ X
, N ~ X
y suponemos que las varianzas
2
1
y
2
2
son desconocidas .

Sean adems
( )
1
1 12 11 n
X ,..., X , X una muestra aleatoria de tamao
1
n de
1
X
( )
2
2 22 21 n
X ,..., X , X una muestra aleatoria de tamao
2
n de
2
X .
Pero ahora
1
n o
2
n no son mayores que 30
Supongamos que es razonable suponer que las varianzas desconocidas son iguales, es decir
= =
2 1

Deseamos construir un intervalo al nivel de confianza 1 para la diferencia de esperanzas
2 1


Sean
1
X y
2
X las medias muestrales y
2
1
S y
2
2
S las varianzas muestrales. Como
2
1
S y
2
2
S son
los estimadores de la varianza comn
2
, entonces construimos un estimador combinado de
2
.
Este estimador es


( ) ( )
2
1 1
2 1
2
2 2
2
1 1 2
+
+
=
n n
S n S n
S
p

Se puede comprobar que es un estimador insesgado de
2
.
Se puede probar que el estadstico
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
157

( )
2 1
2 1 2 1
1 1
n n
S
X X
T
p
+

=

r
tiene distribucin Student con 2
2 1
+ n n grados de libertad
Por lo tanto se plantea la ecuacin


=
|
|

\
|

+ +
1
2 ,
2
2 ,
2
2 1 2 1
n n n n
t T t P
o


( )



=
|
|
|
|
|

\
|

+


+ +
1
1 1
2 ,
2
2 1
2 1 2 1
2 ,
2
2 1 2 1
n n
p
n n
t
n n
S
X X
t P
r


Despejamos
2 1
y queda la expresin



=
|
|

\
|
+ +
+ +
1
1 1 1 1
2 1
2 ,
2
2 1
2 1
2 ,
2
2 1
2 1 2 1 n n
S t
n n
S t X X P
p
n n
p
n n


Entonces



Ejemplo:
Se piensa que la concentracin del ingrediente activo de un detergente lquido para ropa, es afecta-
da por el tipo de catalizador utilizado en el proceso de fabricacin. Se sabe que la desviacin es-
tndar de la concentracin activa es de 3 g/l, sin importar el tipo de catalizador utilizado. Se reali-
zan 10 observaciones con cada catalizador, y se obtienen los datos siguientes:
Catalizador 1: 57.9, 66.2, 65.4, 65.4, 65.2, 62.6, 67.6, 63.7, 67.2, 71.0
Catalizador 2: 66.4, 71.7, 70.3, 69.3, 64.8, 69.6, 68.6, 69.4, 65.3, 68.8
a) Encuentre un intervalo de confianza del 95% para la diferencia entre las medias de las concen-
traciones activas para los dos catalizadores. Asumir que ambas muestras fueron extradas de po-
blaciones normales con varianzas iguales.
b) Existe alguna evidencia que indique que las concentraciones activas medias dependen del cata-
lizador utilizado?
Solucin:
Sean las variables aleatorias
Si
1
X y
2
X son dos variables aleatorias independientes normalmente distribuidas:
( )
2
1 1 1
, N ~ X , ( )
2
2 2 2
, N ~ X y suponemos que las varianzas
2
1
y
2
2
son desconocidas
e iguales, es decir = =
2 1

Un intervalo de confianza para la diferencia
2 1
de nivel 1 es


2 1
2 ,
2
2 1
2 1
2 ,
2
2 1
1 1
;
1 1
2 1 2 1 n n
S t X X
n n
S t X X
p
n n
p
n n
+ +
+ +

(8.5)
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
158
:
1
X concentracin del ingrediente activo con catalizador 1
:
2
X concentracin del ingrediente activo con catalizador 2
Asumimos que ambas variables tienen distribucin normal con varianzas iguales
Estamos e3n las condiciones para usar (8.5)
Tenemos que 22 . 65
1
= x , 42 . 68
2
= x , 444 . 3
1
= s , 224 . 2
2
= s , 10
2 1
= = n n
Calculamos
( ) ( )
4036 . 8
2 10 10
224 . 2 9 444 . 3 9
2
1 1
2 2
2 1
2
2 2
2
1 1 2
=
+
+
=
+
+
=
n n
S n S n
S
p

Por lo tanto 89890 . 2 4036 . 8 = =
p
S
Buscamos en la tabla de la Student 060 . 2
18 , 025 . 0
2 ,
2
2 1
= =
+
t t
n n



Entonces el intervalo es
[ ] 52935 . 0 ; 8706 . 5
10
1
10
1
89890 . 2 060 . 2 42 . 68 22 . 65 ;
10
1
10
1
89890 . 2 060 . 2 42 . 68 22 . 65
=
=
(

+ +


b) Existe alguna evidencia que indique que las concentraciones activas medias dependen del cata-
lizador utilizado, pues el 0 no pertenece al intervalo.


En muchas ocasiones no es razonable suponer que las varianzas son iguales. Si no podemos ga-
rantizar que las varianzas son iguales, para construir un intervalo de confianza de nivel 1 para
2 1
utilizamos es estadstico


1
2
1
1
2
1
2 1 2 1 *
) (
n
S
n
S
X X
T
+

=


Se puede probar que
*
T tiene aproximadamente una distribucin Student con grados de liber-
tad donde


( )
( ) ( )
1 1
2
2
2
2
2
1
2
1
1
1
2
2
2
2 1
2
1

+
=
n
n S
n
n S
n S n S
si no es entero, se toma el entero ms prximo a

Por lo tanto planteamos la ecuacin

=
|
|

\
|
1
,
2
*
,
2
t T t P

Y despejando
2 1
el intervalo es

(
(

+ + +
2
2
2
1
2
1
,
2
2 1
2
2
2
1
2
1
,
2
2 1
,
n
S
n
S
t X X
n
S
n
S
t X X


Entonces
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
159

Ejemplo:
Una muestra de 6 soldaduras de un tipo tena promedio de prueba final de resistencia de 83.2 ksi y
desviacin estndar de 5.2. Y una muestra de 10 soldaduras de otro tipo tena resistencia promedio
de 71.3 ksi y desviacin estndar de 3.1. supongamos que ambos conjuntos de soldaduras son
muestras aleatorias de poblaciones normales. Se desea encontrar un intervalo de confianza de 95%
para la diferencia entre las medias de las resistencias de los dos tipos de soldaduras.

Solucin:
Ambos tamaos muestrales son pequeos y las muestras provienen de poblaciones normales. No
podemos asumir igualdad de varianzas. Entonces aplicamos (8.6)
Tenemos que 2 . 83
1
= x , 3 . 71
2
= x , 2 . 5
1
= s , 1 . 3
2
= s , 10 ; 6
2 1
= = n n
Como 95 . 0 1 = entonces 025 . 0
2
=


Adems
( )
( ) ( )
( ) ( )
7 18 . 7
9
10
1 . 3
5
6
2 . 5
10
1 . 3
6
2 . 5
1 1
2 2
2
2 2
2
2
2
2
2
1
2
1
1
1
2
2
2
2 1
2
1
=
+
|
|

\
|
+
=

+
=
n
n S
n
n S
n S n S

Entonces buscamos en la tabla de la Student 365 . 2
7 , 025 . 0
= t
Por lo tanto el intervalo es

(

=
(
(

+ + + =
=
(
(

+ + +
43 . 17 , 37 . 6
10
1 . 3
6
2 . 5
365 . 2 3 . 71 2 . 83 ;
10
1 . 3
6
2 . 5
365 . 2 3 . 71 2 . 83
,
2 2 2 2
2
2
2
1
2
1
,
2
2 1
2
2
2
1
2
1
,
2
2 1
n
S
n
S
t X X
n
S
n
S
t X X







Si
1
X y
2
X son dos variables aleatorias independientes normalmente distribuidas:
( )
2
1 1 1
, N ~ X , ( )
2
2 2 2
, N ~ X y suponemos que las varianzas
2
1
y
2
2
son desconocidas
y distintas
Un intervalo de confianza para la diferencia
2 1
de nivel aproximadamente 1 es

(
(

+ + +
2
2
2
1
2
1
,
2
2 1
2
2
2
1
2
1
,
2
2 1
,
n
S
n
S
t X X
n
S
n
S
t X X

(8.6)
Donde

( )
( ) ( )
1 1
2
2
2
2
2
1
2
1
1
1
2
2
2
2 1
2
1

+
=
n
n S
n
n S
n S n S

Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
160
8.5 Intervalo de confianza para
2 1
para datos pareados

Hasta ahora se obtuvieron intervalos de confianza para la diferencia de medias donde se tomaban
dos muestras aleatorias independientes de dos poblaciones de inters. En ese caso se tomaban
1
n
observaciones de una poblacin y
2
n observaciones de la otra poblacin.
En muchas situaciones experimentales, existen solo n unidades experimentales diferentes y los
datos estn recopilados por pares, esto es cada unidad experimental est formada por dos observa-
ciones.
Por ejemplo, supongamos que se mide el tiempo en segundos que un individuo tarda en hacer una
maniobra de estacionamiento con dos automviles diferentes en cuanto al tamao de la llanta y la
relacin de vueltas del volante. Notar que cada individuo es la unidad experimental y de esa unidad
experimental se toman dos observaciones que no sern independientes. Se desea obtener un inter-
valo de confianza para la diferencia entre el tiempo medio para estacionar los dos automviles.
En general, supongamos que tenemos los siguientes datos ( ) ( ) ( )
n n
X X X X X X
2 1 22 12 21 11
, ;...; , ; ,
1
.
Las variables aleatorias
1
X y
2
X tienen medias
1
y
2
respectivamente.
Sea
j j j
X X D
2 1
= con n j ,..., 2 , 1 = .
Entonces
( ) ( ) ( ) ( )
2 1 2 1 2 1
= = =
j j j j j
X E X E X X E D E
y

( ) ( ) ( ) ( ) ( ) ( )
2 1
2
2
2
1 2 1 2 1 2 1
, 2 , 2 X X Cov X X Cov X V X V X X V D V
j j j j j j j
+ = + = =

Estimamos ( )
2 1
=
j
D E con ( )
2 1
1
2 1
1
1 1
X X X X
n
D
n
D
n
j
j j
n
j
j
= = =

= =

En lugar de tratar de estimar la covarianza, estimamos la ( )
j
D V con ( )

=
n
j
j D
D D
n
S
1
2
1
1

Anotamos
2 1
=
D
y ( )
j
D D V =
2


Asumimos que ( )
2
, N ~
D D j
D con n j ,..., 2 , 1 =

Las variables aleatorias en pares diferentes son independientes, no lo son dentro de un mismo par.
Para construir el intervalo de confianza notar que


1
/

=
n
D
D
t
n S
D
T



entonces al plantear la ecuacin ( ) = t T t P 1- , deducimos que
1 ,
2

=
n
t t


Por lo tanto el intervalo de confianza para
2 1
=
D
de nivel 1 se obtendr al sustituir T
en la ecuacin anterior y despejar
2 1
=
D

El intervalo resultante es

(

+

n
S
t D
n
S
t D
D
n
D
n 1 ,
2
1 ,
2
;


Entonces
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
161

Ejemplo:
Consideramos el ejemplo planteado al comienzo. Deseamos un intervalo de nivel 0.90
Sean las variables aleatorias
j
X
1
: tiempo en segundos que tarda el individuo j en estacionar automvil 1 con n j ,..., 2 , 1 =
j
X
2
: tiempo en segundos que tarda el individuo j en estacionar automvil 2 con n j ,..., 2 , 1 =
Medimos estas variables de manera que tenemos las siguientes observaciones

Automvil 1 Automvil 2 diferencia
sujeto (observacin
j
x
1
) (observacin
j
x
2
)
j
D
1 37.0 17.8 19.2
2 25.8 20.2 5.6
3 16.2 16.8 -0.6
4 24.2 41.4 -17.2
5 22.0 21.4 0.6
6 33.4 38.4 -5.0
7 23.8 16.8 7.0
8 58.2 32.2 26.0
9 33.6 27.8 5.8
10 24.4 23.2 1.2
11 23.4 29.6 -6.2
12 21.2 20.6 0.6
13 36.2 32.2 4.0
14 29.8 53.8 -24.0

A partir de la columna de diferencias observadas se calcula 21 . 1 = D y 68 . 12 =
D
S

Adems 771 . 1
13 , 05 . 0
1 ,
2
= =

t t
n

, entonces el intervalo para la diferencia


2 1
=
D
de nivel 0.90
es

(

=
(

+ 21 . 7 ; 79 . 4
14
68 . 12
771 . 1 21 . 1 ;
14
68 . 12
771 . 1 21 . 1





Cuando las observaciones se dan de a pares ( ) ( ) ( )
n n
X X X X X X
2 1 22 12 21 11
, ;...; , ; ,
1
, y las diferen-
cias
j j j
X X D
2 1
= son tales que ( )
2
, N ~
D D j
D para n j ,..., 2 , 1 = , un intervalo de confianza
de nivel 1 para
2 1
=
D
es

(

+

n
S
t D
n
S
t D
D
n
D
n 1 ,
2
1 ,
2
;

(8.7)
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
162

8.6 Intervalo de confianza para la varianza de una distribucin normal

Supongamos que se quiere hallar un intervalo de confianza para la varianza
2
de una distribu-
cin normal.
Sea ( )
n
X ,..., X , X
2 1
una muestra aleatoria de una v.a. X, donde ) , ( ~
2
N X .
Tomamos como estimador puntual de
2
a ( )
2
1 1
2
1
1

=
n
i
X X
n
S
Luego a partir de este estimador puntual construimos el estadstico
( )
2
2
1

S n
X

=
Este estadstico contiene al parmetro desconocido a estimar
2
y tiene una distribucin conocida,
se puede probar que X tiene una distribucin llamada ji-cuadrado con n-1 grados de libertad

Observacin: Si X es una v.a. continua se dice que tiene distribucin ji-cuadrado con k grados de
libertad si su f.d.p. es


( )
0
2
2
1
) (
2
1
2
2
>
|

\
|

=

x e x
k
x f
x k
k


Notacin: X~
2
k

La distribucin ji-cuadrdo es asimtrica. En la figura siguiente se grafica la densidad para diferen-
tes valores de k

10 20 30 40 50 60
0.02
0.04
0.06
0.08
0.1
0.12



Anotaremos k ,
2
al cuantil de la ji-cuadrado con k grados de libertad que deja bajo la fdp a dere-
cha un rea de , y a su izquierda un rea de 1 .
Propiedades:
1- Se puede probar que si
n
X X X ,..., ,
2 1
son variables aleatorias independientes con distribucin
) 1 , 0 ( N entonces
2 2
2
2
1
...
n
X X X Z + + + = tiene distribucin ji-cuadrado con n grados de libertad.
2- Si
n
X X X ,..., ,
2 1
son variables aleatorias independientes tal que
i
X tiene distribucin ji-
cuadrado con
i
k grados de libertad, entonces
n
X X X Z + + + = ...
2 1
tiene distribucin ji-cuadrado
con k grados de libertad donde
n
k k k k + + + = ...
2 1

3- Si
2
~
k
X entonces para k grande |

\
|
1 , 1 2 ~ 2 k N X aproximadamente.
30
15
2
=
=
=
k
k
k

Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
163

Para desarrollar el intervalo de confianza planteamos hallar dos nmeros a y b tales que
( ) = 1 b X a P es decir
( )

=
|
|

\
|

1
1
2
2
b
S n
a P

Se puede probar que la mejor eleccin de a y b es:
2
1 ,
2
1
=
n
a

y
2
1 ,
2

=
n
b

















Por lo tanto

( )


=
|
|

\
|


1
1
2
1 ,
2
2
2
2
1 ,
2
1 n n
S n
P
y despejando
2
se llega a


( ) ( )


=
|
|
|

\
|


1
1 1
2
1 ,
2
1
2
2
2
1 ,
2
2
n n
S n S n
P

Entonces

Observacin: un intervalo de confianza para de nivel 1 , es
( ) ( )
|
|
|
|

\
|


2
1 ,
2
1
2
2
1 ,
2
2
1
;
1
n n
S n S n





Si ( )
n
X ,..., X , X
2 1
es una muestra aleatoria de una v.a. X, donde ) , ( ~
2
N X , un intervalo de
confianza para
2
de nivel 1 es

( ) ( )
|
|
|

\
|


2
1 ,
2
1
2
2
1 ,
2
2
1
;
1
n n
S n S n


(8.8)

2


1
2
1 ,
2
1 n


2
1 ,
2
n


5 = k
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
164

Ejemplo:
Un fabricante de detergente lquido est interesado en la uniformidad de la mquina utilizada para
llenar las botellas. De manera especfica, es deseable que la desviacin estndar del proceso de
llenado sea menor que 0.15 onzas de lquido; de otro modo, existe un porcentaje mayor del desea-
ble de botellas con un contenido menor de detergente. Supongamos que la distribucin del volu-
men de llenado es aproximadamente normal. Al tomar una muestra aleatoria de 20 botellas, se ob-
tiene una varianza muestral 0153 . 0
2
= S . Hallar un intervalo de confianza de nivel 0.95 para la
verdadera varianza del volumen de llenado.

Solucin:
La v.a. de inters es X: volumen de llenado de una botella
Se asume que ) , ( ~
2
N X con desconocido.
Estamos en las condiciones para aplicar (8.8)


Tenemos que 95 . 0 1 = 05 . 0 = 91 . 8
2
19 , 975 . 0
2
1 ,
2
1
= =

n
y 85 . 32
2
19 , 025 . 0
2
1 ,
2
= =

n

Adems 0153 . 0
2
= S

Por lo tanto el intervalo es


( ) ( ) ( ) ( )
( ) .0326 0 ; 00884 . 0
91 . 8
0153 . 0 1 20
;
85 . 32
0153 . 0 1 20 1
;
1
2
1 ,
2
1
2
2
1 ,
2
2
= |

\
|
=
|
|
|

\
|

n n
S n S n




Y un intervalo para es ( ) ( ) 1805 . 0 ; 09 . 0 0326 . 0 ; 00884 . 0 =

Por lo tanto con un nivel de 0.95 los datos no apoyan la afirmacin que 15 . 0 <


8.7 Intervalo de confianza para el cociente de varianzas de dos distribuciones normales

Supongamos que se tienen dos poblaciones normales e independientes con varianzas desconocidas
2
1
y
2
2
respectivamente. Se desea encontrar un intervalo de nivel 1 para el cociente de las
dos varianzas
2
2
2
1

.
Se toma una muestra aleatoria de tamao
1
n de una de las poblaciones y una muestra de tamao
2
n de la otra poblacin. Sean
2
1
S y
2
2
S las dos varianzas muestrales.
Consideramos el estadstico

2
1
2
1
2
2
2
2

S
S
F =
Notar que F contiene al parmetro de inters
2
2
2
1

, pues
2
2
2
1
2
1
2
2

=
S
S
F
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
165
Se puede probar que F tiene una distribucin llamada Fisher con 1
2
n y 1
1
n grados de libertad.

Observacin:
Sea X una variable aleatoria continua, se dice que tiene distribucin Fisher con u grados de libertad
en el numerador y v grados de libertad en el denominador si su fdp es de la forma

< <
(

+ |

\
|
|

\
|
|

\
|

\
|
|

\
| +

=
+

x
x
v
u v u
x
v
u v u
x f
v u
u
u
0
1
2 2
2
) (
2
1
2
2


En particular si W e Y son variables aleatorias independientes ji-cuadrado con u y v grados de liber-
tad respectivamente, entonces el cociente

v
Y
u
W
F =
Tiene una distribucin Fisher con u grados de libertad en el numerador y v grados de libertad en el
denominador.
Notacin:
v u
F F
,
~

La grfica de una distribucin Fisher es similar a la de una ji-cuadrado, es asimtrica. Anotamos
v u
f
, ,
al cuantil que deja a su derecha un rea de bajo la curva de densidad.
















Existe la siguiente relacin entre los cuantiles de una
v u
F
,
y de una
u v
F
,



u v
v u
f
f
, ,
, , 1
1



Planteamos la siguiente ecuacin ( ) = 1 b F a P y se pede probar que la mejor eleccin de
a y b es :
1 , 1 ,
2
1
1 2

=
n n
f a

y
1 , 1 ,
2
1 2

=
n n
f b



20 ; 15 = = v u

v u
f
, ,

Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
166
















Entonces


=
|
|

\
|


1
1 , 1 ,
2
2
1
2
1
2
2
2
2
1 , 1 ,
2
1
1 2 1 2
n n n n
f
S
S
f P

Despejando el cociente
2
2
2
1

queda :


=
|
|

\
|


1
1 , 1 ,
2
2
2
2
1
2
2
2
1
1 , 1 ,
2
1
2
2
2
1
1 2 1 2
n n n n
f
S
S
f
S
S
P

Por lo tanto

Ejemplo:
Una compaa fabrica propulsores para uso en motores de turbina. Una de las operaciones consiste
en esmerilar el terminado de una superficie particular con una aleacin de titanio. Pueden emplear-
se dos procesos de esmerilado, y ambos pueden producir partes que tienen la misma rugosidad
superficial promedio. Interesara seleccionar el proceso que tenga la menor variabilidad en la rugo-
sidad de la superficie. Para esto se toma una muestra de 12 partes del primer proceso, la cual tiene
una desviacin estndar muestral 1 . 5
1
= S micropulgadas, y una muestra aleatoria de 15 partes del
segundo proceso, la cual tiene una desviacin estndar muestral 7 . 4
2
= S micropulgadas. Se desea
encontrar un intervalo de confianza de nivel 90% para el cociente de las dos varianzas.
Suponer que los dos procesos son independientes y que la rugosidad de la superficie est distribui-
da de manera normal.


20 ; 15 = = v u
2


1 , 1 ,
2
1
1 2
n n
f


1 , 1 ,
1 2
n n
f


Si se tienen dos poblaciones normales e independientes con varianzas desconocidas
2
1
y
2
2

respectivamente, entonces un intervalo de nivel 1 para el cociente de las dos varianzas
2
2
2
1

es

(

1 , 1 ,
2
2
2
2
1
1 , 1 ,
2
1
2
2
2
1
1 2 1 2
;
n n n n
f
S
S
f
S
S

(8.9)
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
167
Solucin:
Estamos en las condiciones para aplicar (8.9)
Buscamos en la tabla de la Fisher 39 . 0
58 . 2
1 1
14 , 11 , 05 . 0
11 , 14 , 95 . 0
1 , 1 ,
2
1
1 2
= = = =

f
f f
n n



y 74 . 2
11 , 14 , 05 . 0
1 , 1 ,
2
1 2
= =

f f
n n



Entonces el intervalo es

[ ] 23 . 3 ; 46 . 0 2.74
7 . 4
1 . 5
; 39 . 0
7 . 4
1 . 5
2
2
2
2
=
(



Como este intervalo incluye al 1, no podemos afirmar que las desviaciones estndar de los dos
procesos sean diferentes con una confianza de 90%.



8.8 Intervalo de confianza para una proporcin

Sea una poblacin de tamao N (eventualmente puede ser infinito) de cuyos individuos nos inter-
esa cierta propiedad A. Supongamos que la probabilidad de que un individuo de la poblacin veri-
fique A es ( ) A P p = .El significado del parmetro p es, en consecuencia, el de proporcin de indi-
viduos de la poblacin que verifican la propiedad A. Podemos definir una variable
aleatoria
i
X que mide a los individuos de la poblacin la ocurrencia o no de la propiedad A.
La variable aleatoria tendr la distribucin:

( )
( ) ( )
( ) ( )

= = =
= = =
=
, 1 0 0
1 1
p X P p
p X P p
x p
i
i

es decir, X
i
es una v.a. que toma slo dos valores: 1 (si el individuo verifica A) con probabilidad p
y 0 (cuando no verifica A) con probabilidad 1-p. Esto es equivalente a decir que X
i
tiene una distri-
bucin binomial con parmetros 1 y p: X
i
~ B(1,p).

Supongamos que consideramos una muestra aleatoria ( )
n
X X X ..., ,
2 1
de tamao n . Si formamos
el estadstico = X
n
X X X + + + ...
2 1
, es evidente que esta v.a. mide el nmero de individuos de la
muestra de tamao n que verifican la propiedad A. Por lo tanto por su significado X es una v.a.
cuya distribucin es binomial con parmetros n y p: X~B(n,p). De acuerdo con esto, la variable
aleatoria P

definida:
n
X
P

= representa la proporcin de individuos de la muestra que verifican la


propiedad A.
Observemos que siendo X
i
~ B(1,p) es ( ) p X E
i
= . Y, dado que X~B(n,p), tambin es
( ) ( ) p np
n
X E
n n
X
E P

E = = = |

\
|
=
1 1
, es decir P

es un estimador insesgado de p . Esto es de espe-


rar pues

=
= =
n
i
i
X
n n
X
P
1
1

.
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
168
Pero adems, es fcil ver que P

es estimador consistente de p . En efecto, tenemos que ( ) p P

E = ,
pero tambin es
( ) ( )
( )
n
p p
p np
n n
X
V P

V

= = |

\
|
=
1
1
1
2
.

Deseamos construir un intervalo de confianza de p. Es razonable basarnos en el estimador insega-
do P

. Consideramos como pivote a la variable aleatoria



( )
n
p p
p P

=
1
cuya distribucin es, para n suficientemente grande, aproximadamente N(0,1). En
efecto:
Siendo
n
X
n
X
n
X
P
n
+ + + = ...

2 1
, es ( )

=
= |

\
|
=
n
i
i
p
n
X
E P E
1

y ( )
( )

= |

\
|
=
n
i
i
n
p p
n
X
V P V
1
1



Por lo tanto:

( )
( ) 1 , 0 ~
1

N
n
p p
p P
Z
grande n

= ,

El pivote puede ponerse en una forma ms conveniente si tenemos en cuenta que, segn vimos
recin, P

es estimador consistente de p y en consecuencia, en el denominador reemplazamos el


parmetro desconocido p por su estimador P

, y se puede probar que :



( )

=
n
P P
p P
Z

N(0,1). aproximadamente si n es grande


Partiendo de este pivote podemos seguir los mismos pasos de los casos anteriores para llegar al
siguiente intervalo de confianza al nivel 1 de p:

( ) ( )
(
(

n
P P
z P
n
P P
z P

2 2

con
2
1
2

=
|
|

\
|
z .
Entonces



Si P

es la proporcin de observaciones de una muestra aleatoria de tamao n que verifican una


propiedad de inters, entonces un intervalo de confianza para la proporcin p de la poblacin
que cumple dicha propiedad de nivel aproximadamente 1 es


( ) ( )
(
(

n
P P
z P
n
P P
z P

2 2

(8.10)
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
169

Observaciones:
1- Este procedimiento depende de la aproximacin normal a la distribucin binomial. Por lo tanto
el intervalo (8.10) se puede utilizar si 10

> P n y 10 )

1 ( > P n , es decir, la muestra debe contener


un mnimo de diez xitos y diez fracasos.
2- La longitud del intervalo es
( )
n
P P
z L

2
2

, pero esta expresin est en funcin de P


Si nos interesa hallar un valor de n de manera tal que la longitud L sea menor que un valor deter-
minado, podemos hacer dos cosas:
a) tomar una muestra preliminar, con ella estimar p con P

y de la expresin anterior despejar n, lo


que lleva a

( )
( ) P P
l
z
n l
n
P P
z L

2
2
2
2

|
|
|

\
|



b) si no tomamos una muestra preliminar, entonces acotamos ( ) ( ) 5 . 0 1 5 . 0

P P , entonces


( ) ( )
2
2
2 2

5 . 0 1 5 . 0
2

2
|
|
|

\
|

=
l
z
n l
n
z
n
P P
z L





Ejemplo:
Un fabricante de componentes compra un lote de dispositivos de segunda mano y desea saber la
proporcin de la poblacin que estn fallados. Con ese fin experimenta con 140 dispositivos elegi-
dos al azar y encuentra que 35 de ellos estn fallados.
a) Calcular un intervalo de confianza del 99% para la proporcin poblacional p.
b) De qu tamao deber extraerse la muestra a fin de que la proporcin muestral no difiera de la
proporcin poblacional en ms de 0.03 con un 95% de confianza?

Solucin:
a) El tamao de la muestra es 140 = n (muestra grande)
La proporcin muestral es 25 . 0
140
35

= = P
El nivel de confianza es 99 0 1 . = 01 0. = 005 0
2
.

= .
De la tabla de la normal estandarizada vemos que 58 . 2
005 . 0
= z . Entonces el intervalo buscado es:

( ) ( )
[ ] 34441 . 0 , 15558 . 0
140
25 . 0 1 25 . 0
58 . 2 25 . 0 ,
140
25 . 0 1 25 . 0
58 . 2 25 . 0 =
(




b) Buscamos el tamao n de la muestra tal que con un 95% de confianza la proporcin muestral P


est a una distancia 0.03 de la proporcin poblacional p, es decir buscamos n tal que

Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
170
03 . 0
2

L
, por lo tanto como 05 . 0 = 025 . 0
2
=

si tomamos la muestra anterior como pre-


liminar :

( ) ( ) 3333 . 800 25 . 0 1 25 . 0
03 . 0 2
96 . 1 2

2
2
2
2
= |

\
|

=
|
|
|

\
|
P P
l
z
n



Por lo tanto hay que tomar una muestra de tamao por lo menos 801. como ya se tom una mues-
tra de tamao 140, hay que tomar otra adicional de tamao 661 140 801 =
Supongamos que no tomamos una muestra inicial, entonces directamente planteamos

1111 . 1067
03 . 0 2
96 . 1
2
2
2
= |

\
|

=
|
|
|

\
|

l
z
n


Entonces hay que tomar una muestra de tamao 1068 por lo menos.



8.9 Intervalo de confianza para la diferencia entre dos proporciones

Supongamos que existen dos proporciones de inters
1
p y
2
p y es necesario obtener un intervalo
de confianza de nivel 1 para la diferencia
2 1
p p .
Supongamos que se toman dos muestras independientes de tamaos
1
n y
2
n respectivamente de
dos poblaciones.
Sean las variables aleatorias
:
1
X nmero de observaciones en la primera muestra que tienen la propiedad de inters
:
2
X nmero de observaciones en la segunda muestra que tienen la propiedad de inters
Entonces
1
X y
2
X son variables aleatorias independientes y X
1
~B(n
1
,p
1
) ; X
2
~B(n
2
,p
2
)
Adems
1
1
1

n
X
P = y
2
2
2

n
X
P = son estimadores puntuales de
1
p y
2
p respectivamente.
Vemos que ( )
2 1 2 1

p p P P E = y ( )
( ) ( )
2
2 2
1
1 1
2 1
1 1

n
p p
n
p p
P P V

+

=
Aplicando la aproximacin normal a la binomial podemos decir que
( )
( ) ( )
) 1 , 0 (
1 1

2
2 2
1
1 1
2 1 2 1
N
n
p p
n
p p
p p P P
Z


=
, y como en el caso de intervalo para una proporcin estima-
mos
( ) ( )
2
2 2
1
1 1
1 1
n
p p
n
p p
+

con
( ) ( )
2
2 2
1
1 1

1

1

n
P P
n
P P
+

y entonces

( )
( ) ( )
) 1 , 0 (

1

1


2
2 2
1
1 1
2 1 2 1
N
n
P P
n
P P
p p P P
Z


=
aproximadamente.
Parte 2 Intervalos de confianza Prof. Mara B. Pintarelli
171
Planteamos la ecuacin ( ) ( ) ( ) z z z Z z P = =1- , lo que lleva a
2

z z = , y con una deduccin anloga a las anteriores se llega al intervalo


( ) ( ) ( ) ( )
(
(


2
2 2
1
1 1
2
2 1
2
2 2
1
1 1
2
2 1

1

1

1

1


n
P P
n
P P
z P P
n
P P
n
P P
z P P



Entonces


Ejemplo:
Se lleva a cabo un estudio para determinar la efectividad de una nueva vacuna contra la gripe. Se
administra la vacuna a una muestra aleatoria de 3000 sujetos, y de ese grupo 13 contraen gripe.
Como grupo de control se seleccionan al azar 2500 sujetos, a los cuales no se les administra la va-
cuna, y de ese grupo 170 contraen gripe. Construya un intervalo de confianza de nivel 0.95 para la
diferencia entre las verdaderas proporciones de individuos que contraen gripe.

Solucin:
Sean las variables aleatorias
:
1
X nmero de personas que contraen gripe del grupo que recibi la vacuna
:
2
X nmero de personas que contraen gripe del grupo que no recibi la vacuna
Entonces X
1
~B(n
1
,p
1
) ; X
2
~B(n
2
,p
2
) donde 3000
1
= n ; 2500
2
= n
Adems
3000
13

1
= P ;
2500
170

2
= P
Y 96 . 1 95 . 0 1
025 . 0
2
= = = z z


Entonces
( ) ( ) ( ) ( )
(

=
(
(
(
(
(

(
|

\
|

+
|

\
|

+
|

\
|

+
|

\
|

=
=
(
(


0535222 . 0 ; 0738112 . 0
2500
2500
170
1
2500
170
3000
3000
13
1
3000
13
96 . 1
2500
170
3000
13
;
2500
2500
170
1
2500
170
3000
3000
13
1
3000
13
96 . 1
2500
170
3000
13

1

1

1

1


2
2 2
1
1 1
2
2 1
2
2 2
1
1 1
2
2 1
n
P P
n
P P
z P P
n
P P
n
P P
z P P


Si
1

P y
2

P son las proporciones muestrales de una observacin de dos muestras aleatorias inde-
pendientes de tamaos
1
n y
2
n respectivamente que verifican la propiedad de inters, entonces
un intervalo de confianza de nivel 1 aproximadamente es


( ) ( ) ( ) ( )
(
(


2
2 2
1
1 1
2
2 1
2
2 2
1
1 1
2
2 1

1

1

1

1


n
P P
n
P P
z P P
n
P P
n
P P
z P P

(8.11)
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
172
9- Test o prueba de hiptesis

9.1 Introduccin

Hasta ahora hemos estudiado el problema de estimar un parmetro desconocido a partir de una muestra
aleatoria.
En muchos problemas se requiere tomar una decisin entre aceptar o rechazar una proposicin sobre
algn parmetro. Esta proposicin recibe el nombre de hiptesis estadstica, y el procedimiento de toma
de decisin sobre la hiptesis se conoce como prueba o test de hiptesis.
Como se emplean distribuciones de probabilidad para representar poblaciones, tambin podemos decir
que una hiptesis estadstica es una proposicin sobre la distribucin de probabilidad de una variable
aleatoria, donde la hiptesis involucra a uno ms parmetros de esta distribucin.
Por ejemplo, supongamos que cierto tipo de motor de automvil emite una media de 100 mg de xidos
de nitrgeno (NO
x
) por segundo con 100 caballos de fuerza. Se ha propuesto una modificacin al diseo
del motor para reducir las emisiones de NO
x
. El nuevo diseo se producir si se demuestra que la media
de su tasa de emisiones es menor de 100 mg/s. Se construye y se prueba una muestra de 50 motores
modificados. La media muestral de emisiones de NO
x
es de 92 mg/s, y la desviacin estndar muestral
es de 21 mg/s.
La variable aleatoria de inters en este caso es X: tasa de emisin de un motor modificado tomado al
azar.
La preocupacin de los fabricantes consiste en que los motores modificados no puedan reducir todas la
emisiones; es decir que la media poblacional pudiera ser 100 o mayor que 100.
Entonces, la pregunta es: es factible que esta muestra pueda provenir de una v.a. con media 100 o
mayor?
ste es el tipo de preguntas que las pruebas de hiptesis estn diseadas para responder. Veremos cmo
construir una prueba de hiptesis, pero podemos decir que en general se basa en construir a partir de la
muestra aleatoria un estadstico, y segn el valor que tome este estadstico de prueba se aceptar o se
rechazar la hiptesis.
Se ha observado una muestra con media 92 = X .
Hay dos interpretaciones posibles de esta observacin:
1- La media poblacional es realmente mayor o igual que 100, y la media muestral es menor que 100
debido a la variabilidad propia de la variable aleatoria X
2- La media poblacional es en realidad menor que 100, y la media muestral refleja este hecho.
Estas dos explicaciones tienen nombres: la primera se llama hiptesis nula; la segunda es la hiptesis
alternativa.
En la mayora de las situaciones la hiptesis nula dice que el efecto que indica la muestra es atribuible
solamente a la variacin aleatoria del estadstico de prueba.
La hiptesis alternativa establece que el efecto que indica la muestra es verdadero.
Para hacer las cosas ms precisas, todo se expresa mediante smbolos. La hiptesis nula se denota por
0
H , la hiptesis alternativa se denota con
1
H . Como es usual la media poblacional se anota . Por lo
tanto se tiene

100 :
0
H contra 100 :
1
< H (hiptesis alternativa unilateral)

Esencialmente, para realizar una prueba de hiptesis se pone la hiptesis nula en juicio. Se asume que
0
H es verdadera, de la misma manera como se empieza en un juicio bajo el supuesto de que un acusado
es inocente. La muestra aleatoria proporciona la evidencia.

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
173
Las hiptesis son siempre proposiciones sobre los parmetros de la poblacin o distribucin bajo
estudio, no proposiciones sobre la muestra.
Otros tipos de hiptesis que podran formularse son

100 :
0
H contra 100 :
1
> H (hiptesis alternativa unilateral)
o

100 :
0
= H contra 100 :
1
H (hiptesis alternativa bilateral)


En el ejemplo tenemos
50 2 1
,..., , X X X muestra aleatoria de la v.a. X definida anteriormente.
Como estamos haciendo una hiptesis sobre la media poblacional es razonable tomar como estadstico
de prueba a X . El valor observado de la media muestral es 92 = X .
Si el valor de X es muy menor que 100 entonces se considera que hay evidencia en contra
0
H y se la
rechaza, aceptando la hiptesis alternativa.
Si el valor de X no es muy menor que 100 entonces se considera que no hay evidencia en contra
0
H
y se rechaza la hiptesis alternativa.
Ya veremos como construir una regla de decisin, supongamos ahora que tenemos la siguiente regla:

<
95
95
0
0
X si H acepta se
X si H rechaza se


El intervalo |

\
|
, 95 es la zona de aceptacin.
La regin |

\
|
95 ; es la zona de rechazo o regin crtica.
Mientras que 95 es el punto crtico.

Como estamos tomando una decisin basados en el valor de un estadstico podemos cometer dos tipos
de errores: rechazar
0
H cuando sta es verdadera, es decir el estadstico toma valores en la zona de
rechazo cuando
0
H es verdadera; o aceptar
0
H cuando sta es falsa, es decir que el estadstico tome
valores en la zona de aceptacin cuando
0
H es falsa.
El primero se conoce como error de tipo I, y el segundo como error de tipo II.
Debido a que la decisin se basa en variables aleatorias es posible asociar probabilidades a los errores de
tipo I y II, especficamente anotamos

) ( I tipo de error P =

) ( II tipo de error P =
A ) ( I tipo de error P = se lo conoce como nivel de significancia del test.
Para calcular estas probabilidades debemos conocer la distribucin del estadstico de prueba en el caso
de ser
0
H verdadera, es decir debemos conocer la distribucin del estadstico de prueba bajo
0
H .
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
174
En el ejemplo anterior la muestra es grande, ya sabemos que por T.C.L. el estadstico

) 1 , 0 (
100
N
n
s
X
Z

= si
0
H es verdadera, o sea ) 1 , 0 (
50
21
100
N
X
Z

=

Entonces para calcular planteamos:

( ) = = < = |

\
|
= = 100 / 95 / ) (
0 0
X P V es H H rechazar P I tipo de error P
( ) 04648 . 0 95352 . 0 1 6835 . 1
50
21
100 95
50
21
100 95
50
21
100
= = =
|
|
|

\
|


|
|
|

\
|

<

=
X
P

Esto significa que el 4.64% de las muestras aleatorias conducirn al rechazo de la hiptesis 100 :
0
H
cuando el verdadero sea mayor o igual que 100.

En este caso el grfico de la zona de rechazo es















Del grfico anterior vemos que podemos reducir al aumentar la zona de aceptacin. Por ejemplo
supongamos que ahora la regla de decisin es

<
93
93
0
0
X si H acepta se
X si H rechaza se


Entonces ( ) = = < = |

\
|
= = 100 / 93 / ) (
0 0
X P V es H H rechazar P I tipo de error P
( ) 00939 . 0 99061 . 0 1 357 . 2
50
21
100 93
50
21
100 93
50
21
100
= = =
|
|
|

\
|


|
|
|

\
|

<

=
X
P


04648 . 0 =
|
|

\
|
50
21
, 100
2
N
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
175
Tambin se puede reducir aumentando el tamao de la muestra. Supongamos que 85 = n , entonces

( ) = = < = |

\
|
= = 100 / 95 / ) (
0 0
X P V es H H rechazar P I tipo de error P
( ) 01426 . 0 98574 . 0 1 195 . 2
85
21
100 95
85
21
100 95
85
21
100
= = =
|
|
|

\
|


|
|
|

\
|

<

=
X
P


Tambin es importante examinar la probabilidad de cometer error de tipo II, esto es

) / ( ) (
0 0
falsa es H H aceptar P II tipo de error P = =
Pero en este caso para llegar a un valor numrico necesitamos tener una alternativa especfica pues en
nuestro ejemplo:

( )
( )


=
|
|
|

\
|

=
|
|
|

\
|

=
= = = =
50
21
95
1
50
21
95
50
21
100 / 95 ) / ( ) (
0 0
X
P
X P falsa es H H aceptar P II tipo de error P


Donde anotamos con a la verdadera media poblacional desconocida.
Podemos entonces calcular para un valor particular de , por ejemplo nos puede interesar como se
comporta el test cuando la verdadera media es 94 = , entonces

( ) ( ) 3707 . 0 62930 . 0 1 3367 . 0 1
50
21
94 95
1
50
21
94 95
50
21
94
94 = = =
|
|
|

\
|

=
|
|
|

\
|

=
X
P

Grficamente:
















100 :
0
= H bajo
94 :
1
= H bajo
3707 . 0 ) 94 ( =
rechazo de zona
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
176
La probabilidad de cometer error de tipo II crece a medida que el valor verdadero de se acerca al
valor hipottico. Por ejemplo si el verdadero valor de fuera 94.7 entonces

( ) ( ) 46017 . 0 53983 . 0 1 101015 . 0 1
50
21
7 . 94 95
1
50
21
7 . 94 95
50
21
7 . 94
7 . 94 = = =
|
|
|

\
|

=
|
|
|

\
|

=
X
P


















Adems, la probabilidad de cometer error de tipo II disminuye a medida que el valor verdadero de
se aleja del valor hipottico. Por ejemplo si el verdadero valor de fuera 90 entonces

( ) ( ) 04648 . 0 95352 . 0 1 6835 . 1 1
50
21
90 95
1
50
21
90 95
50
21
90
90 = = =
|
|
|

\
|

=
|
|
|

\
|

=
X
P


















0 ' 10 :
0
= H bajo
7 . 94 :
1
= H bajo
rechazo de zona
46017 . 0 ) 7 . 94 ( =

( ) 04648 . 0 90 =
rechazo de zona
90 :
1
= H bajo
100 :
0
= H bajo
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
177
Tambin se puede reducir la probabilidad de cometer error de tipo II con el tamao de la muestra. Por
ejemplo si 85 = n entonces y 94 =

( ) ( ) 32997 . 0 67003 . 0 1 4390 . 0 1
85
21
94 95
1
85
21
94 95
85
21
94
94 = = =
|
|
|

\
|

=
|
|
|

\
|

=
X
P


Lo que se ha visto en los ejemplos anteriores se puede generalizar. Podemos recalcar los siguientes
puntos importantes:
1- El tamao de la regin crtica, y en consecuencia la probabilidad de cometer error de tipo I,
siempre pueden reducirse mediante una seleccin apropiada de los valores crticos.
2- Los errores tipo I y II estn relacionados. Una disminucin en la probabilidad en un tipo de error
siempre da como resultado un aumento en la probabilidad del otro, siempre que el tamao de la
muestra no cambie.
3- En general, un aumento en el tamao de la muestra reduce tanto a como a , siempre que los
valores crticos se mantengan constantes.
4- Cuando la hiptesis nula es falsa, aumenta a medida que el valor verdadero del parmetro tiende
al valor hipottico propuesto por la hiptesis nula. El valor de disminuye a medida que aumenta
la deferencia entre el verdadero valor medio y el propuesto.

En general el investigador controla la probabilidad del error de tipo I cuando selecciona los valores
crticos. Por lo tanto el rechazo de la hiptesis nula de manera errnea se puede fijar de antemano. Eso
hace que rechazar la hiptesis nula sea una conclusin fuerte.
La probabilidad de error de tipo II no es constante, sino que depende del valor verdadero del parme-
tro. Tambin depende del tamao de la muestra que se haya seleccionado. Como est en funcin
del tamao de la muestra y del valor verdadero del parmetro, la decisin de aceptar la hiptesis nula se
la considera una conclusin dbil, a menos que se sepa que es aceptablemente pequeo. Por lo tanto
cuando se acepta
0
H en realidad se es incapaz de rechazar
0
H . No se puede rechazar
0
H pues no
hay evidencia en contra
0
H .
Un concepto importante es el siguiente:
La potencia de un test es la probabilidad de rechazar la hiptesis nula. La simbolizamos ( ) . Para los
valores de tal que la alternativa es verdadera se tiene

( ) ( ) = |

\
|
= 1 /
0 0
falsa es H H rechazar P

Las pruebas estadsticas se comparan mediante la comparacin de sus propiedades de potencia.
La potencia es una medida de la sensibilidad del test, donde por sensibilidad se entiende la capacidad de
una prueba para detectar diferencias.
En el ejemplo anterior, la sensibilidad de la prueba para detectar la diferencia entre una tasa de emisin
media de 100 y otra de 94 es ( ) ( ) 6293 . 0 3707 . 0 1 94 1 94 = = = . Es decir si el valor verdadero de la
tasa de emisin media es 94, la prueba rechazar de manera correcta
0
H y detectar esta diferencia el
62.93% de las veces. Si el investigador piensa que este valor es bajo entonces el investigador puede
aumentar o el tamao de la muestra.

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
178
9.2 Prueba de hiptesis sobre la media, varianza conocida

Veamos ahora cmo construir una regla de decisin sobre la media de una poblacin.
Supongamos que la variable aleatoria de inters X tiene una media y una varianza
2
conocida.
Asumimos que X tiene distribucin normal, es decir ) , ( ~
2
N X .
Nuevamente, como en el ejemplo introductorio, es razonable tomar como estadstico de prueba al pro-
medio muestral X . Bajo las suposiciones hechas tenemos que
|
|

\
|
n
N X
2
, ~

.
Supongamos que tenemos las hiptesis


0 0
: = H contra
0 1
: H

Donde
0
es una constante especfica. Se toma una muestra aleatoria
n
X X X ,..., ,
2 1
de la poblacin.
Si
0 0
: = H es verdadera, entonces
|
|

\
|
n
N X
2
0
, ~

, por lo tanto el estadstico
n
X
Z

= tiene distribucin ) 1 , 0 ( N si
0 0
: = H es verdadera
Tomamos a Z como estadstico de prueba
Si
0 0
: = H es verdadera entonces

=
|
|

\
|
1
2 2
z Z z P
















Es evidente que una muestra que produce un valor del estadstico de prueba que cae en las colas de la
distribucin de Z ser inusual si
0 0
: = H es verdadera, por lo tanto esto es un indicador que
0
H es
falsa.
Entonces la regla de decisin es:

>
2
0
2
0

z Z si H aceptar
z Z si H rechazar


2

z
2

z
0
) 1 , 0 ( N
2


Zona de aceptacin
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
179
Notar que la probabilidad que la estadstica de prueba tome un valor que caiga en la zona de rechazo si
0
H es verdadera es igual a , es decir la probabilidad de cometer error de tipo I es pues

= + =
|
|
|

\
|
<

+
|
|
|

\
|
>

=
=
|
|
|

\
|
= >

= |

\
|
=
2 2
/ ) (
2
0
2
0
0
2
0
0 0
z
n
X
P z
n
X
P
z
n
X
P V es H H rechazar P I tipo de error P


Ejemplo:
El porcentaje deseado de SiO
2
en cierto tipo de cemento aluminoso es 5.5. Para probar si el verdadero
promedio de porcentaje es 5.5 para una planta de produccin en particular, se analizaron 16 muestras
obtenidas de manera independiente. Supongamos que el porcentaje de SiO
2
en una muestra est nor-
malmente distribuido con 3 . 0 = , y que 25 . 5 = x .
Indica esto de manera concluyente que el verdadero promedio de porcentaje difiere de 5.5?. Utilice
01 . 0 =

Solucin:
La v.a. de inters es X: porcentaje de SiO
2
en cierto tipo de cemento aluminoso
Asumimos que ) 3 , ( ~
2
N X
Podemos plantear las hiptesis

5 . 5 :
0
= H contra 5 . 5 :
1
H

Tenemos una muestra de tamao 16 = n que dio un promedio muestral 25 . 5 = x
Como 01 . 0 = entonces 575 . 2
005 . 0
2
= = z z



Por lo tanto la regla de decisin es

>

575 . 2
16
3
5 . 5
575 . 2
16
3
5 . 5
0
0
X
si H aceptar
X
si H rechazar


El estadstico
16
3
5 . 5 X
toma el valor 333333 . 0
16
3
5 . 5 25 . 5
0
=

= z

Como
2
01 . 0 0
575 . 2 333333 . 0 z z = < = se acepta
0
H
Tambin podemos desarrollar tests o pruebas de hiptesis para el caso de que la hiptesis alternativa es
unilateral.
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
180
Supongamos las hiptesis


0 0
: = H contra
0 1
: > H

En este caso la regin crtica debe colocarse en la cola superior de la distribucin normal estndar y el
rechazo de
0
H se har cuando el valor calculado de
0
z sea muy grande, esto es la regla de decisin ser

>

z
n
X
si H aceptar
z
n
X
si H rechazar
0
0
0
0



















De manera similar para las hiptesis


0 0
: = H contra
0 1
: < H

se calcula el valor del estadstico de prueba
0
z y se rechaza
0
H si el valor de
0
z es muy pequeo, es
decir la regla de decisin ser

<

z
n
X
si H aceptar
z
n
X
si H rechazar
0
0
0
0



z aceptacion de zona
) 1 , 0 ( N
0
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
181












Ejemplo:
Se sabe que la duracin, en horas, de un foco de 75 watts tiene una distribucin aproximadamente nor-
mal, con una desviacin estndar de 25 = horas. Se toma una muestra aleatoria de 20 focos, la cual
resulta tener una duracin promedio de 1040 = x horas
Existe evidencia que apoye la afirmacin de que la duracin promedio del foco es mayor que 1000
horas?. Utilice 05 . 0 = .

Solucin:
La v.a. de inters es X: duracin en horas de un foco tomado al azar
Asumimos ) 5 2 , ( ~
2
N X
Podemos plantear las hiptesis

1000 :
0
= H contra 1000 :
1
> H

Tenemos una muestra de tamao 20 = n que dio un promedio muestral 1040 = x
Como 05 . 0 = entonces 645 . 1
05 . 0
= = z z


Por lo tanto la regla de decisin es

>

645 . 1
20
25
1000
645 . 1
20
25
1000
0
0
X
si H aceptar
X
si H rechazar

El estadstico toma el valor
20
25
1000
=
X
Z toma el valor 1554 . 7
20
25
1000 1040
0
=

= z
Como
05 . 0 0
645 . 1 1554 . 7 z z = > = se rechaza
0
H


P- valor

Hasta ahora se dieron los resultados de una prueba de hiptesis estableciendo si la hiptesis nula fue o
no rechazada con un valor especificado de o nivel de significancia.
A menudo este planteamiento resulta inadecuado, ya que no proporciona ninguna idea sobre si el valor
calculado del estadstico est apenas en la regin de rechazo o bien ubicado dentro de ella. Adems, esta
forma de establecer los resultados impone a otros usuarios el nivel de significancia predeterminado.

z
0

) 1 , 0 ( N
aceptacion de zona
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
182
Para evitar estas dificultades, se adopta el enfoque del p-valor. El valor p o p-valor es la probabilidad de
que el estadstico de prueba tome un valor que sea al menos tan extremo como el valor observado del
estadstico de prueba cuando la hiptesis nula es verdadera. Es as como el p-valor da mucha informa-
cin sobre el peso de la evidencia contra
0
H , de modo que el investigador pueda llegar a una conclusin
para cualquier nivel de significancia especificado.
La definicin formal del p-valor es la siguiente:

Para las pruebas de distribuciones normales presentadas hasta el momento, es sencillo calcular el p-
valor.
Si
0
z es el valor calculado del estadstico de prueba Z, entonces el p-valor es
a) si las hiptesis son
0 1 0 0
: contra : = H H
( ) ( ) ( ) ( ) [ ] ( ) [ ] ( ) [ ]
0 0 0 0 0 0
1 2 1 2 1 1 1 z z z z z Z P z Z P valor p = = = < = > =
b) si las hiptesis son
0 1 0 0
: contra : > = H H
( ) ( ) ( )
0 0 0
1 1 z z Z P z Z P valor p = = > =
c) si las hiptesis son
0 1 0 0
: contra : < = H H
( ) ( )
0 0
z z Z P valor p = < =

Un p-valor muy chico significa mucha evidencia en contra de
0
H ; un p-valor alto significa que no hay
evidencia en contra
0
H
Notar que:
cia significan de nivel con acepta se entonces Si
0
H valor p <
cia significan de nivel con rechaza se entonces Si
0
H valor p >
Esto se ilustra en las siguientes figuras:















Ejemplos:
1- En el ejemplo anteltimo referido al porcentaje deseado de SiO
2
en cierto tipo de cemento aluminoso
las hiptesis eran: 5 . 5 :
0
= H contra 5 . 5 :
1
H ; y el estadstico de prueba tom el valor
2
01 . 0 0
575 . 2 333333 . 0 z z = < = ; por lo tanto se aceptaba
0
H .
El valor p es el nivel de significancia ms pequeo que conduce al rechazo de la hiptesis nula
0
H

z
valor p
0
z
0
z

z
rechazo de zona
rechazo de zona
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
183
En esta caso ( ) ( ) [ ] ( ) [ ] [ ] 7414 . 0 62930 . 0 1 2 33333 . 0 1 2 1 2
0 0
= = = = > = z z Z P valor p
Como el p-valor es muy alto no hay evidencia en contra
0
H . Se necesitara tomar un valor de
mayor a 0.7414 para rechazar
0
H .

2- En el ltimo ejemplo, sobre la duracin, en horas, de un foco de 75 watts, las hiptesis eran
1000 :
0
= H contra 1000 :
1
> H ; y el estadstico Z tom el valor
05 . 0 0
645 . 1 1554 . 7 z z = > = ;
por lo tanto se rechazaba
0
H .
En este caso
( ) ( ) ( ) 0 1554 . 7 1 1
0 0
= = > = z z Z P valor p
Como el p-valor es casi cero hay mucha evidencia en contra de
0
H . Prcticamente para ningn
valor de se acepta
0
H


Error de tipo II y seleccin del tamao de la muestra

En la prueba de hiptesis el investigador selecciona directamente la probabilidad del error de tipo I. Sin
embargo, la probabilidad de cometer error de tipo II depende del tamao de la muestra y del valor
verdadero del parmetro desconocido.
Supongamos las hiptesis

0 1 0 0
: contra : = H H
Entonces si anotamos con al valor verdadero del parmetro

( )
|
|
|

\
|

= =
0
2
0
0 0

z
n
X
P falsa es H H aceptar P
Como la hiptesis nula es falsa, entonces
n
X

no tiene distribucin ) 1 , 0 ( N
Por lo tanto hacemos lo siguiente:

n n
X
n
X
n
X

0 0 0

+

=
+
=

; y ahora como ) 1 , 0 ( ~ N
n
X


pues se estandariz a

X con el verdadero , entonces
=
|
|
|

\
|

=
|
|
|

\
|

=
0
2
0
2
0
2
0


z
n
X
z P z
n
X
P
( ) ( )
=
|
|
|

\
|

=
|
|
|

\
|

=
n
z
n
X
n
z P z
n n
X
z P


0
2
0
2
0
2
0
2

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
184
( ) ( ) ( ) ( )
|
|

\
|


|
|

\
|

=
|
|
|

\
|


|
|
|

\
|

= n z n z
n
z
n
z



0
2
0
2
0
2
0
2


En consecuencia







Para un valor especfico de y un valor de dado, podemos preguntarnos qu tamao de muestra se
necesita para que sea menor que un valor dado en particular
0
.
Por ejemplo si 0
0
> entonces podemos aproximar
( )
0
0
2

|
|

\
|

n z

, y planteamos que
( )
( )
0
0
2

<
|
|

\
|

= n z . Buscamos en la tabla de la ) 1 , 0 ( N para qu z se cumple que
( )
0
= z , lo anotamos
0

z , y entonces podemos escribir



( ) ( )
( )
2
0
2
2
2 0
2
0
2
0
0 0

|
|

\
|
+
>

< + <

z z
n n z z z n z

En el caso de ser 0
0
< entonces podemos aproximar
( )
1
0
2

|
|

\
|

n z

, y planteamos que
( )
( )
0
0
2
1

<
|
|

\
|

= n z . Es decir
( )
|
|

\
|

< n z

0
2
0
1
Buscamos en la tabla de la ) 1 , 0 ( N para qu z se cumple que ( )
0
1 = z , lo anotamos
0

z , y enton-
ces podemos escribir
( ) ( )
{
( )
2
0
2
2
2
0 -
0
2
0
2
0
0
0 0

|
|

\
|
+
>

< + >


<
z z
n n z z z n z

En consecuencia queda la misma frmula que la anterior
Por lo tanto






Si las hiptesis son
0 1 0 0
: contra : = H H , entonces
( )
( ) ( )
|
|

\
|


|
|

\
|

= n z n z




0
2
0
2

Si las hiptesis son
0 1 0 0
: contra : = H H , entonces

( )
2
0
2
2
2
0

\
|
+
>
z z
n
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
185
En forma anloga se pude probar que si las hiptesis son


0 1 0 0
: contra : > = H H
Entonces
( ) =
|
|
|

\
|

= =
0
0
0 0

z
n
X
P falsa es H H aceptar P

( ) ( ) ( )
|

\
|
=
|
|
|

\
|

=
|
|
|

\
|

=
|
|
|

\
|

= n z
n
z
n
z
n
X
P z
n n
X
P


0 0 0
0
0

Entonces







Y si tenemos las hiptesis
0 1 0 0
: contra : < = H H
( )
( ) ( )
|

\
|
=
|
|
|

\
|

=
|
|
|

\
|

=
=
|
|
|

\
|

= =
n z
n
z
n
X
P z
n n
X
P
z
n
X
P falsa es H H aceptar P

0 0
0
0
0
0
0 0
1



Entonces







Y adems con una deduccin anloga al caso de alternativa bilateral:








Si las hiptesis son
0 1 0 0
: contra : > = H H , (o
0 1
: > H ) entonces

( )
( )
2
0
2 2
0

+
>
z z
n
Si las hiptesis son :
0 1 0 0
: contra : > = H H entonces


( )
( )
|

\
|
= n z

0

Si las hiptesis son :
0 1 0 0
: contra : < = H H entonces


( )
( )
|

\
|
= n z

0
1

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
186
Ejemplos:
1- En el ejemplo referido al porcentaje deseado de SiO
2
en cierto tipo de cemento aluminoso las
hiptesis eran: 5 . 5 :
0
= H contra 5 . 5 :
1
H ; y el estadstico de prueba tom el valor
2
01 . 0 0
575 . 2 333333 . 0 z z = < = ; por lo tanto se aceptaba
0
H . Tenamos 16 = n y 3 =
Si el verdadero promedio de porcentaje es 6 . 5 = y se realiza una prueba de nivel 01 . 0 = con
base en n = 16, cul es la probabilidad de detectar esta desviacin?
Qu valor de n se requiere para satisfacer 01 . 0 = y 01 . 0 ) 6 . 5 ( = ?

Solucin:
La probabilidad de detectar la desviacin es la potencia del test cuando 6 . 5 = , es decir
( ) ( ) 6 . 5 1 / 6 . 5
0 0
= |

\
|
= falsa es H H rechazar P
Como estamos con hiptesis alternativa bilateral, calculamos


( )
( ) ( )
( ) ( )
( ) ( )
( ) ( ) 0107 . 0 6 . 5 9893 . 0 99664 . 0 1 99266 . 0
708 . 2 441 . 2 16
3
5 . 5 6 . 5
575 . 2 16
3
5 . 5 6 . 5
575 . 2
6 . 5 6 . 5
6 . 5
0
2
0
2
= = =
= = |

\
|
|

\
|
=
=
|
|

\
|

|
|

\
|
=


n z n z


Ahora se quiere hallar n tal que 01 . 0 ) 6 . 5 ( = , como el test es bilateral podemos usar directamente la
frmula con 33 . 2
01 . 0
0
= = z z




( )
( )
( )
21654 1225 . 21653
5 . 5 6 . 5
3 33 . 2 575 . 2
2
2 2
2
0
2
2
2
0
=

+
=

|
|

\
|
+
> n
z z
n





2- En el ltimo ejemplo, sobre la duracin, en horas, de un foco de 75 watts, las hiptesis eran
1000 :
0
= H contra 1000 :
1
> H ; y el estadstico Z tom el valor
05 . 0 0
645 . 1 1554 . 7 z z = > = ;
por lo tanto se rechazaba
0
H .
En este caso 25 = y 20 = n
Si la verdadera duracin promedio del foco es 1050 horas, cul es la probabilidad de error de tipo
II para la prueba?
Qu tamao de muestra es necesario para asegurar que el error de tipo II no es mayor que 0.10 si la
duracin promedio verdadera del foco es 1025 hs. ?
Solucin:
Como las hiptesis son 1000 :
0
= H contra 1000 :
1
> H entonces

( )
( ) ( )
( ) 0 29927 . 7 20
25
1000 1050
645 . 1
0
= |

\
|
= |

\
|
= n z


Para hallar n tal que ( ) 1 . 0 1025 aplicamos la frmula con 285 . 1
1 . 0
0
= = z z



Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
187

( )
( )
( )
( )
9 584 . 8
1000 1025
25 285 . 1 645 . 1
2
2 2
2
0
2 2
0
=

+
=

+
> n
z z
n





Relacin entre test de hiptesis e intervalos de confianza

Existe una estrecha relacin entre la prueba de hiptesis bilateral sobre un parmetro y el intervalo de
confianza de nivel 1 para .
Especficamente supongamos que tenemos las hiptesis


0 1 0 0
: contra : = H H
La regla de decisin es

>

2
0
0
2
0
0

z
n
X
si H aceptar
z
n
X
si H rechazar


Aceptar
0
H si
2
0

z
n
X

es equivalente a: aceptar
0
H si
2
0
2

z
n
X
z

; y esto es a
su vez equivalente, despejando
0
, a:

aceptar
0
H si
n
z X
n
z X


2
0
2
; es decir si
(


n
z X
n
z X


2 2
0
;
Pero resulta que
(


n
z X
n
z X


2 2
; es el intervalo de confianza que se construira para el
verdadero parmetro de nivel 1 .

Por lo tanto la regla de decisin queda:


n
z X
n
z X si H aceptar
n
z X
n
z X si H rechazar



2 2
0 0
2 2
0 0
;
;


Ejemplo:
En el ejemplo referido al porcentaje deseado de SiO
2
en cierto tipo de cemento aluminoso las
hiptesis eran: 5 . 5 :
0
= H contra 5 . 5 :
1
H ;
y tenamos 16 = n ; 3 = ; un promedio muestral 25 . 5 = x
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
188
Como 01 . 0 = entonces 575 . 2
005 . 0
2
= = z z


Construimos un intervalo de confianza de nivel 99 . 0 01 . 0 1 1 = =

[ ] 18125 . 7 ; 31875 . 3
16
3
575 . 2 25 . 5 ;
16
3
575 . 2 25 . 5 ;
2 2
=
(

+ =
(


n
z X
n
z X




Entonces la regla de decisin es:

[ ]
[ ]

18125 . 7 ; 31875 . 3 5 . 5
18125 . 7 ; 31875 . 3 5 . 5
0
0
si H aceptar
si H rechazar


Como [ ] 18125 . 7 ; 31875 . 3 5 . 5 , entonces se acepta
0
H .


9.3 Prueba de hiptesis sobre la media, varianza desconocida para muestras grandes

Hasta ahora se ha desarrollado el procedimiento de test de hiptesis para la hiptesis nula
:
0 0
= H suponiendo que
2
es conocida, pero en la mayora de las situaciones prcticas
2
es
desconocida. En general si 30 n , entonces la varianza muestral
2
S est prxima a
2
en la mayor
parte de las muestras, de modo que es posible sustituir
2
S por
2
. Es decir el estadstico

) 1 , 0 (
0
N
n
S
X
Z

=

aproximadamente, si 30 n si :
0 0
= H

Adems, si no podemos decir que la muestra aleatoria proviene de una poblacin normal, sea
2
cono-
cida o no, por T.C.L. los estadsticos

) 1 , 0 (
0
N
n
S
X
Z

=

aproximadamente, si 30 n si :
0 0
= H
Y
) 1 , 0 (
0
N
n
X
Z

aproximadamente, si 30 n si :
0 0
= H
Las pruebas de hiptesis tendrn entonces un nivel de significancia aproximadamente de

Ejemplo:
Un inspector midi el volumen de llenado de una muestra aleatoria de 100 latas de jugo cuya etiqueta
afirmaba que contenan 12 oz. La muestra tena una media de volumen de 11.98 oz y desviacin estn-
dar de 0.19 oz. Sea la verdadera media del volumen de llenado para todas las latas de jugo reciente-
mente llenadas con esta mquina. El inspector probar 12 :
0
= H contra 12 :
1
H
a) Determinar el p-valor
b) Piensa que es factible que la media del volumen de llenado es de 12 oz?

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
189
Solucin:
La v.a. de inters sera X: volumen de llenado de una lata tomada al azar
No se especifica ninguna distribucin para X. Anotamos = ) ( X E y
2
) ( = X V , ambas desconocidas.
Se toma una muestra de 100 = n latas y se obtiene 98 . 11 = x y 19 . 0 = s
Las hiptesis son 12 :
0
= H contra 12 :
1
H
El estadstico de prueba es

100
12
0
S
X
n
S
X
Z

=

=

y si 12 :
0
= H es verdadera entonces ) 1 , 0 ( N Z
El estadstico Z toma el valor 0526 . 1
100
19 . 0
12 98 . 11
0
=

= z
Como la hiptesis alternativa es bilateral entonces
( ) ( ) [ ] [ ] 29372 . 0 85314 . 0 1 2 0526 . 1 1 2
0
= = > = z Z P valor p
Como el p-valor es mayor que 0.05 se considera que no hay evidencia en contra de 12 :
0
= H
Por lo tanto es factible que la media del volumen de llenado sea de 12 oz



9.4 Prueba de hiptesis sobre la media de una distribucin normal, varianza desconocida

Cuando se prueban hiptesis sobre la media de una poblacin cuando
2
es desconocida es posible
utilizar los procedimientos de prueba dados anteriormente siempre y cuando el tamao de la muestra sea
grande ( 30 n ). Estos procedimientos son aproximadamente vlidos sin importar si la poblacin de
inters es normal o no. Pero si la muestra es pequea y
2
es desconocida debe suponerse que la distri-
bucin de la variable de inters es normal.
Especficamente, supongamos que la v.a. de inters tiene distribucin ) , (
2
N donde y
2
son
desconocidas.
Supongamos las hiptesis
0 1 0 0
: contra : = H H
Sea
n
X X X ,..., ;
2 1
una muestra aleatoria de tamao n de la v.a. X y sean X y
2
S la media y la varianza
muestrales respectivamente.
El procedimiento se basa en el estadstico


n S
X
T
/
0

=
El cual, si la hiptesis nula es verdadera, tiene distribucin Student con n-1 grados de libertad.
Entonces, para un nivel prefijado, la regla de decisin es

>

1 ,
2
0
1 ,
2
0
n
n
t T si H aceptar
t T si H rechazar

es decir

>

1 ,
2
0
0
1 ,
2
0
0
n
n
t
n
S
X
si H aceptar
t
n
S
X
si H rechazar


Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
190
La lgica sigue siendo la misma, si el estadstico de prueba toma un valor inusual, entonces se consi-
dera que hay evidencia en contra
0
H y se rechaza la hiptesis nula. Como ahora la distribucin del
estadstico es Student, nos fijamos si T toma un valor
0
t en las colas de la distribucin Student con n-1
grados de libertad.

Si la alternativa es
0 1
: > H entonces la regla de decisin es

>

1 , 0
1 , 0
n
n
t T si H aceptar
t T si H rechazar


Si la alternativa es
0 1
: < H entonces la regla de decisin es


<

1 , 0
1 , 0
n
n
t T si H aceptar
t T si H rechazar



Ejemplo:
Antes de que una sustancia se pueda considerar segura para enterrarse como residuo se deben caracteri-
zar sus propiedades qumicas. Se toman 6 muestras de lodo de una planta de tratamiento de agua resi-
dual en una regin y se les mide el pH obtenindose una media muestral de 6.68 y una desviacin estn-
dar muestral de 0.20. Se puede concluir que la media del pH es menor que 7.0? Utilizar 05 . 0 = y
suponer que la muestra fue tomada de una poblacin normal.

Solucin:
La v.a. de inters es X: pH de una muestra de lodo tomada al azar
Asumimos que X tiene distribucin ) , (
2
N
Las hiptesis seran 0 . 7 : contra 0 . 7 :
1 0
< = H H
El estadstico de prueba es
6 /
0 . 7
S
X
T

= y toma el valor 919 . 3
6 / 20 . 0
0 . 7 68 . 6
0
=

= t
Buscamos en la tabla de la distribucin Student 015 . 2
5 , 05 . 0 1 ,
= =

t t
n

Entonces como 015 . 2 919 . 3
5 , 05 . 0 1 , 0
= = < =

t t t
n
se rechaza
0
H , por lo tanto hay evidencia que
0 . 7 <

P-valor de un test t

En este caso el clculo del p- valor se realiza considerando:
Si
0
t es el valor calculado del estadstico de prueba T, entonces el p-valor es
a) las hiptesis son
0 1 0 0
: contra : = H H
( ) ( ) ( ) ( )
0 0 0
1 2 1 t T P t T P t T P valor p = = > =
b) las hiptesis son
0 1 0 0
: contra : > = H H
( ) ( )
0 0
1 t T P t T P valor p = > =
c) las hiptesis son
0 1 0 0
: contra : < = H H
( )
0
t T P valor p =

Para calcular el p-valor en una prueba t nos encontramos con la dificultad que las tablas de la Student no
son completas, por lo tanto en algunas ocasiones se deber acotar el p-valor
En el ejemplo anterior para calcular el p-valor de la prueba como es un test con alternativa unilateral
( ) ( ) 919 . 3
0
= = T P t T P valor p
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
191
Buscamos en la tabla de la distribucin Student la fila donde figuran 5 = grados de libertad y vemos
que el valor 3.919 no est tabulado.
Pero 032 . 4 919 . 3 365 . 3 < < , y ( ) 01 . 0 365 . 3
5
= > T P y ( ) 005 . 0 032 . 4
5
= > T P
Por lo tanto ( ) 01 . 0 919 . 3 005 . 0
5
< > < T P , es decir
( ) 01 . 0 919 . 3 005 . 0
5
< < = < T P valor p
Podemos deducir que existe evidencia de que la media del pH es menor que 0.7



9.5 Prueba de hiptesis sobre la diferencia de dos medias, varianzas conocidas

Supongamos que tenemos dos variables aleatorias independientes normalmente distribuidas:
( )
( )

2
2 2 2
2
1 1 1
, N ~ X
, N ~ X
y suponemos que las varianzas
2
1
y
2
2
son conocidas.

Sean adems
( )
1
1 12 11 n
X ,..., X , X una muestra aleatoria de tamao
1
n de
1
X
( )
2
2 22 21 n
X ,..., X , X una muestra aleatoria de tamao
2
n de
2
X .

El inters recae en probar que
0 2 1
= donde
0
es un valor fijado, por ejemplo si 0
0
=
entonces se querr probar que 0
2 1
= es decir que las medias son iguales.
Ya sabemos que bajo las suposiciones anteriores

|
|

\
|
=
|
|

\
|
=

=
=
2
1
1 2
2
2
2 2
2
2
1 1
2
1
1 1
1
1
1
1
n
i
i
n
i
i
n

, N ~ X
n
X
n

, N ~ X
n
X


Y adems

|
|

\
|
+
2
2
2
1
2
1
2 1 2 1
, N ~
n n
X X

.
Por lo tanto

( )
( ) 1 , 0 N ~
2
2
2
1
2
1
2 1 2 1
n n
X X
Z


+

= , es decir, tiene distribucin normal estandarizada.
Si consideramos las hiptesis


0 2 1 1 0 2 1 0
: contra : = H H

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
192
Entonces usamos como estadstico de prueba a
2
2
2
1
2
1
0 2 1
n n
X X
Z

+

=
Y ( ) 1 , 0 N ~
2
2
2
1
2
1
0 2 1
n n
X X
Z

+

= si :
0 2 1 0
= H es verdadera

Por lo tanto la regla de decisin ser

>
2
0
2
0

z Z si H aceptar
z Z si H rechazar
donde
2
2
2
1
2
1
0 2 1
n n
X X
Z

+

=


Si
0 2 1 1
: > H entonces la regla de decisin es

>

z Z si H aceptar
z Z si H rechazar
0
0


Si
0 2 1 1
: < H entonces la regla de decisin es


<

z Z si H aceptar
z Z si H rechazar
0
0


Ejemplos:
1- Un diseador de productos est interesado en reducir el tiempo de secado de una pintura tapaporos.
Se prueban dos frmulas de pintura. La frmula 1 tiene el contenido qumico estndar, y la frmula 2
tiene un nuevo ingrediente secante que debe reducir el tiempo de secado. De la experiencia se sabe que
la desviacin estndar del tiempo de secado es 8 minutos, y esta variabilidad no debe verse afectada
por la adicin del nuevo ingrediente. Se pintan 10 especmenes con la frmula 1 y otros 10 con la fr-
mula 2. los tiempos promedio de secado muestrales fueron 121
1
= x minutos y 112
2
= x minutos res-
pectivamente.
A qu conclusiones debe llegar el diseador del producto sobre la eficacia del nuevo ingrediente uti-
lizando 05 . 0 = ?

Solucin:
Aqu las hiptesis son 0 : contra 0 :
2 1 1 2 1 0
> = H H

El estadstico de prueba es
10
8
10
8
2 2
2 1
+

=
X X
Z y toma el valor 52 . 2
10
8
10
8
112 121
2 2
0
=
+

= z

Buscamos en la tabla de la normal estndar 645 . 1
05 . 0
= = z z



Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
193
Como 645 . 1 52 . 2
05 . 0 0
= = > = z z z

se rechaza
0
H al nivel 0.05 y se concluye que el nuevo ingredien-
te disminuye el tiempo de secado.

El clculo del p-valor y la deduccin de la probabilidad de cometer error de tipo II se obtienen de
manera anloga a los casos anteriores. Por ejemplo para la alternativa bilateral la expresin para
es la siguiente donde anotamos = =
0 2 1


( )
|
|
|
|
|

\
|
+

|
|
|
|
|

\
|
+
= =
2
2
2
1
2
1
2
2
2
2
1
2
1
2
0 0

n n
z
n n
z falsa es H H aceptar P





En el ejemplo anterior el ( ) ( ) ( ) 0059 0 52 . 2 1 52 . 2
0
= = > = > = Z P z Z P valor p

Tambin es posible obtener frmulas para el tamao de la muestra necesario para obtener una espe-
cfica para una diferencia dada en las medias = =
0 2 1
y . Si asumimos que
n n n = =
2 1
entonces













9.6 Prueba de hiptesis sobre la diferencia de dos medias, varianzas desconocidas

Caso 1:
2
2
2
1


Supongamos que tenemos dos variables aleatorias independientes normalmente distribuidas:

( )
( )

2
2 2 2
2
1 1 1
, N ~ X
, N ~ X
y las varianzas
2
1
y
2
2
son desconocidas .

y adems

( )
1
1 12 11 n
X ,..., X , X es una muestra aleatoria de tamao
1
n de
1
X
( )
2
2 22 21 n
X ,..., X , X es una muestra aleatoria de tamao
2
n de
2
X .
Para
0 2 1 1
: H es
( )
2
2
2
2
1
2
2
0



+ |

\
|
+
>
z z
n

Para
0 2 1 1
: > H o
0 2 1 1
: < H es
( ) ( )
2
2
2
2
1
2
0



+ +
>
z z
n
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
194
Si las muestras aleatorias se toma de una distribucin normal, donde
1
y
2
son desconocidos,
30
1
n y 30
2
n , entonces se puede probar que al reemplazar
1
por S
1
y
2
por S
2
, el estadstico

) 1 , 0 (
) (
1
2
1
1
2
1
2 1 2 1
N
n
S
n
S
X X

+

.
aproximadamente
Por lo tanto si anotamos
1
2
1
1
2
1
0 2 1
n
S
n
S
X X
Z
+

= valen las reglas de decisin vistas en la seccin anterior,
con la diferencia que el nivel de significancia del test ser aproximadamente 1

Si ahora
1
n o
2
n no son mayores que 30, entonces

1
2
1
1
2
1
0 2 1 *
n
S
n
S
X X
T
+

=
tiene distribucin aproximadamente Student con grados de libertad bajo la hiptesis
0 2 1 0
: = H donde

( )
( ) ( )
1 1
2
2
2
2
2
1
2
1
1
1
2
2
2
2 1
2
1

+
=
n
n S
n
n S
n S n S
si no es entero, se toma el entero ms prximo a

Por lo tanto, si las hiptesis son

0 2 1 1 0 2 1 0
: contra : = H H entonces la regla de decisin es

>

,
2
*
0
,
2
*
0
t T si H aceptar
t T si H rechazar


Si
0 2 1 1
: > H entonces la regla de decisin es

>


,
*
0
,
*
0
t T si H aceptar
t T si H rechazar


Si
0 2 1 1
: < H entonces la regla de decisin es


<


,
*
0
,
*
0
t T si H aceptar
t T si H rechazar


Ejemplo:
Un fabricante de monitores prueba dos diseos de microcircuitos para determinar si producen un flujo
de corriente equivalente. El departamento de ingeniera ha obtenido los datos siguientes:
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
195

Diseo 1 15
1
= n 2 . 24
1
= x 10
2
1
= s
Diseo 2
10
2
= n 9 . 23
2
= x
20
2
2
= s

Con 10 . 0 = se desea determinar si existe alguna diferencia significativa en el flujo de corriente me-
dio entre los dos diseos, donde se supone que las poblaciones son normales.

Solucin:
Las variables aleatorias de inters son
:
1
X flujo de corriente en diseo 1
:
2
X flujo de corriente en diseo 2
Asumimos que ( )
2
1 1 1
, N ~ X y ( )
2
2 2 2
, N ~ X donde los parmetros son desconocidos
Las hiptesis seran 0 : contra 0 :
2 1 1 2 1 0
= H H
El estadstico de prueba es

10 15
2
1
2
1
2 1 *
S S
X X
T
+

= que en este caso toma el valor 18 . 0


10
20
15
10
9 . 23 2 . 24
*
0
=
+

= t
Debemos buscar en la tabla de la distribucin Student

,
2
10 . 0
,
2
t t = entonces calculamos
( )
( ) ( )
( )
( ) ( )
15 9333 . 14
1 10
10 20
1 15
15 10
10 20 15 10
1 1
2 2
2
2
2
2
2
2
1
2
1
1
1
2
2
2
2 1
2
1
= =

+
=

+
=
n
n S
n
n S
n S n S


Por lo tanto 753 . 1
15 , 05 . 0
,
2
= = t t


Como 753 . 1 18 . 0
15 , 05 . 0
*
0
= < = t t entonces se acepta 0 :
2 1 0
= H
No hay evidencia fuerte que las medias de los dos flujos de corriente sean diferentes.
Si calculamos el p-valor
( ) ( ) 40 . 0 18 . 0
* *
0
*
> > = > = T P t T P valor p


Caso 2:
2 2
2
2
1
= =

Supongamos que tenemos dos variables aleatorias independientes normalmente distribuidas:

( )
( )

2
2 2 2
2
1 1 1
, N ~ X
, N ~ X
y las varianzas
2
1
y
2
2
son desconocidas pero iguales.

y adems
( )
1
1 12 11 n
X ,..., X , X es una muestra aleatoria de tamao
1
n de
1
X
( )
2
2 22 21 n
X ,..., X , X es una muestra aleatoria de tamao
2
n de
2
X .
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
196
Sean
1
X y
2
X las medias muestrales y
2
1
S y
2
2
S las varianzas muestrales. Como
2
1
S y
2
2
S son los
estimadores de la varianza comn
2
, entonces construimos un estimador combinado de
2
. Este
estimador es


( ) ( )
2
1 1
2 1
2
2 2
2
1 1 2
+
+
=
n n
S n S n
S
p

Se puede comprobar que es un estimador insesgado de
2
.
Ya vimos que se puede probar que el estadstico

2 1
0 2 1
1 1
n n
S
X X
T
p
+

=
r
tiene distribucin Student con 2
2 1
+ n n grados de libertad

Por lo tanto, si las hiptesis son

0 2 1 1 0 2 1 0
: contra : = H H entonces la regla de decisin es

>
+
+
2 ,
2
0
2 ,
2
0
2 1
2 1
n n
n n
t T si H aceptar
t T si H rechazar



Si
0 2 1 1
: > H entonces la regla de decisin es

>
+
+
2 , 0
2 , 0
2 1
2 1
n n
n n
t T si H aceptar
t T si H rechazar



Si
0 2 1 1
: < H entonces la regla de decisin es


<
+
+
2 , 0
2 , 0
2 1
2 1
n n
n n
t T si H aceptar
t T si H rechazar



Ejemplo:
Se tienen las mediciones del nivel de hierro en la sangre de dos muestras de nios: un grupo de nios
sanos y el otro padece fibrosis qustica. Los datos obtenidos se dan en la siguiente tabla:

sanos 9
1
= n 9 . 18
1
= x
2 2
1
9 . 5 = s
enfermos 13
2
= n 9 . 11
2
= x
2 2
2
3 . 6 = s

Podemos asumir que las muestras provienen de poblaciones normales independientes con iguales va-
rianzas.
Es de inters saber si las dos medias del nivel de hierro en sangre son iguales o distintas. Utilizar
05 . 0 =

Solucin:
Las variables de inters son
:
1
X nivel de hierro en sangre de un nio sano tomado al azar
:
2
X nivel de hierro en sangre de un nio con fibrosis qustica tomado al azar
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
197
Asumimos que ( )
2
1 1
, N ~ X y ( )
2
2 2
, N ~ X
Consideramos las hiptesis
0 : contra 0 :
2 1 1 2 1 0
= H H
Para calcular el valor del estadstico de prueba, primero calculamos

( ) ( ) ( ) ( )
14 . 6
2 13 9
3 . 6 1 13 9 . 5 1 9
2
1 1
2 2
2 1
2
2 2
2
1 1 2
=
+
+
=
+
+
= =
n n
S n S n
S S
p p


El estadstico de prueba es
13
1
9
1
2 1
+

=
p
S
X X
T
r
y toma el valor 63 . 2
13
1
9
1
14 . 6
9 . 11 9 . 18
0
=
+

= t

Buscamos en la tabla de la distribucin Student 086 . 2
20 , 025 . 0
2 ,
2
2 1
= =
+
t t
n n


Como 086 . 2 63 . 2
20 , 025 . 0 0
= > = t t entonces se rechaza 0 :
2 1 0
= H

Si calculamos el p-valor de la prueba

( ) ( ) ( ) ( ) ( ) 63 . 2 2 63 . 2 1 2 1 2
0
> = < = < = T P T P t T P valor p

Vemos de la tabla de la Student que 528 . 2
20 , 01 . 0
= t y 845 . 2
20 , 005 . 0
= t por lo tanto

( ) 01 . 0 2 63 . 2 2 005 . 0 2 < > = < T P valor p es decir 02 . 0 01 . 0 < < valor p



9.7 Prueba de hiptesis sobre la diferencia de dos medias para datos de a pares

Ya se vio el caso, cuando se habl de intervalos de confianza para una diferencia de medias, de datos
dados de a pares, es decir ( ) ( ) ( )
n n
X X X X X X
2 1 22 12 21 11
, ;...; , ; ,
1
.
Las variables aleatorias
1
X y
2
X tienen medias
1
y
2
respectivamente.
Consideramos
j j j
X X D
2 1
= con n j ,..., 2 , 1 = .
Entonces
( ) ( ) ( ) ( )
2 1 2 1 2 1
= = =
j j j j j
X E X E X X E D E
y

( ) ( ) ( ) ( ) ( ) ( )
2 1
2
2
2
1 2 1 2 1 2 1
, 2 , 2 X X Cov X X Cov X V X V X X V D V
j j j j j j j
+ = + = =

Estimamos ( )
2 1
=
j
D E con ( )
2 1
1
2 1
1
1 1
X X X X
n
D
n
D
n
j
j j
n
j
j
= = =

= =

En lugar de tratar de estimar la covarianza, estimamos la ( )
j
D V con ( )

=
n
j
j D
D D
n
S
1
2
1
1

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
198
Anotamos
2 1
=
D
y ( )
j
D D V =
2


Asumimos que ( )
2
, N ~
D D j
D con n j ,..., 2 , 1 =

Las variables aleatorias en pares diferentes son independientes, no lo son dentro de un mismo par.
Para construir una regla de decisin nuevamente, consideramos el estadstico


n S
D
T
D
D
/

= con distribucin
1 n
t
Si tenemos las hiptesis


0 2 1 1 0 2 1 0
: contra : = H H

Entonces el estadstico de prueba es

n S
D
T
D
/
0

= y tiene distribucin
1 n
t si
0 2 1 0
: = H es verdadera

Por lo tanto, la regla de decisin es

>

1 ,
2
0
1 ,
2
0
n
n
t T si H aceptar
t T si H rechazar

donde
n S
D
T
D
/
0

=

Si
0 2 1 1
: > H entonces la regla de decisin es

>

1 , 0
1 , 0
n
n
t T si H aceptar
t T si H rechazar


Si
0 2 1 1
: < H entonces la regla de decisin es


<

1 , 0
1 , 0
n
n
t T si H aceptar
t T si H rechazar


Ejemplo:
Se comparan dos microprocesadores en una muestra de 6 cdigos de puntos de referencia para determi-
nar si hay una diferencia en la rapidez. Los tiempos en segundos utilizados para cada procesador en cada
cdigo estn dados en la siguiente tabla:

Cdigo
1 2 3 4 5 6
Procesador A 27.2 18.1 27.2 19.7 24.5 22.1
Procesador B 24.1 19.3 26.8 20.1 27.6 29.8

Puede concluir que las medias de la rapidez de ambos procesadores son diferentes con nivel de signifi-
cancia 0.05?

Solucin:
Las variables aleatorias de inters son
:
1
X rapidez del procesador A en un cdigo tomado al azar
:
2
X rapidez del procesador B en un cdigo tomado al azar
Como ambas variables se miden sobre un mismo cdigo no podemos asumir que son independientes.
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
199
Las hiptesis son 0 : contra 0 :
2 1 1 2 1 0
= H H
Necesitamos la muestra de las diferencias
j
D :
3.1, -1.2; 0.4; -0.4; -3.1; -7.7
De esta muestra obtenemos 483333 . 1 = d y 66246 . 3 =
D
s

Adems 05 . 0 = 571 . 2
5 , 025 . 0
1 ,
2
= =

t t
n


El estadstico de prueba es
6 /
D
S
D
T = y toma el valor 99206 . 0
6 / 66246 . 3
483333 . 1
0
=

= t
Como 571 . 2 99206 . 0
5 , 025 . 0
1 ,
2
0
= = < =

t t t
n

entonces se acepta la hiptesis nula. No hay evidencia de que


las medias de la rapidez de ambos procesadores sean diferentes.



9.8 Tests de hiptesis sobre la varianza

Supongamos que se desea probar la hiptesis de que la varianza de una poblacin normal es igual a un
valor especfico, por ejemplo
2
0
.
Sea ( )
n
X ,..., X , X
2 1
una muestra aleatoria de tamao n de una v.a. X, donde ) , ( ~
2
N X .
Tomamos como estimador puntual de
2
a ( )
2
1 1
2
1
1

=
n
i
X X
n
S
Luego a partir de este estimador puntual construimos el estadstico
( )
2
2
1

S n
X

=
Este estadstico contiene al parmetro desconocido a estimar
2
y ya sabemos que tiene una distribu-
cin llamada ji-cuadrado con n-1 grados de libertad
Supongamos las hiptesis


2
0
2
0
: = H contra
2
0
2
1
: H

Tomamos como estadstico de prueba a

( )
2
0
2
1

S n
X

= y si
2
0
2
0
: = H es verdadera , entonces
( )
2
0
2
1

S n
X

= ~
2
1 n


Nuevamente, el razonamiento es: si el estadstico X que bajo
2
0
2
0
: = H tiene distribucin
2
1 n
toma
un valor inusual, se considera que hay evidencia en contra H
0
Recordar que la distribucin
2
1 n
es asimtrica. Entonces la regla de decisin es


< >


2
1 ,
2
2
1 ,
2
1
0
2
1 ,
2
1
2
1 ,
2
0
n n
n n
X si H aceptar
X X si H recahzar




donde
( )
2
0
2
1

S n
X

=

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
200
Si
2
0
2
1
: > H entonces la regla de decisin es

>

2
1 , 0
2
1 , 0
n
n
X si H aceptar
X si H recahzar



Si
2
0
2
1
: < H entonces la regla de decisin es

<


2
1 , 1 0
2
1 , 1 0
n
n
X si H aceptar
X si H recahzar



Para calcular el p-valor, si el estadstico X tom el valor
0
x , y teniendo en cuenta que no hay simetra en
la distribucin ji-cuadrado, hacemos:

Si
2
0
2
1
: > H entonces ( )
0
x X P valor p > =
Si
2
0
2
1
: < H entonces ( )
0
x X P valor p < =
Si
2
0
2
1
: H entonces ( ) ( )|

\
|
> < =
0 0
, min 2 x X P x X P valor p

Ejemplo:
Consideremos nuevamente el ejemplo visto en la seccin de intervalos de confianza para la varianza
sobre la mquina de llenado de botellas. Al tomar una muestra aleatoria de 20 botellas se obtiene una
varianza muestral para el volumen de llenado de 0153 . 0
2
= s oz
2
.
Si la varianza del volumen de llenado es mayor que 0.01 oz
2
, entonces existe una proporcin inaceptable
de botellas que sern llenadas con una cantidad menor de lquido. Existe evidencia en los datos mues-
trales que sugiera que el fabricante tiene un problema con el llenado de las botellas? Utilice 05 . 0 =

Solucin:
La variable de inters es X: volumen de llenado de una botella tomada al azar
Asumimos ) , ( ~
2
N X
Los datos son 0153 . 0
2
= s de una muestra de tamao 20 = n

Las hiptesis son 01 . 0 :
2
0
= H contra 01 . 0 :
2
1
> H

05 . 0 = 14 . 30
2
19 , 05 . 0
2
1 ,
= =


n


El estadstico de prueba es
( )
01 . 0
19 1
2
2
0
2
S S n
X

=

y toma el valor
07 . 29
01 . 0
0153 . 0 19
01 . 0
19
2
0
=

=
S
x

Como < = 07 . 29
0
x 14 . 30
2
19 , 05 . 0
= entonces no hay evidencia fuerte de que la varianza del volumen
de llenado sea menor que 0.01
Para calcular el p-valor
( ) ( ) 07 . 29
0
> = > = X P x X P valor p
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
201
Buscamos en la tabla de la distribucin ji-cuadrado y vemos que en la fila con 19 = no figura 29.07,
pero 27.20 < 29.07 < 30.14, y adems


( )
( )
10 . 0 05 . 0
05 . 0 14 . 30
10 . 0 20 . 27
< <

= >
= >
valor p
X P
X P


En la figura siguiente se ilustra la situacin


















9.9 Tests de hiptesis sobre la igualdad de dos varianzas

Supongamos que tenemos inters en dos poblaciones normales independientes, donde las medias y las
varianzas de la poblacin son desconocidas. Se desea probar la hiptesis sobre la igualdad de las dos
varianzas, especficamente:
Supongamos que tenemos dos variables aleatorias independientes normalmente distribuidas:

( )
( )

2
2 2 2
2
1 1 1
, N ~ X
, N ~ X
y
1
;
2
;
2
1
y
2
2
son desconocidos

y adems

( )
1
1 12 11 n
X ,..., X , X es una muestra aleatoria de tamao
1
n de
1
X
( )
2
2 22 21 n
X ,..., X , X es una muestra aleatoria de tamao
2
n de
2
X .
Sean
2
1
S y
2
2
S las varianzas muestrales,
2
1
S y
2
2
S son los estimadores de
2
1
y
2
2
respectivamente.
Consideramos el estadstico

2
2
2
2
2
1
2
1

S
S
F =


Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
202
Notar que F contiene al parmetro de inters
2
1
2
21

, pues
2
1
2
2
2
2
2
1

=
S
S
F
Sabemos que F tiene una distribucin llamada Fisher con 1
1
n y 1
2
n grados de libertad.

Sean las hiptesis
2
2
2
1 0
: = H contra
2
2
2
1 1
: H

Tomamos como estadstico de prueba a
2
2
2
1
S
S
F =
Vemos que
2
2
2
1
S
S
F = ~
1 , 1
2 1
n n
F si
2
2
2
1 0
: = H es verdadera
Recordando que la distribucin Fisher es asimtrica, la regla de decisin es


< >


2
1 , 1 ,
2
2
1 , 1 ,
2
1
0
2
1 , 1 ,
2
1
2
1 , 1 ,
2
0
2 1 2 1
2 1 2 1
n n n n
n n n n
f F f si H aceptar
f F f F si H recahzar





Si
2
2
2
1 1
: > H entonces la regla de decisin es

>


2
1 , 1 , 0
2
1 , 1 , 0
2 1
2 1
n n
n n
f F si H aceptar
f F si H recahzar


Si
2
2
2
1 1
: < H entonces la regla de decisin es

<


2
1 , 1 , 1 0
2
1 , 1 , 1 0
2 1
2 1
n n
n n
f F si H aceptar
f F si H recahzar


Para calcular el p-valor, si el estadstico F tom el valor
0
f , y teniendo en cuenta que no hay simetra
en la distribucin Fisher, hacemos:

Si
2
2
2
1 1
: > H entonces ( )
0
f F P valor p > =
Si
2
2
2
1 1
: < H entonces ( )
0
f F P valor p < =
Si
2
2
2
1 1
: H entonces ( ) ( )|

\
|
> < =
0 0
, min 2 f F P f F P valor p

Ejemplo:
En una serie de experimentos para determinar la tasa de absorcin de ciertos pesticidas en la piel se
aplicaron cantidades medidas de dos pesticidas a algunos especmenes de piel. Despus de un tiempo
se midieron las cantidades absorbidas (en g ). Para el pesticida A la varianza de las cantidades absor-
bidas en 6 muestras fue de 2.3; mientras que para el B la varianza de las cantidades absorbidas en 10
especmenes fue de 0.6. Suponga que para cada pesticida las cantidades absorbidas constituyen una
muestra aleatoria de una poblacin normal. Se puede concluir que la varianza en la cantidad absorbi-
da es mayor para el pesticida A que para el B? Utilizar 05 . 0 =

Solucin:
Las variables aleatorias de inters son
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
203
:
1
X cantidad absorbida de pesticida A en un espcimen de piel tomado al azar
:
2
X cantidad absorbida de pesticida B en un espcimen de piel tomado al azar
Asumimos que ( )
2
1 1 1
, N ~ X y ( )
2
2 2 2
, N ~ X

Las hiptesis son
2
2
2
1 0
: = H contra
2
2
2
1 1
: < H
Los datos son 3 . 2
2
1
= s y 6 . 0
2
2
= s
6
1
= n ; 10
2
= n
El estadstico de prueba es
2
2
2
1
S
S
F = y toma el valor 83 . 3
6 . 0
3 . 2
0
= = f
Buscamos en la tabla de la distribucin Fisher 48 . 3
9 , 5 , 05 . 0
= f
Como
9 , 5 , 05 . 0 0
48 . 3 83 . 3
6 . 0
3 . 2
f f = > = = se rechaza
2
2
2
1 0
: = H
Para saber cunta evidencia hay contra la hiptesis nula, calculamos el p-valor
De la tabla de la Fisher vemos que 06 . 6 83 . 3 48 . 3
9 , 5 , 01 . 0 9 , 5 , 05 . 0
= < < = f f
Por lo tanto 05 . 0 01 . 0 < < valor p

En la figura siguiente se ilustra la situacin

















9.10 Tests de hiptesis sobre una proporcin

En muchos problemas se tiene inters en una variable aleatoria que sigue una distribucin binomial.
Por ejemplo, un proceso de produccin que fabrica artculos que son clasificados como aceptables o
defectuosos. Lo ms usual es modelar la ocurrencia de artculos defectuosos con la distribucin bino-
mial, donde el parmetro binomial p representa la proporcin de artculos defectuosos producidos.
En consecuencia, muchos problemas de decisin incluyen una prueba de hiptesis con respecto a p.
Consideremos las hiptesis


0 0
: p p H = contra
0 1
: p p H


Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
204
Supongamos que consideramos una muestra aleatoria ( )
n
X X X ..., ,
2 1
de tamao n , donde X
i
tiene
una distribucin binomial con parmetros 1 y p: X
i
~ B(1,p).
Ya sabemos que = X
n
X X X + + + ...
2 1
, es una v.a. cuya distribucin es binomial con parmetros n
y p: X~B(n,p). De acuerdo con esto, la variable aleatoria P

definida:
n
X
P

= representa la proporcin
de individuos de la muestra que verifican la propiedad de inters.
Adems

( ) ( ) p np
n
X E
n n
X
E P

E = = = |

\
|
=
1 1
, y ( ) ( )
( )
n
p p
p np
n n
X
V P

V

= = |

\
|
=
1
1
1
2

Consideramos el estadstico de prueba


( )
n
p p
p P
Z
0 0
0
1

=

Si
0 0
: p p H = es verdadera entonces
( )
) 1 , 0 (
1

0 0
0
N
n
p p
p P
Z

= aproximadamente por T.C.L.


Por lo tanto la regla de decisin es

>
2
0
2
0

z Z si H aceptar
z Z si H rechazar
donde
( )
n
p p
p P
Z
0 0
0
1

=

Si
0 1
: p p H > entonces la regla de decisin es

>

z Z si H aceptar
z Z si H rechazar
0
0


Si
0 1
: p p H < entonces la regla de decisin es


<

z Z si H aceptar
z Z si H rechazar
0
0


Observaciones:
1- La prueba descrita anteriormente requiere que la proporcin muestral est normalmente distribuida.
Esta suposicin estar justificada siempre que 10
0
> np y ( ) 10 1
0
> p n , donde
0
p es la proporcin
poblacional que se especific en la hiptesis nula.
2- Tambin se poda haber tomado como estadstico de prueba a
( )
0 0
0
1 p np
np X
Z

= donde X~B(n,p)
Ejemplo:
Un fabricante de semiconductores produce controladores que se emplean en aplicaciones de motores
automovilsticos. El cliente requiere que la fraccin de controladores defectuosos en uno de los pasos
de manufactura crticos no sea mayor que 0.05, y que el fabricante demuestre esta caracterstica del
proceso de fabricacin con este nivel de calidad, utilizando 05 . 0 = . E fabricante de semiconductores
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
205
toma una muestra aleatoria de 200 dispositivos y encuentra que 4 de ellos son defectuosos. El fabri-
cante puede demostrar al cliente la calidad del proceso?

Solucin:
Sea la v.a. X: nmero de controladores defectuosos en la muestra
Entonces X ~ B(200, p) donde p es la proporcin de controladores defectuosos en el proceso
Las hiptesis son 05 . 0 :
0
= p H contra 05 . 0 :
1
< p H
Como 05 . 0 = entonces 645 . 1
05 . 0
= = z z


El estadstico de prueba es
( ) ( )
200
05 . 0 1 05 . 0
05 . 0

0 0
0

=
P
n
p p
p P
Z y toma el valor 95 . 1
0
= z
Como < = 95 . 1
0
z 645 . 1
05 . 0
= = z z

entonces se rechaza
0
H , y se concluye que la fraccin de
controladores defectuosos es menor que 0.05.
Calculamos el p-valor
( ) ( ) ( ) 0256 . 0 95 . 1 95 . 1
0
= = < = < = Z P z Z P valor p


Valor de y seleccin del tamao de la muestra

Podemos obtener expresiones aproximadas para la probabilidad de cometer error de tipo II de manera
anloga a las obtenidas para los test para la media

Si
0 1
: p p H entonces

( )
( )
( )
( )
( )
|
|
|
|
|

\
|

+

|
|
|
|
|

\
|

+

|

\
|
=
n
p p
n
p p
z p p
n
p p
n
p p
z p p
falsa es H H aceptar P p
1
1
1
1
0 0
2
0
0 0
2
0
0 0



Si
0 1
: p p H < entonces

( )
( )
( )
|
|
|
|

\
|

\
|
=
n
p p
n
p p
z p p
falsa es H H aceptar P p
1
1
1
0 0
0
0 0



Si
0 1
: p p H > entonces
( )
( )
( )
|
|
|
|

\
|

+
|

\
|
=
n
p p
n
p p
z p p
falsa es H H aceptar P p
1
1
0 0
0
0 0


Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
206

Estas ecuaciones pueden resolverse para encontrar el tamao aproximado de la muestra n para que con
un nivel de significancia de la probabilidad de cometer error de tipo II sea menor o igual que un
valor especfico
0
. Las ecuaciones se deducen como en casos anteriores y son

Si
0 1
: p p H entonces
( ) ( )
2
0
0 0
2
1 1
0
|
|
|
|

\
|

p p
p p z p p z
n


Si
0 1
: p p H <
0 1
: p p H > entonces
( ) ( )
2
0
0 0
1 1
0
|
|

\
|

p p
p p z p p z
n



Ejemplo:
Volviendo al ejemplo anterior, supongamos que la verdadera proporcin de componentes defectuosos
en el proceso es 03 . 0 = p , cul es el valor de si 200 = n y 05 . 0 = ?

Solucin:
Ya que la alternativa es
0 1
: p p H < aplicamos la frmula
( )
( )
( )
( )
( )
( ) 67 . 0 44 . 0 1
200
03 . 0 1 03 . 0
05 . 0 1 05 . 0
645 . 1 03 . 0 05 . 0
1
1
1
1
0 0
0
0 0
= =
|
|
|
|

\
|


=
=
|
|
|
|

\
|

\
|
=
n
n
p p
n
p p
z p p
falsa es H H aceptar P p



Como la probabilidad de aceptar que el proceso tiene la calidad deseada cuando en realidad 03 . 0 = p
es bastante alta, podemos preguntar qu tamao de muestra se necesita para que en el test anterior sea
1 . 0 < si la verdadera proporcin de defectuosos es 03 . 0 = p . En este caso aplicamos la frmula
donde 28 . 1
1 . 0
0
= = z z



( ) ( )
( ) ( )
832
05 . 0 03 . 0
03 . 0 1 03 . 0 28 . 1 05 . 0 1 05 . 0 645 . 1
1 1
2
2
0
0 0
0

|
|

\
|

+
=
|
|

\
|

p p
p p z p p z
n



La muestra requerida es muy grande, pero la diferencia a detectar 05 . 0 03 . 0
0
= p p es bastante pe-
quea.



9.11 Tests de hiptesis sobre dos proporciones

Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
207
Las pruebas de hiptesis sobre diferencia de medias pueden adaptarse al caso donde tenemos dos pa-
rmetros binomiales
1
p y
2
p de inters.
Especficamente, supongamos que se toman dos muestras aleatorias
( )
1
1 12 11 n
X ,..., X , X es una muestra aleatoria de tamao
1
n de
1
X
( )
2
2 22 21 n
X ,..., X , X es una muestra aleatoria de tamao
2
n de
2
X
Donde ) , 1 ( ~
1 1
p B X ; ) , 1 ( ~
2 2
p B X y
1
X y
2
X independientes.
Ya sabemos que

=
=
1
1
1
1
1
1

n
i
i
X
n
P y

=
=
2
1
2
2
2
1

n
i
i
X
n
P son estimadores insesgados de
1
p y
2
p respecti-
vamente, con varianzas ( )
( )
1
1 1
1
1

n
p p
P V

= y ( )
( )
2
2 2
2
1

n
p p
P V

=
Supongamos las hiptesis

0 : contra 0 :
2 1 1 2 1 0
= p p H p p H

Notar que si la hiptesis nula es verdadera entonces p p p = =
2 1
, donde p es desconocido.
El estadstico
( )
|
|

\
|
+

=
2 1
2 1
1 1
1

n n
p p
P P
Z tiene distribucin aproximadamente ) 1 , 0 ( N por T.C.L. si
0 :
2 1 0
= p p H es verdadera. Tomamos como estimador de p a
2 1
1 1
2 1
1 2

n n
X X
P
n
i
n
i
i i
+
+
=

= =
y lo reempla-
zamos en Z
Entonces el estadstico de prueba es
( )
|
|

\
|
+

=
2 1
2 1
1 1


n n
P P
P P
Z que bajo 0 :
2 1 0
= p p H se puede pro-
bar que tiene distribucin aproximadamente ) 1 , 0 ( N

Entonces la regla de decisin es

>
2
0
2
0

z Z si H aceptar
z Z si H rechazar
donde
( )
|
|

\
|
+

=
2 1
2 1
1 1


n n
P P
P P
Z

Si 0 :
2 1 1
> p p H entonces la regla de decisin es

>

z Z si H aceptar
z Z si H rechazar
0
0


Si 0 :
2 1 1
< p p H entonces la regla de decisin es


<

z Z si H aceptar
z Z si H rechazar
0
0



Ejemplo:
Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
208
En una muestra de 100 lotes de un producto qumico comprado al distribuidor A, 70 satisfacen una
especificacin de pureza. En una muestra de 70 lotes comprada al distribuidor B, 61 satisfacen la es-
pecificacin. Pude concluir que una proporcin mayor de los lotes del distribuidor B satisface la es-
pecificacin?


Solucin:
Los parmetros de inters son
1
p y
2
p las verdaderas proporciones de lotes que cumplen las especifi-
caciones de pureza.
Tenemos una muestra aleatoria ( )
1
1 12 11 n
X ,..., X , X de tamao 100
1
= n donde 7 . 0
100
70 1

1
1
1
1
1
= = =

=
n
i
i
X
n
P

Y otra muestra ( )
2
2 22 21 n
X ,..., X , X de tamao 70
2
= n donde
70
61 1

2
1
2
2
2
= =

=
n
i
i
X
n
P
Las hiptesis son 0 : contra 0 :
2 1 1 2 1 0
< = p p H p p H

El estadstico de prueba es
( )
|
|

\
|
+

=
2 1
2 1
1 1


n n
P P
P P
Z donde
2 1
1 1
2 1
1 2

n n
X X
P
n
i
n
i
i i
+
+
=

= =

En este caso
170
131
70 100
61 70

2 1
1 1
2 1
1 2
=
+
+
=
+
+
=

= =
n n
X X
P
n
i
n
i
i i


El estadstico toma el valor 6163 . 2
70
1
100
1
170
131
1
170
131
70
61
100
70
0
=
|

\
|
+ |

\
|

= z

Para saber cunta evidencia hay contra 0 :
2 1 0
= p p H calculamos el p-valor
( ) ( ) 0045 . 0 6163 . 2
0
= = < = z Z P valor p
Como el p-valor es menor que 0.05, se considera que hay mucha evidencia contra 0 :
2 1 0
= p p H y
se rechaza la hiptesis nula.


Valor de
Cuando 0 :
2 1 0
= p p H es falsa, la varianza de
2 1

P P es
( ) ( ) ( )
( ) ( )
2
2 2
1
1 1
2 1 2 1
1 1

n
p p
n
p p
P V P V P P V

+

= + =

Anotamos ( ) ( ) ( )
( ) ( )
2
2 2
1
1 1
2 1 2 1
1 1

2 1
n
p p
n
p p
P V P V P P V
P P

= + = =



Parte 2 Test de hiptesis Prof. Mara B. Pintarelli
209

Entonces

Si 0 :
2 1 1
p p H
( ) ( )
|
|
|
|
|
|

\
|

|
|

\
|
+

|
|
|
|
|
|

\
|

|
|

\
|
+


2 1 2 1

2 1
2 1
2

2 1
2 1
2
1 1 1 1
P P P P
p p
n n
q p z p p
n n
q p z




Donde
2 1
2 2 1 1
n n
p n p n
p
+
+
= y p q =1

Si 0 :
2 1 1
> p p H entonces
( )
|
|
|
|
|
|

\
|

|
|

\
|
+

2 1

2 1
2 1
1 1
P P
p p
n n
q p z


Si 0 :
2 1 1
< p p H entonces
( )
|
|
|
|
|
|

\
|

|
|

\
|
+

2 1

2 1
2 1
1 1
1
P P
p p
n n
q p z


Podemos deducir frmulas para el tamao de la muestra, nuevamente asumiendo que n n n = =
2 1


Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
210
10 REGRESIN LINEAL SIMPLE

10.1 Introduccin

En muchos problemas existe una relacin entre dos o ms variables, y resulta de inters estudiar
la naturaleza de esa relacin. El anlisis de regresin es la tcnica estadstica para el modelado y
la investigacin de la relacin entre dos o ms variables. Veamos un ejemplo.
Los resortes se usan en aplicaciones por su capacidad para alargarse (contraerse) bajo carga. La
rigidez de un resorte se mide con la constante del resorte, que es la longitud del resorte que se
alargar por unidad de la fuerza o de la carga. Para asegurarse de que un resorte dado funciona
adecuadamente es necesario calcular la constante de resorte con exactitud y precisin.
En este experimento hipottico un resorte se cuelga verticalmente con un extremo fijo, y los pe-
sos se cuelgan uno tras otro del otro extremo. Despus de colgar cada peso se mide la longitud
del resorte. Sean
n
x x x ,..., ,
2 1
los pesos, y sea
i
l la longitud del resorte bajo la carga
i
x .
La ley de Hooke establece que

i i
x l
1 0
+ =
donde
0
representa la longitud del resorte cuando no tiene carga y
1
es la constante del resor-
te.
Sea
i
y la longitud medida del resorte bajo la carga
i
x . Debido al error de medicin
i
y ser dife-
rente de la longitud verdadera
i
l . Se escribe como


i i i
l y + =
donde
i
es el error en la i-sima medicin. Al combinar ambas ecuaciones se obtiene


i i i
x y + + =
1 0
(10.1)

En la ecuacin (10.1),
i
y es la variable dependiente,
i
x es la variable independiente,
0
y
1

son los coeficientes de regresin, y
i
se denomina error. A la ecuacin (10.1) se la llama mo-
delo de regresin lineal simple.
La tabla siguiente presenta los resultados del experimento y la figura el diagrama de dispersin
de y contra x.

Peso (lb) Longitud medida (pulg) Peso (lb) Longitud medida (pulg)
x y x y
0,0 5,06 2,0 5,40
0,2 5,01 2,2 5,57
0,4 5,12 2,4 5,47
0,6 5,13 2,6 5,53
0,8 5,14 2,8 5,61
1,0 5,16 3,0 5,59
1,2 5,25 3,2 5,61
1,4 5,19 3,4 5,75
1,6 5,24 3,6 5,68
1,8 5,46 3,8 5,80
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
211















La idea es utilizar estos datos para estimar los coeficientes de regresin. Si no hubiese error en la
medicin, los puntos se encontraran en una lnea recta con pendiente
1
y ordenada al origen
0
, y estas cantidades seran fciles de determinar. La idea es entonces que los puntos estn dis-
persos de manera aleatoria alrededor de una recta que es la recta de regresin lineal x l
1 0
+ = .

En general podemos decir que al fijar el valor de x observamos el valor de la variable Y. Si bien x
es fijo, el valor de Y est afectado por el error aleatorio . Por lo tanto determina las propie-
dades de Y. Escribimos en general

+ + = x Y
1 0


donde x es, por ahora, una variable no aleatoria, es la v.a. del error y asumimos que

0 ) ( = E y
2
) ( = V

Entonces Y es una variable aleatoria tal que

( ) ( ) ( ) x E x x E x Y E
1 0 1 0 1 0
+ = + + = + + =

( ) ( ) ( )
2
1 0
= = + + = V x V x Y V

En consecuencia, el modelo de regresin verdadero ( ) x x Y E
1 0
+ = es una recta de valores
promedio.
Notar que lo anterior implica que existe una distribucin de valores de Y para cada x, y que la
varianza de esta distribucin es la misma para cada x. La siguiente figura ilustra esta situacin
Notar que se utiliz una distribucin normal para describir la variacin aleatoria en . Por lo
tanto la distribucin de Y tambin ser normal. La varianza
2
determina la variabilidad en las
observaciones Y. por lo tanto, cuando
2
es pequeo, los valores observados de Y caen cerca de
la lnea, y cuando
2
es grande, los valores observados de Y pueden desviarse considerablemen-
te de la lnea. Dado que
2
es constante, la variabilidad en Y para cualquier valor de x es la
misma.

Peso(lb)
L
o
n
g
i
t
u
d
(
p
u
l
g
)
0 1 2 3 4
5
5,2
5,4
5,6
5,8

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
212
























10.2 Regresin lineal simple- Estimacin de parmetros

Para estimar los coeficientes de regresin se utiliza el mtodo de mnimos cuadrados.
Supongamos que se tienen n pares de observaciones ) , ( );....; , ( ); , (
2 2 1 1 n n
y x y x y x . Realizamos
una grfica representativa de los datos y una recta como posible recta de regresin
Anotamos a la recta de regresin estimada con x y
1 0

+ =



















x
y
1 1 0
x +
2 1 0
x +
1
x
2
x
( ) x x Y E
1 0
+ =

i
y
i
y
i
x
Recta de regresin
estimada
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
213
Las estimaciones de
0
y
1
deben dar como resultado una lnea que en algn sentido se ajuste
mejor a los datos. El mtodo de mnimos cuadrados consiste en estimar
0
y
1
de manera tal
que se minimice la suma de los cuadrados de las desviaciones verticales mostradas en la figura
anterior.
La suma de los cuadrados de las desviaciones de las observaciones con respecto a la recta de
regresin es

( )

=
=
n
i
i i
x y L
1
2
1 0



Los estimadores de mnimos cuadrados de
0
y
1
, que anotamos
0

y
1

, deben satisfacer las


siguientes ecuaciones


( )
( )

= =

= =

=
=
n
i
i i i
n
i
i i
x x y
L
x y
L
1
1 0
1
1
1 0
0
0

2
0

2

(10.2)

Despus de simplificar las expresiones anteriores, se llega a

= +
= +


= = =
= =
n
i
n
i
n
i
i i i i
n
i
n
i
i i
y x x x
y x n
1 1 1
2
1 0
1 1
1 0




(10.3)

Las ecuaciones (10.3) reciben el nombre de ecuaciones normales de mnimos cuadrados.
La solucin de estas ecuaciones dan como resultado las estimaciones de mnimos cuadrados
0


y
1



x y
1 0

= (10.4)


=
=
=
= =
|

\
|

\
|
|

\
|

=
n
i
n
i
i
i
n
i
n
i
i
n
i
i
i i
n
x
x
n
y x
x y
1
2
1 2
1
1 1
1

(10.5)

donde
n
y
y
n
i
i
=
=
1
y
n
x
x
n
i
i
=
=
1



Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
214
Las diferencias
i i i
y y e = con n i ,..., 1 = se llaman residuos. El residuo
i
e describe el error
en el ajuste del modelo en la i-sima observacin
i
y .
Para agilizar la notacin son tiles los siguientes smbolos

( )
n
x
x x x S
n
i
i
n
i
n
i
i i xx
2
1
1 1
2 2
|

\
|
= =


=
= =
(10.6)

( )
n
y x
y x x x y S
n
i
i
n
i
i
n
i
n
i
i i i i xy
|

\
|
|

\
|
= =


= =
= =
1 1
1 1
(10.7)

Entonces con esta notacin podemos escribir
xx
xy
S
S
=
1



Ejemplo:
Ajustamos un modelo de regresin lineal a los datos del ejemplo anterior. La estimacin de la
constante del resorte es
1

y
0

la estimacin de la longitud sin carga.


De la tabla obtenemos

9 . 1 = x 3885 . 5 = y
6 . 26 =
xx
S 4430 . 5 =
xy
S

Entonces 2046 . 0
6 . 26
4430 . 5

1
= = =
xx
xy
S
S
y 9997 . 4 9 . 1 2046 . 0 3885 . 5

1 0
= = = x y

La ecuacin de la recta estimada es

x y x y 2046 . 0 9997 . 4

1 0
= + =

La figura siguiente muestra el grfico de dispersin con la recta de regresin estimada














X
Y
0 1 2 3 4
5
5,2
5,4
5,6
5,8

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
215
Podemos utilizar la recta de regresin estimada para predecir la longitud del resorte bajo una
carga determinada, por ejemplo con una carga de 1.3 lb:

pulg. 27 . 5 ) 3 . 1 ( 2046 . 0 9997 . 4 = = y

Podemos tambin estimar la longitud del resorte bajo una carga de 1.4 lb:

pulg. 29 . 5 ) 4 . 1 ( 2046 . 0 9997 . 4 = = y
Notar que la longitud medida para una carga de 1.4 lb es 5.19 pulg., pero la estimacin de mni-
mos cuadrados de 5.29 pulg. Est basada en todos los datos y es ms precisa (tiene menor incer-
tidumbre). Mas adelante calcularemos la varianza de estos estimadores.

Observaciones:
1- Las estimaciones de mnimos cuadrados
1

y
0

son valores de variables aleatorias y dicho


valor vara con las muestras. Los coeficientes de regresin
0
y
1
son constantes desconocidas
que estimamos con
1

y
0

.
2- Los residuos
i
e no son lo mismo que los errores
i
. Cada residuo es la diferencia
i i i
y y e =
entre el valor observado y el valor ajustado, y se pueden calcular a partir de los datos. Los errores
i
representan la diferencia entre los valores medidos
i
y y los valores
i
x
1 0
+ . Como los va-
lores verdaderos de
0
y
1
no se conocen entonces, los errores no se pueden calcular.
3- Qu sucede si se quisiera estimar la longitud del resorte bajo una carga de 100 lb? La esti-
macin de mnimos cuadrados es pulg. 46 . 25 ) 100 ( 2046 . 0 9997 . 4 = = y pero esta estimacin no
es confiable, pues ninguno de los pesos en el conjunto de datos es tan grande. Es probable que el
resorte se deformara, por lo que la ley de Hooke no valdra. Para muchas variables las relaciones
lineales valen dentro de cierto rango, pero no fuera de l. Si se quiere saber cmo respondera el
resorte a una carga de 100 lb se deben incluir pesos de 100 lb o mayores en el conjunto de datos.
Por lo tanto no hay que extrapolar una recta ajustada fuera del rango de los datos. La relacin
lineal puede no ser vlida ah.



10.3 Propiedades de los estimadores de mnimos cuadrados y estimacin de
2


Los estimadores de
1
y
0
los anotamos
x Y
1 0

=
( )
xx
n
i
i i
xx
xY
S
x x Y
S
S

=

= =
1
1

(10.8)
Como
1

y
0

son estimadores de
1
y
0
respectivamente, son variables aleatorias, por lo
tanto podemos calcular su esperanza y varianza. Como estamos asumiendo que x no es v.a. en-
tonces
1

y
0

son funciones de la v.a. Y.


Recordemos que el modelo es + + = x Y
1 0
, si medimos n veces la variable Y tenemos

i i i
x Y + + =
1 0

donde asumimos ( ) 0 =
i
E ; ( )
2
=
i
V n i ,..., 2 , 1 = y
n
,..., ,
2 1
independientes

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
216
Por lo tanto

( ) ( ) ( )
i i i i
x E x x E x Y E
1 0 1 0 1 0
+ = + + = + + =

( ) ( ) ( )
2
1 0
= = + + =
i i i i
V x V x Y V

Consideramos
( )
xx
n
i
i i
xx
xY
S
x x Y
S
S

=

= =
1
1

. Podemos ver a
1

como una combinacin lineal de las


variables
i
Y , entonces

( )
( )
( ) ( )( ) = = |

\
|
=
|
|
|
|

\
|

=
|
|

\
|
=

= =
=
n
i
i i
xx
n
i
i i
xx xx
n
i
i i
xx
xy
x x Y E
S
x x Y E
S S
x x Y
E
S
S
E E
1 1
1
1
1 1


( )( ) ( ) ( )
1 1
1 1
1 0
1
1 0
1 1 1
= =
)
`

+ = + =

= = =
xx
xx
n
i
n
i
i i i
xx
n
i
i i
xx
S
S
x x x x x
S
x x x
S


Notar que ( ) 0
1
1 1 1
=
|
|
|
|

\
|
= =


=
= = =
n
x
n x x n x x x
n
i
i
n
i
i
n
i
i
n
i
i

y ( ) ( )( )
xx
n
i
i i
n
i
i i
S x x x x x x x = =

= = 1 1


Por lo tanto
( )
xx
n
i
i i
xx
xy
S
x x Y
S
S

=

= =
1
1

es un estimador insesgados de
1


Veamos ahora la varianza de
1



( )
( )
( ) ( )( ) = = |

\
|
=
|
|
|
|

\
|

=
|
|

\
|
=

= =
=
n
i
i i
xx
n
i
i i
xx xx
n
i
i i
xx
xy
x x Y V
S
x x Y V
S S
x x Y
V
S
S
V V
1
2
2
1
2
1
1
1 1


( )
xx
xx
xx
n
i
i
xx
S
S
S
x x
S
2
2
2
1
2 2
2
1 1
= = =

=



Por lo tanto

(10.9)

( )
1 1

= E y ( )
xx
S
V
2
1


=
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
217

Con un enfoque similar calculamos la esperanza y la varianza de
0



( ) ( ) ( ) ( ) ( ) = =
|
|
|
|

\
|
= = =

=
=
x Y E
n
x
n
Y
E x E y E x Y E E
n
i
i
n
i
i
1
1
1
1
1 1 0
1


( )
0 1 1 0 1 1 0
1
= + = + =

=
x x x x
n
n
i
i


Calculamos la varianza de
0

, para esto planteamos:



( ) ( ) ( ) ( )( ) ( ) x Y Cov x V Y V x Y V V
1 1 1 0

, 2

+ = =

Tenemos que

( ) ( )
n n
Y V
n
Y
n
V Y V
n
i
n
i
i
n
i
i
2
1
2
2
1
2
1
1 1 1
= = = |

\
|
=

= = =
r

Y ( ) 0 , =
j i
Y Y Cov por indep.
( ) ( )
( )
( ) ( )
( ) ( ) ( ) ( ) 0
1
,
1
,
1
,
1

,
1
2
1
2
1
1 1 1
1 1
= = = =
= =
|
|

\
|
= =


= = =
= = =
n
i
i
xx
n
i
i
xx
n
i
i i i
xx
n
i
i i i
xx
n
i
n
i xx
i
i i
x x
nS
x x x
nS
x Y Y Cov x x
nS
x
x x Y Y Cov
nS
x
S
x x
Y Y
n
Cov x Y Cov x x Y Cov




Por lo tanto

( ) ( ) ( ) ( )( ) ( )
|
|

\
|
+ = + = + = =
xx xx
S
x
n S
x
n
x Y Cov x V Y V x Y V V
2
2
2
2
2
1
2
1 1 0
1
0

, 2




Entonces


( 10.10)



Necesitamos estimar la varianza desconocida
2
que aparece en las expresiones de ( )
0

V y
( )
1

V .
Los residuos
i i i
y y e = se emplean para estimar
2
. La suma de los cuadrados de los residuos
es

( )

=
=
n
i
i i R
y y SS
1
2
(10.11)

( )
0 0

= E y ( )
|
|

\
|
+ =
xx
S
x
n
V
2
2
0
1


Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
218
Puede demostrarse que 2
2
= |

\
|
n
SS
E
R

, en consecuencia
2
2
= |

\
|
n
SS
E
R
.
Entonces se toma como estimador de
2
a


2

=
n
SS
R
(10.12)

Puede obtenerse una frmula ms conveniente para el clculo de
R
SS , para esto primero notar
que las ecuaciones normales (10.2) se pueden escribir como


( )
( )

=
=

=
=
n
i
i i i
n
i
i i
x x y
x y
1
1 0
1
1 0
0

0



=
=

=
=
n
i
i i
n
i
i
x e
e
1
1
0
0


Entonces

( ) ( )( ) ( ) ( )
( ) ( ) ( ) ( ) y y e x y y e y e x e y e
x y e y y e y y y y y y SS
i
n
i
i i
n
i
i i
n
i
i i i i
n
i
i
i i
n
i
i i i
n
i
i
n
i
i i i i
n
i
i i R
= = = =
= = = = =


= = = =
= = = =
1
1
1
0
1
1 0
1
1 0
1 1 1 1
2







Por lo tanto

( ) ( )( ) ( )( )
( )( ) ( )( )
xy yy i
n
i
i i
n
i
i
i
n
i
i i i
n
i
i i i
n
i
i R
S S y y x x y y y y
y y x x y y y y x y y y e SS
1
1
1
1
1
1 1
1
1 0
1




= =
= + = = =


= =
= = =


Tambin se puede escribir

xx
xy
yy xy
xx
xy
yy xy yy R
S
S
S S
S
S
S S S SS
2
1

= = =

En resumen
xx
xy
yy R xy yy R
S
S
S SS S S SS
2
1

= = (10.13)

Por lo tanto
2

2
2

=
n
S
S
S
xx
xy
yy


Y si anotamos a la desviacin estndar estimada de
0

y
1

con
0

s y
0

s respectivamente
entonces
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
219


xx
S
s
2

= y
|
|

\
|
+ =
xx
S
x
n
s
2
2

(10.14)


Ejemplo:
En el ejemplo anterior se calcul, 9 . 1 = x , 3885 . 5 = y , 6 . 26 =
xx
S , 4430 . 5 =
xy
S .
Calculamos ahora ( ) 1733 . 1
20
1
2
= =

= i
i yy
y y S y entonces

003307 . 0
18
6 . 26
4430 . 5
1733 . 1
2

2
2
2
=

=
n
S
S
S
xx
xy
yy


0111 . 0 000124 . 0
6 . 26
003307 . 0
2

1
= = = =
xx
S
s



02478219 . 0
6 . 26
9 . 1
20
1
003307 . 0
1

2 2
2

0
=
|
|

\
|
+ =
|
|

\
|
+ =
xx
S
x
n
s



Observacin:
La varianza de
0

y
1

se puede disminuir tomando valores


i
x muy dispersos con respecto a
x pues de esta forma aumenta
xx
S


Para construir intervalos de confianza para los coeficientes de regresin o para construir pruebas
de hiptesis con respecto a
0
o
1
necesitamos asumir que los errores
i
tienen distribucin
normal. Entonces ) , 0 ( ~
2
N
i


Observacin:
Si ) , 0 ( ~
2
N
i
entonces, como
i i i
x Y + + =
1 0
, resulta que ) , ( ~
2
1 0

i i
x N Y + . Se
pueden calcular entonces los EMV de los parmetros y llegaramos a que son los mismos que
los encontrados usando mnimos cuadrados. De modo que la funcin que cumple la suposi-
cin de normalidad de los
i
no es otra que la de justificar el uso del mtodo de mnimos cua-
drados, que es el mas sencillo de calcular.

Ya vimos que
0

y
1

pueden considerarse combinaciones lineales de las


i
Y , por lo tanto
0

y
1

son combinacin lineal de variables aleatorias independientes con distribucin normal y eso
implica que


|
|

\
|
|
|

\
|
+
xx
S
x
n
N
2
2
0 0
1
, ~

y
|
|

\
|
xx
S
N
2
1 1
, ~


(10.15)
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
220

Y entonces


( ) 1 , 0 ~
1
-

2
2
0 0
N
S
x
n
xx
|
|

\
|
+

y ( ) 1 , 0 ~

2
1 1
N
S
xx


(10.16)

Bajo la suposicin que los errores tienen distribucin normal, se puede probar que


2
2 - n 2
~

R
SS
(10.17)
Y tambin se puede probar que

2 - n
2
2
0 0
~
1

t
S
x
n
xx
|
|

\
|
+

y
2 - n
2
1 1
~

t
S
xx


(10.18)



10.4 Inferencias estadsticas sobre los parmetros de regresin

Suponemos que los errores tiene distribucin normal, con media cero, varianza
2
y son in-
dependientes.

Inferencias sobre
1


Tests de hiptesis sobre
1

Se desea probar la hiptesis de que la pendiente
1
es igual a una constante, por ejemplo
10
.
Supongamos las hiptesis


10 1 0
: = H contra
10 1 0
: H

El estadstico de prueba es
xx
S
T
2
10 1


= que bajo
0
H tiene distribucin Student con n-2 gra-
dos de libertad.
Por lo tanto la regla de decisin es

>

2 ,
2
0
2 ,
2
0


n
n
t T si H aceptar
t T si H rechazar


Si
10 1 1
: > H se rechaza
10 1 0
: = H si
2 ,
>
n
t T


Si
10 1 1
: < H se rechaza
10 1 0
: = H si
2 ,
<
n
t T



Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
221
Un caso especial importante es cuando 0 :
1 0
= H contra 0 :
1 0
H
Estas hiptesis estn relacionadas con la significancia de la regresin.
Aceptar 0 :
1 0
= H es equivalente a concluir que no hay ninguna relacin lineal entre x e Y.
Si 0 :
1 0
= H se rechaza implica que x tiene importancia al explicar la variabilidad en Y. Tam-
bin puede significar que el modelo lineal es adecuado, o que aunque existe efecto lineal pueden
obtenerse mejores resultados agregando trminos polinomiales de mayor grado en x.

Ejemplos:
1- El fabricante del resorte de los datos de la ley de Hooke afirma que la constante del resorte
1

es al menos 0.23 pulg/lb. Se ha calculado que la constante del resorte es 2046 . 0

1
= pulg/lb. Se
puede concluir que la afirmacin del fabricante es falsa?

Solucin:
Se requiere una prueba de hiptesis para contestar la pregunta. Las hiptesis seran


23 . 0 :
1 0
= H contra 23 . 0 :
1 0
< H

El estadstico de prueba es
xx xx
S S
T
2
1
2
10 1

23 . 0

=
Se calcul anteriormente 0111 . 0

2
=
xx
S

, entonces el valor
0
t que toma el estadstico es
28 . 2
0111 . 0
23 . 0 2046 . 0
0
=

= t

Calculamos el p-valor recordando que bajo 23 . 0 :
1 0
= H ,
2 - n
~ t T :

( ) 28 . 2 < = T P valor p

Vemos en la tabla de la distribucin Student que en la fila 18 = grados de libertad

( )
( )

= >
= >
01 . 0 552 . 2
025 . 0 101 . 2
T P
T P
025 . 0 01 . 0 < < valor p

Por lo tanto se rechaza 23 . 0 :
1 0
= H

2- La capacidad de una unin soldada de alongarse bajo tensin est afectada por el compuesto
qumico del metal de soldadura. En un experimento para determinar el efecto del contenido de
carbono (x) sobre la elongacin (y) se alongaron 39 soldaduras hasta la fractura, y se midi tanto
el contenido de carbono (en partes por mil) como la elongacin (en %). Se calcularon los si-
guientes resmenes estadsticos:

6561 . 0 =
xx
S ; 9097 . 3 =
xy
S ; 3319 . 4 =
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
222

Suponiendo que x e y siguen un modelo lineal, calcular el cambio estimado en la elongacin de-
bido a un aumento de una parte por mil en el contenido de carbono. Se debe utilizar el modelo
lineal para pronosticar la elongacin del contenido de carbono?

Solucin:
El modelo lineal es + + = x y
1 0
, y el cambio de elongacin debido a un aumento de una
parte por mil en el contenido de carbono es
1
.
Las hiptesis seran 0 :
1 0
= H contra 0 :
1 0
H

La hiptesi nula establece que incrementar el contenido de carbono no afecta la elongacin,
mientras que la hiptesis alternativa establece que s afecta la elongacin.

El estadstico de prueba
xx xx
S S
T
2
1
2
10 1

= si 0 :
1 0
= H es verdadera tiene distribucin
Student con 2 n gados de libertad.

Calculamos
( )
959 . 5
6561 . 0
9097 . 3

1
1
=

= =

=
xx
n
i
i i
xx
xy
S
x x y
S
S

348 . 5
6561 . 0
3319 . 4
2
= = =
xx
xx
S
S



El valor que toma el estadstico de prueba es 114 . 1
348 . 5
959 . 5
0
=

= t
Y ( ) 20 . 0 10 . 0 2 114 . 1 = > > = T P valor p

Por lo tanto no hay evidencia en contra de la hiptesis nula. No se puede concluir que el modelo
lineal sea til para pronosticar la elongacin a partir del contenido de carbono.


Intervalos de confianza para
1

Podemos construir intervalos de confianza para
1
de nivel 1 utilizando el hecho que el es-
tadstico
2 - n
2
1 1
~

t
S
xx


. El intervalo sera

(
(

+

xx
n
xx
n
S
t
S
t
2
2 ,
2
1
2
2 ,
2
1


(10.19)


Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
223

Ejemplo:
Determinar un intervalo de confianza de nivel 0.95 para la constante del resorte de los datos de la
ley de Hooke.

Solucin:
Se calcul antes 2046 . 0

1
= y 0111 . 0

2
=
xx
S


El nmero de grados de libertad es 18 2 20 = , y 05 . 0 = por lo tanto
101 . 2
18 , 025 . 0
2 ,
2
= =

t t
n


Por lo tanto el intervalo es

( ) ( ) [ ] [ ] 228 . 0 ; 181 . 0 0111 . 0 101 . 2 2046 . 0 ; 0111 . 0 101 . 2 2046 . 0 =


Inferencias sobre
0


De manera similar a lo visto sobre
1
, se pueden deducir intervalos de confianza y tests de hip-
tesis para
0

Especficamente, si tenemos las hiptesis


00 0 0
: = H contra
00 0 0
: H

El estadstico de prueba es
|
|

\
|
+
xx
S
x
n
T
2
2
00 0
1


y bajo
00 0 0
: = H tenemos que
2 - n
~ t T

Por lo tanto la regla de decisin es

>

2 ,
2
0
2 ,
2
0


n
n
t T si H aceptar
t T si H rechazar


Si
00 0 1
: > H se rechaza
00 0 0
: = H si
2 ,
>
n
t T


Si
00 0 1
: < H se rechaza
00 0 0
: = H si
2 ,
<
n
t T




Intervalos de confianza de nivel 1 se deducen de manera anloga a lo visto anteriormente,
donde usamos el hecho que el estadstico
2 - n
2
2
0 0
~
1

t
S
x
n
T
xx
|
|

\
|
+



El intervalo es
(
(

|
|

\
|
+ +
|
|

\
|
+


1

;
1

2
2
2 ,
2
0
2
2
2 ,
2
0
xx
n
xx
n S
x
n
t
S
x
n
t

(10.20)
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
224

Ejemplo:
En los datos de la ley de Hooke determine un intervalo de confianza de nivel 0.99 para la longi-
tud del resorte no cargado.
Solucin:
La longitud del resorte no cargado es
0
. Se ha calculado anteriormente 9997 . 4

0
= y
02478219 . 0
1

2
2

0
=
|
|

\
|
+ =
xx
S
x
n
s


El nmero de gados de libertad es 18 2 20 = y como 01 . 0 = entonces
878 . 2
18 , 005 . 0
2 ,
2
= =

t t
n



Por lo tanto el intervalo es
( ) ( ) [ ] [ ] 071023 . 5 ; 9283 . 4 02478219 . 0 878 . 2 9997 . 4 ; 024782193 . 0 878 . 2 9997 . 4 =


10.5 Intervalo de confianza para la respuesta media

A menudo es de inters estimar mediante un intervalo de confianza
0 1 0
x + , es decir estimar
la media ( )
0
x Y E para un valor especfico
0
x .
Un estimador puntual razonable para
0 1 0
x + es
0 1 0

x + .
Sabemos que ( )
0 1 0 0 1 0

x x E + = + .
Como de costumbre necesitamos construir un estadstico a partir de
0 1 0

x + que contenga al
parmetro de inters, (en este caso
0 1 0
x + ) y del cual conozcamos la distribucin de probabi-
lidad.
Pensamos en el estadstico
( )
( )
0 1 0
0 1 0 0 1 0


x V
x E x


+
+ +

Nos falta calcular ( )
0 1 0

x V + . Para esto nuevamente observamos que
0 1 0

x + es una com-
binacin lineal de las variables
i
Y

( ) ( ) = + = + = + = +

= =
x x
S
S
Y
n
x x Y
n
x x Y x
xx
xY
n
i
i
n
i
i 0
1
0 1
1
0 1 1 0 1 0
1

1


( )
( )
( )
( )
(

+ =

+ =

=
=
=
x x
S
x x
n
Y x x
S
x x Y
Y
n
xx
i
n
i
i
xx
n
i
i i n
i
i 0
1
0
1
1
1 1


Por lo tanto:

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
225
( )
( )
( ) ( )
( )
( )
( )
( )
( )
( )
( )
( ) =
(
(

+ =
(

+ =
=
(

+ =
|
|

\
|
(

+ = +


= =
= =
x x
nS
x x
x x
S
x x
n
x x
S
x x
n
x x
S
x x
n
Y V x x
S
x x
n
Y V x V
xx
i
xx
i
n
i xx
i
n
i
xx
i
n
i
i
xx
i
n
i
i
0
2
0 2
2
2
1
2
2
0
1
2
2
0
1
0
1
0 1 0
2
1 1
1 1





( )
( )
( )
( ) =
(

+ =

= =
n
i
n
i
i
xx
i
xx
x x
nS
x x
x x
S
x x
n
1 1
0
2
2
2
0 2
2
1



Notar que ( ) 0
1
=

=
n
i
i
x x y ( )
xx
n
i
i
S x x =

=1
2
entonces

( )
(


+ =
xx
S
x x
n
2
0 2
1


Por lo tanto

( )
|
|

\
|
(
(


+ + +
xx
S
x x
n
x N x
2
0 2
0 1 0 0 1 0
1
; ~

(10.21)

Como
2
es desconocido lo reemplazamos por
2

=
n
SS
R
, y puede probarse que

( )
( )
(


+
+ +
xx
S
x x
n
x x
2
0 2
0 1 0 0 1 0
1


tiene distribucin Student con 2 n grados de libertad

Razonando como en casos anteriores, el intervalo de confianza para
0 1 0
x + de nivel 1 es


( ) ( )
(
(

(
(


+ + +
(
(


+ +


1


;
1


2
0 2
2 ,
2
0 1 0
2
0 2
2 ,
2
0 1 0
xx
n
xx
n
S
x x
n
t x
S
x x
n
t x

(10.22)


Ejemplo:
Mediante los datos de la ley de Hooke calcular un intervalo de confianza de nivel 0.95 para la
longitud media de un resorte bajo una carga de 1.4 lb

Solucin:
Para aplicar (10.22) necesitamos calcular
0 1 0

x + ;
2
; x ;
xx
S .
En este caso 4 . 1
0
= x y 05 . 0 = , por lo tanto 101 . 2
18 , 025 . 0
2 ,
2
= =

t t
n


Ya tenemos calculado de ejemplos anteriores:
0575 . 0 =
9 . 1 = x
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
226
6 . 26 =
xx
S
9997 . 4

0
= y 2046 . 0

1
=
De aqu ya calculamos 286 . 5 4 . 1 2046 . 0 9997 . 4

0 1 0
= + = + x

Entonces el intervalo es:
( ) ( )
[ ] 32 . 5 ; 26 . 5

6 . 26
9 . 1 4 . 1
20
1
0575 . 0 101 . 2 286 . 5 ;
6 . 26
9 . 1 4 . 1
20
1
0575 . 0 101 . 2 286 . 5
2
2
2
2
=
=
(
(


+ +
(


+



Observaciones:
1- Notar que el ancho del intervalo de confianza para ( )
0
x Y E depende del valor de
0
x . El an-
cho del intervalo es mnimo cuando x x =
0
y crece a medida que x x
0
aumenta.
2- Al repetir los clculos anteriores para varios valores diferentes de
0
x pueden obtenerse inter-
valos de confianza para cada valor correspondiente de ( )
0
x Y E .
En la figura siguiente se presenta el diagrama de dispersin con la recta estimada y los corres-
pondientes intervalos de confianza de nivel 0.95 graficados con las lneas inferior y superior re-
feridos al ejemplo anterior. Se origina entonces una banda de confianza que envuelve a la recta
estimada.



















10.6 Intervalos de prediccin para futuras observaciones

Una aplicacin importante de un modelo de regresin es la prediccin de observaciones nuevas o
futuras de Y, correspondientes a un nivel especificado de la variable x.
Si
0
x es el valor de x de inters, entonces una estimacin puntual de la observacin
0 0 1 0 0
+ + = x Y es
0 1 0 0

x Y + = .
X
Y
0 1 2 3 4
5
5,2
5,4
5,6
5,8

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
227
Para hallar un intervalo de prediccin para
0 1 0 0
x Y + = de nivel 1 debemos construir un
estadstico a partir de
0 1 0 0

x Y + = .
Primero notamos que si
0
Y es una nueva observacin, entonces
0
Y es independiente de las ob-
servaciones utilizadas para desarrollar el modelo de regresin.
Consideramos
0 0

Y Y . Calculamos su esperanza y varianza:



( ) ( ) ( ) ( ) ( ) 0

0 1 0 0 0 1 0 0 1 0 0 0 1 0 0 0
= + + + = + + + = x E x x x E Y Y E

( ) ( ) ( ) ( ) ( )
( )
( )
(
(


+ + =
=
(
(


+ + = + + + + = + =
xx
xx
S
x x
n
S
x x
n
x V x V Y V Y V Y Y V
2
0 2
2
0 2 2
0 1 0 0 0 1 0 0 0 0 0
1
1
1




Por lo tanto


( )
|
|

\
|
(
(


+ +
xx
S
x x
n
N Y Y
2
0 2
0 0
1
1 ; 0 ~

(10.23)
En consecuencia



( )
( ) 1 ; 0 ~
1
1

2
0 2
0 0
N
S
x x
n
Y Y
xx (
(


+ +

(10.24)

Si reemplazamos
2
por su estimacin
2
se puede probar que


( )
2 - n
2
0 2
0 0
~
1
1

t
S
x x
n
Y Y
xx (
(


+ +

(10.25)

Por el argumento usual llegamos al siguiente intervalo de prediccin de nivel 1 para
0
Y :


( ) ( )
(
(

(
(


+ + +
(
(


+ +
xx xx
S
x x
n
t Y
S
x x
n
t Y
2
0 2
2 - n ,
2
0
2
0 2
2 - n ,
2
0
1
1

;
1
1 -



(10.26)

Ejemplo:
Calcular el intervalo de prediccin con nivel 0.95 para la elongacin de un resorte bajo una car-
ga de 1.4 lb.

Solucin:
El intervalo es
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
228

( ) ( )
[ ] 5.41034 ; 16165 . 5

6 . 26
9 . 1 4 . 1
20
1
1 0575 . 0 101 . 2 286 . 5 ;
6 . 26
9 . 1 4 . 1
20
1
1 0575 . 0 101 . 2 286 . 5
2
2
2
2
=
=
(
(


+ + +
(


+ +




Observaciones:
1- Un intervalo de confianza es un intervalo que contiene, con un nivel de confianza fijado, un
parmetro determinado de inters. Un intervalo de prediccin es un intervalo que contiene, con
un nivel de confianza fijado, una variable aleatoria de inters.
2- El ancho del intervalo de prediccin es mnimo cuando x x =
0
y crece a medida que x x
0

aumenta.
Al comparar (10.25) con (10.21) se observa que el intervalo de prediccin en el punto
0
x siem-
pre es ms grande que el intervalo de confianza en
0
x . Esto se debe a que el intervalo de predic-
cin depende tanto del error del modelo ajustado como del error asociado con las observaciones
futuras.
3- Al repetir los clculos anteriores para varios valores diferentes de
0
x pueden obtenerse los
intervalos de prediccin. En la figura siguiente se presenta el diagrama de dispersin con la recta
estimada y los correspondientes intervalos de confianza y de prediccin de nivel 0.95 graficados
con las lneas inferior y superior referidos al ejemplo anterior. Se originan entonces una banda
de confianza (lnea continua) y otra banda de prediccin (lnea entrecortada) que envuelven a la
recta estimada. Esto ilustra que los intervalos de confianza son menos amplios que los intervalos
de prediccin.


















10.7 ndice de ajuste

Si consideramos el ajuste por mnimos cuadrados de los pares de datos ( )
i i
Y x , al modelo
+ =
0
Y
X
Y
0 1 2 3 4
5
5,2
5,4
5,6
5,8

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
229
Entonces es fcil verificar que el estimador de mnimos cuadrados de
0
es Y , y la suma de
residuos al cuadrado es ( )

=
=
n
i
i YY
Y Y S
1
2
. Por otro lado si consideramos el modelo lineal
+ + = x Y
1 0

Entonces tenemos un valor de ( )

=
=
n
i
i i R
y y SS
1
2
que ser menor o igual a ( )

=
=
n
i
i YY
Y Y S
1
2
.
La cantidad
2
R se define como


YY
R
S
SS
R =1
2
(10.27)

y es llamado coeficiente de determinacin. Vemos que
2
R ser cero si 0
1
= y ser uno si
( )

=
= =
n
i
i i R
y y SS
1
2
0 , lo que significa ajuste lineal perfecto.
En general 1 0
2
R . El valor de
2
R se interpreta como la proporcin de variacin de la res-
puesta Y que es explicada por el modelo. La cantidad
2
R es llamada ndice de ajuste, y es a
menudo usada como un indicador de qu tan bien el modelo de regresin ajusta los datos. Pero
un valor alto de R no significa necesariamente que el modelo de regresin sea correcto.

Ejemplo:
En el ejemplo de la ley de Hooke, tenemos ( ) 1733 . 1
20
1
2
= =

= i
i yy
y y S , y
059526 . 0
6 . 26
4430 . 5
1733 . 1
2
= =
R
SS

Por lo tanto 949266 . 0
1733 . 1
059526 . 0
1 1
2
= = =
YY
R
S
SS
R


El ndice de ajuste R es a menudo llamado coeficiente de correlacin muestral. Si la variable
fijada x es una variable aleatoria, entonces tendramos una v.a. bidimensional ( ) Y X, con una
distribucin de probabilidad conjunta, y tenemos una muestra de pares ( )
i i
Y X , n i ,..., 1 = . Su-
pongamos que estamos interesados en estimar el coeficiente de correlacin entre X e Y. Es
decir


( ) ( ) ( ) ( ) [ ]
( ) ( ) Y V X V
Y E Y X E X E
=

Es razonable estimar
( ) ( ) ( ) ( ) [ ] Y E Y X E X E con ( )( )

=

n
i
i i
Y Y X X
n
1
1

( ) X V con ( )

n
i
i
X X
n
1
2 1
y ( ) Y V con ( )

n
i
i
Y Y
n
1
1

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
230

Por lo tanto un estimador natural de es


( )( )
( ) ( )
R
S S
S
Y Y X X
Y Y X X
YY XX
XY
n
i
i
n
i
i
n
i
i i
= =


=

= =
=
1
2
1
2
1
(10.28)

Es decir el ndice de ajuste estima la correlacin entre X e Y


Si X es una variable aleatoria, entonces se observan pares independientes ( )
i i
Y X , con n i ,..., 1 =
que cumplen el modelo


i i i
X Y + + =
1 0


Si asumimos que
i
X y
i
son independientes y que las
i
tienen todas la misma distribucin
con ( ) 0 =
i
E , entonces ( )
i i i
X X Y E
1 0
+ =
Si adems suponemos que ( )
2
, 0 ~ N
i
entonces se puede probar que los estimadores de
mxima verosimilitud para los parmetros
0
y
1
son

X Y
1 0

=
y

( )
( )
XX
XY
n
i
i
n
i
i i
S
S
X X
X X Y
=

=
=
1
2
1
1



Es decir son los mismos estimadores a los dados por el mtodo de mnimos cuadrados en el caso
de suponer que X es una variable matemtica.

Tambin se puede probar que bajo las suposiciones hechas (10.17) y (10.18) siguen siendo
vlidas.
Las distribuciones de los estimadores dependen ahora de las distribuciones de las
i
X . Puede
probarse que siguen siendo insesgados, y que su distribucin condicional en las
i
X es normal,
pero en general su distribucin no ser normal.



10.8 Anlisis de residuos

El ajuste de un modelo de regresin requiere varias suposiciones. La estimacin de los parme-
tros del modelo requiere la suposicin de que los errores son variables aleatorias independientes
con media cero y varianza constante. Las pruebas de hiptesis y la estimacin de intervalos re-
quieren que los errores estn distribuidos de manera normal. Adems se supone que el grado del
Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
231
modelo es correcto, es decir, si se ajusta un modelo de regresin lineal simple, entonces se supo-
ne que el fenmeno en realidad se comporta de una manera lineal.
Se debe considerar la validez de estas suposiciones como dudosas y examinar cun adecuado es
el modelo que se propone. A continuacin se estudian mtodos que son tiles para este propsi-
to.

Los residuos de un modelo de regresin son
i i i
y y e = n i ,..., 2 , 1 = . A menudo el anlisis de
los residuos es til para verificar la hiptesis de que los errores tienen una distribucin que es
aproximadamente normal con varianza constante, y tambin para determinar la utilidad que tiene
la adicin de ms trminos al modelo.
Es posible estandarizar los residuos mediante el clculo de
2

i
e
n i ,..., 2 , 1 = .
Tambin se puede probar que la varianza del i-simo residuo
i
e es igual a

( )
( )
(
(

|
|

\
|

+ =
xx
i
i
S
x x
n
e V
2
2
1
1

Y entonces podemos considerar al i-simo residuo estudentizado que se define como


( )
(
(

|
|

\
|

+
=
xx
i
i
i
S
x x
n
e
r
2
2
1
1


y tiene desviacin estndar unitaria.

Si los errores tienen una distribucin normal, entonces aproximadamente el 95% de los residuos
estandarizados deben caer en el intervalo ) 2 ; 2 ( . Los residuos que se alejan mucho de este
intervalo pueden indicar la presencia de un valor atpico, es decir, una observacin que no es
comn con respecto a los dems datos.
A menudo es til hacer una grfica de residuos contra la variable independiente x. En este caso la
grfica tendra que ser una nube de puntos sin ningn patrn en el intervalo ) 2 ; 2 ( ; pues
i i i
y y e = sera lo que queda de
i
y al quitarle la influencia de
i
x . Si en la grfica aparece al-
gn patrn quiere decir que no estamos quitando de las y toda la influencia de las x.
Patrones usuales para las grficas de residuos suelen ser los de las siguientes figuras: en la figura
a) se representa la situacin ideal, una nube de puntos sin ningn patrn en el intervalo ) 2 ; 2 ( .
Las figuras b) , c) y d) representan anomalas. Si los residuos aparecen como en b) o c) indican
que el modelo es inadecuado. La figura d) muestra residuos que indican que la varianza de las
observaciones vara con la magnitud de x. Comnmente se utiliza una transformacin de datos
sobre la respuesta y para eliminar este problema. Las transformaciones ms utilizadas para esta-
bilizar la varianza son y , ( ) y ln o
y
1
.
En la figura d) la varianza de las observaciones disminuye con el aumento de x




Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
232


















































a)
x
r
e
s
i
d
u
o
s
0 0,4 0,8 1,2 1,6 2
-1,7
-0,7
0,3
1,3
2,3

b)
x
r
e
s
i
d
u
o
s
0 0,4 0,8 1,2 1,6 2
-3,3
-1,3
0,7
2,7
4,7

c)
x
r
e
s
i
d
u
o
s
0 0,4 0,8 1,2 1,6 2
-3,3
-1,3
0,7
2,7
4,7

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
233

















Ejemplo:
Para los datos sobre la ley de Hooke la grfica de residuos es


















Para el caso en que ( ) Y X, es una v.a. bidimensional, no siempre se est interesado en la relacin
lineal que defina ( ) X Y E / . Si no, nicamente saber si X e Y son variables aleatorias independien-
tes. Si asumimos que la distribucin conjunta de ( ) Y X, es una distribucin llamada normal bi-
variada, entonces probar que 0 = es equivalente a probar que X e Y son independientes.
Se puede probar que si la distribucin conjunta de ( ) Y X, es normal bivariada, entonces R es el
estimador de mxima verosimilitud de . Pero es difcil obtener la distribucin de probabilidad
para R. Se puede superar esta dificultad en muestras bastante grandes al utilizar el hecho que el
estadstico ( ) |

\
|

+
R
R
1
1
ln
2
1
tiene aproximadamente una distribucin normal con media
( )
|
|

\
|

+
=

1
1
ln
2
1
y varianza
3
1
2

=
n
.
d)
x
r
e
s
i
d
u
o
s
0 0,4 0,8 1,2 1,6 2
-3,3
-1,3
0,7
2,7
4,7

X
r
e
s
i
d
u
o
s
0 1 2 3 4
-2,5
-1,5
-0,5
0,5
1,5
2,5

Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
234
Por lo tanto para probar la hiptesis
0 0
: = H podemos utilizar el estadstico de prueba



( ) ( )
3
1
1
1
ln
2
1
1
1
ln
2
1
0
0

|
|

\
|

+
|

\
|

+
=
n
R
R
Z

(10.29)

Para construir intervalos de confianza de nivel 1 para , se despeja en ( )
|
|

\
|

+
=

1
1
ln
2
1

el coeficiente y se llega a


1
1
2
2
+

e
e
(10.30)

Ejemplo:
En un estudio de los tiempos de reaccin, el tiempo de respuesta a un estmulo visual (x) y el
tiempo de respuesta a un estmulo auditivo (y) se registraron para cada una de 10 personas.
Los tiempos se midieron en minutos. Se presentan en la siguiente tabla.

x 161 203 235 176 201 188 228 211 191 178
y 159 206 241 163 197 193 209 189 169 201

a) Determinar un intervalo de confianza de nivel 0.95 para la correlacin entre los tiempos de
reaccin.
b) Determinar el p-valor para 3 . 0 :
0
= H contra 3 . 0 :
1
> H

Solucin:
a) Se calcula
( )( )
( ) ( )
8159 . 0
1
2
1
2
1
= =


=

= =
=
YY XX
XY
n
i
i
n
i
i
n
i
i i
S S
S
Y Y X X
Y Y X X
R

Luego calcula ( ) ( ) 1444 . 1
8159 . 0 1
8159 . 0 1
ln
2
1
1
1
ln
2
1
= |

\
|

+
= |

\
|

+
R
R


Como ( ) |

\
|

+
R
R
1
1
ln
2
1
est distribuido normalmente con varianza
3
1
2

=
n
, el intervalo para
( )
|
|

\
|

+
=

1
1
ln
2
1
es

[ ] 8852 . 1 ; 4036 . 0
3 10
1
96 . 1 1444 . 1 ;
3 10
1
96 . 1 1444 . 1 =
(

|
|

\
|

+
|
|

\
|



Parte 2 Regresin lineal simple Prof. Mara B. Pintarelli
235
Para hallar el intervalo para aplicamos la transformacin (10.30) y se obtiene


( )
( )
( )
( )
1
1
1
1
8852 . 1 2
8852 . 1 2
4036 . 0 2
4036 . 0 2
+

< <
+

e
e
e
e
955 . 0 383 . 0 < <

b) Si 3 . 0 :
0
= H es verdadera entonces el estadstico


( ) ( )
3 10
1
3 . 0 1
3 . 0 1
ln
2
1
1
1
ln
2
1

\
|

+
|

\
|

+
=
R
R
Z tiene aproximadamente distribucin ) 1 , 0 ( N



El valor observado de ( )
|

\
|

+
R
R
1
1
ln
2
1
es 1.1444, por lo tanto el estadstico toma el valor
2088 . 2
0
= z

Entonces ( ) 0136 . 0 2088 . 2 = > = Z P valor p . Entonces se rechaza 3 . 0 :
0
= H y se con-
cluye que 3 . 0 >













236



TABLAS ESTADISTICAS

Distribucin Binomial acumulada.237
Distribucin Poisson acumulada...243
Distribucin Normal acumulada...248
Puntos porcentuales superiores para distribucin Student250
Puntos porcentuales superiores para distribucin Ji-cuadrada..251
Puntos porcentuales superiores para distribucin Fisher..252

237







238











239












240









241











242





243





244

245

246


247

248











249










250











251










252












253












254












255












256











257










258











259

También podría gustarte