ME04403C

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 50

Captulo 3

Modelos de probabilidad
3.1. Distribuciones de Probabilidad de tipo Dis-
creto
En este captulo estudiaremos las distribuciones de probabilidad de tipo
discreto ms usuales, obteniendo una serie de caractersticas y propiedades de
cada una de ellas.
3.1.1. Distribucin uniforme discreta
Denicin
Diremos que una variable aleatoria discreta X se distribuye uniformemente
sobre n puntos x
1
, . . . , x
n
si su funcin de probabilidad es
f(x
i
) = P(X = x
i
) =

1
n
para i = 1, 2, . . . , n
0 en otro caso
Obsrvese que la variable aleatoria toma diferentes valores pero siempre con la
misma probabilidad.
Propiedades
1. Funcin de distribucin:
F(x) = P(X x) =
X
xix
P(X = x
i
)
2. Esperanza:
E(X) =
1
n
n
X
i=1
x
i
217
Els autors, 2002; Edicions UPC, 2002
218 CAPTULO 3. MODELOS DE PROBABILIDAD
Demostracin:
E(X) =
n
X
i=1
x
i
P(X = x
i
) =
n
X
i=1
x
i

1
n
=
1
n
n
X
i=1
x
i
.
3. Varianza:
V ar(X) =
1
n
n
X
i=1
x
2
i

1
n
n
X
i=1
x
i
!
2
Demostracin:
V ar(X) = E(X
2
) (E(X))
2
=
n
X
i=1
x
2
i
P(X = x
i
)

1
n
n
X
i=1
x
i
!
2
=
=
n
X
i=1
x
2
i

1
n

1
n
n
X
i=1
x
i
!
2
=
1
n
n
X
i=1
x
2
i

1
n
n
X
i=1
x
i
!
2
.
4. Funcin caracterstica:
(t) =
1
n
n
X
i=1
e
itxi
Demostracin:
(t) = E(e
itX
) =
n
X
i=1
e
itxi
P(X = x
i
) =
n
X
i=1
e
itxi

1
n
=
1
n
n
X
i=1
e
itxi
.
5. Funcin generatriz de momentos:
g(t) =
1
n
n
X
i=1
e
txi
Demostracin:
g(t) = E(e
tX
) =
n
X
i=1
e
txi
P(X = x
i
) =
n
X
i=1
e
txi

1
n
=
1
n
n
X
i=1
e
txi
.
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 219
3.1.2. Distribucin de Bernouilli
Denicin
A un experimento aleatorio que da lugar nicamente a dos posibles sucesos
que son mutuamente excluyentes y exhaustivos se le llama experimento o prueba
de Bernouilli. A los dos posibles sucesos del experimento se les llama suceso
xito, A, y suceso fracaso, A. Sea A un suceso de probabilidad p, P(A) = p. Se
dice que una variable aleatoria X es de Bernouilli si
X() =

0 A
1 A
La funcin de probabilidad en este caso es: f(0) = q y f(1) = p, siendo q = 1p.
Decimos que una variable aleatoria X sigue una distribucin de Bernouilli
de parmetro p si su funcin de probabilidad es
f(x) = P(X = x) = p
x
(1 p)
1x
, x = 0, 1.
Decimos en tal caso que X es de tipo B(p).
Propiedades
1. Funcin de distribucin:
F(x) = P(X x) =

0 si x < 0
1 p si 0 x < 1
1 si x 1
2. Esperanza:
E(X) = p
Demostracin:
E(X) = 1 p + 0 (1 p) = p.
3. Varianza:
V ar(X) = p q
Demostracin:
V ar(X) = E[(X E(X))
2
] = (0 p)
2
q + (1 p)
2
p =
= p
2
q +q
2
p = pq(p +q) = pq.
Els autors, 2002; Edicions UPC, 2002
220 CAPTULO 3. MODELOS DE PROBABILIDAD
4. Funcin caracterstica:
(t) = q +pe
it
Demostracin:
(t) = E(e
itX
) = e
it0
q +e
it1
p = q +pe
it
.
5. Funcin generatriz de momentos:
g(t) = q +pe
t
Demostracin:
g(t) = E(e
tX
) = e
t0
q +e
t1
p = q +pe
t
.
Ejemplo
Ejemplo 92 Un agente de seguros dedicado a la venta de seguros de vida realiza
visitas a posibles clientes con el n de contratar un seguro de vida. Se sabe de
su trayectoria como agente que en el 60 % de las visitas tiene xito y contrata
un seguro. Denir la variable aleatoria asociada a este experimento aleatorio y
obtener la media y varianza.
Solucin: El experimento aleatorio es realizar la visita a una posible cliente,
y hay dos resultados posibles: conseguir que el cliente contrate el seguro (suceso
xito) o no conseguirlo (suceso fracaso). La variable aleatoria X asociada al
experimento toma los valores
X = 1 si el cliente contrata el seguro
X = 0 si el cliente no contrata el seguro.
Es, por tanto, una variable de tipo Bernouilli, y su funcin de probabilidad ser
P(X = 1) = 0,6 = p
P(X = 0) = 1 0,6 = 0,4 = q
Por consiguiente, la media y la varianza valen
E(X) = p = 0,6
V ar(X) = pq = 0,6 0,4 = 0,24.
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 221
3.1.3. Distribucin Binomial
Denicin
Una generalizacin importante de la distribucin de Bernouilli se obtiene
cuando el experimento se repite varias veces. As pues consideremos n repeti-
ciones independientes de un experimento, siendo la probabilidad de xito, P(A) =
p, constante en todas las repeticiones. Asociada a cada una de las n repeticiones
del experimento tenemos una variable aleatoria X
i
tal que
X
i
() =

1 A
0 A
,
es decir, una variable de Bernouilli. Si denimos la variable aleatoria
X =
n
X
i=1
X
i
,
entonces como cada X
i
puede tomar el valor 1 o 0, dependiendo de si ocurre
el suceso A (xito) o no ocurre el suceso A (fracaso) en la repeticin i-sima,
la variable aleatoria X toma valores enteros comprendidos entre 0 y n, y nos
da el nmero de xitos en las n repeticiones independientes del experimento.
Decimos entonces que X es una variable aleatoria binomial de parmetros n y
p. Decimos tambin que una variable aleatoria X sigue una distribucin binomial
de parmetros n y p si su funcin de probabilidad es
f(x) = P(X = x) =

n
x

p
x
(1 p)
nx
, x = 0, 1, . . . , n
En tal caso, decimos que X es del tipo B(n, p). Obsrvese que una variable X del
tipo B(p) puede considerarse como una variable del tipo B(1, p), con lo que un
variable de tipo Bernouilli puede considerarse un caso paricular de la binomial.
Se observa tambin fcilmente que una variable binomial de parmetros n y p
se puede obtener como una suma de n variables de Bernouilli independientes,
es decir,
X = X
1
+X
2
+ +X
n
,
donde X es de tipo B(n, p) y X
i
es de tipo B(p).
Propiedades
1. Funcin de distribucin:
F(x) = P(X x) =

0 si x < 0
x
P
i=0

n
i

p
i
(1 p)
ni
si 0 x < n
1 si x n
Els autors, 2002; Edicions UPC, 2002
222 CAPTULO 3. MODELOS DE PROBABILIDAD
2. Esperanza:
E(X) = np
Demostracin: Sabemos que una variable de tipo binomial B(n, p) puede
expresarse como suma de n variables de tipo Bernouilli B(p). Por tanto,
E(X) = E(X
1
+X
2
+ +X
n
) = E(X
1
) +E(X
2
) + +E(X
n
) =
= p +p + +p = np.
3. Varianza:
V ar(X) = npq,
donde q = 1 p
Demostracin: Como una variable de tipo binomial B(n, p) puede ex-
presarse como suma de n variables independientes de tipo Bernouilli B(p),
tenemos:
V ar(X) = V ar(X
1
+X
2
+ +X
n
) = V ar(X
1
) +V ar(X
2
) + +V ar(X
n
) =
= pq +pq + +pq = npq.
4. Funcin caracterstica:
(t) = (q +p e
it
)
n
Demostracin: Como una variable de tipo binomial B(n, p) puede ex-
presarse como suma de n variables independientes de tipo Bernouilli B(p),
y la funcin caracterstica de una suma de variables aleatorias independi-
entes es el producto de las funciones caractersticas, tenemos:

X
(t) =
(X1+X2++Xn)
(t) =
X1
(t)
X2
(t)
Xn
(t) =
= (q +p e
it
) (q +p e
it
) (q +p e
it
) = (q +p e
it
)
n
.
5. Funcin generatriz de momentos:
g(t) = (q +p e
t
)
n
Demostracin: Como una variable de tipo binomial B(n, p) puede ex-
presarse como suma de n variables independientes de tipo Bernouilli B(p),
y la funcin generatriz de momentos de una suma de variables aleatorias
independientes es el producto de las funciones generatrizs, tenemos:
g
X
(t) = g
(X
1
+X
2
++X
n
)
(t) = g
X
1
(t) g
X
2
(t) g
X
n
(t) =
= (q +p e
t
) (q +p e
t
) (q +p e
t
) = (q +p e
t
)
n
.
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 223
6. Si designamos por X e Y las variables aleatorias binomiales que represen-
tan el nmero de xitos y de fracasos, respectivamente, que se tienen cuan-
do realizamos n repeticiones independientes de una prueba de Bernouilli
con probabilidad de xito p, entonces tenemos
P(X = x) = P(Y = n x),
ya que la probabilidad de obtener x xitos lgicamente coincide con la
probabilidad de obtener n x fracasos.
Teorema 61 Si X
1
, X
2
, . . . , X
h
son h variables independientes de tipo B(n
1
, p), B(n
2
, p), . . . , B(n
h
, p)
respectivamente, entonces X = X
1
+X
2
+ +X
h
es de tipo B(n
1
+n
2
+ +
n
h
, p).
Demostracin: Como las variables son independientes, se cumple:

x
(t) =
x
1
(t)
x
2
(t)
x
h
(t) =
= (p e
it
+q)
n
1
(p e
it
+q)
n
2
(p e
it
+q)
n
h
=
= (p e
it
+q)
(n
1
+n
2
++n
h
)
,
que es la funcin caracterstica de una distribucin binomial B(n
1
+n
2
+ +
n
h
, p).
Ejemplos
Ejemplo 93 En una cierta comarca, el 30 % del ganado est afectado de una
enfermedad E. Si se considera un grupo de 20 reses, cul es la probabilidad de
que haya 5 enfermas? Y de que haya 15 sanas?
Solucin: Sea X el nmero de reses afectadas por E de entre 20. Entonces
X tiene una distribucin B(20, 0,3

). Por tanto,
P(X = 5) =

20
5

(0,3)
5
(0,7)
15
= 0,1785.
La segunda pregunta es, de hecho, la misma que la primera, luego ya conocemos
el resultado.
Ejemplo 94 Se extraen cinco cartas de una baraja espaola con reemplaza-
miento. Cul es la probabilidad de que dos sean espadas?
Solucin: Sea X el nmero de espadas entre 5 cartas. Entonces X tiene
una distribucin B(5,
1
4
). Por tanto,
P(X = 2) =

5
2

1
4

3
4

3
=
270
1024
= 0,2636.
Els autors, 2002; Edicions UPC, 2002
224 CAPTULO 3. MODELOS DE PROBABILIDAD
3.1.4. Distribucin Multinomial
Denicin
La distribucin multinomial es una generalizacin de la distribucin bino-
mial, y se usa cuando el experimento aleatorio no slo da lugar a dos posibles
sucesos, xito A y fracaso A, como ocurra en la binomial, sino que da lugar a
tres o ms posibles resultados.
As pues, consideremos un experimento aleatorio en el que se pueden dar k
resultados posibles y mutuamente excluyentes A
1
, . . . , A
k
, k > 2, de tal manera
que forman una particin del espacio muestral. Si designamos por p
i
= P(A
i
),
i = 1, 2, . . . , k, se cumple
k
P
i=1
p
i
= 1.
Supongamos que realizamos n repeticiones independientes del experimen-
to en las mismas condiciones y por tanto las probabilidades p
i
se mantienen
constantes. Consideremos k variables aleatorias X
1
, . . . , X
k
, donde la variable
aleatoria X
i
indica el nmero de veces que se presenta el suceso A
i
cuando se
realizan las n repeticiones independientes del experimento.
Denimos la variable aleatoria multinomial (X
1
, . . . , X
k
) como aquella que
representa el nmero de veces que se presentan cada uno de los sucesos A
1
, . . . , A
k
cuando se realizan las n repeticiones independientes del experimento. Obsrvese
que una variable multinomial es un ejemplo de una variable aleatoria multidi-
mensional.
Decimos que una variable aleatoria k-dimensional (X
1
, . . . , X
k
) sigue una
distribucin multinomial de parmetros n, p
1
, . . . , p
k
si su funcin de probabili-
dad es
f(x
1
, . . . , x
k
) = P(X
1
= x
1
, . . . , X
k
= x
k
) =
n!
x
1
! x
k
!
p
x1
1
p
x
k
k
para x
i
= 0, 1, . . . , n, con
k
P
i=1
x
i
= n. En tal caso, decimos que la variable
aleatoria k-dimensional (X
1
, . . . , X
k
) es del tipo M(n, p
1
, . . . , p
k
).
Propiedades
1. Funcin generatriz de momentos:
g(t
1
, . . . , t
k
) =

k
X
i=1
p
i
e
t
i
!
n
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 225
Demostracin:
g(t
1
, . . . , t
k
) = E(e
t
1
X
1
++t
k
X
k
) =
=
X
x
1

X
x
k
n!
x
1
! x
k
!
p
x1
1
p
x
k
k
e
t
1
x
1
e
t
k
x
k
=
=
X
x1

X
x
k
n!
x
1
! x
k
!
(p
1
e
t
1
)
x
1
(p
k
e
t
k
)
x
k
=
= (p
1
e
t1
+ +p
k
e
t
k
)
n
=

k
X
i=1
p
i
e
ti
!
n
.
2. Esperanza:
E(X
i
) = np
i
Demostracin:
E(X
i
) =
g(t
1
, . . . , t
k
)
t
i

t
1
==t
k
=0
=

t
i

k
X
j=1
p
j
e
tj

t1==t
k
=0
= (3.1)
= np
i
e
t
i
(p
1
e
t
i
+ +p
i
e
t
i
+ +p
k
e
t
i
)
n1

t
1
==t
k
=0
=(3.2)
= np
i
(p
1
+ +p
k
)
n1
= np
i
. (3.3)
3. Varianza:
V ar(X
i
) = np
i
(1 p
i
)
Demostracin: Empezamos calculando
E(X
2
i
) =

2
g(t
1
, . . . , t
k
)
t
2
i

t1==t
k
=0
= n
2
p
2
i
np
2
i
+np
i
.
Entonces tenemos:
V ar(X) = E(X
2
i
) (E(X
i
))
2
= n
2
p
2
i
np
2
i
+np
i
n
2
p
2
i
=
= np
i
(1 p
i
).
4. Covarianza:
Cov(X
i
, X
j
) = np
i
p
j
Demostracin: Empezamos calculando
E(X
i
X
j
) =

2
g(t
1
, . . . , t
k
)
t
i
t
j

t
1
==t
k
=0
= n
2
p
i
p
j
np
i
p
j
Els autors, 2002; Edicions UPC, 2002
226 CAPTULO 3. MODELOS DE PROBABILIDAD
Entonces,
Cov(X
i
, X
j
) = E[(X
i
np
i
)(X
j
np
j
)] = E(X
i
X
j
) n
2
p
i
p
j
=
= n
2
p
i
p
j
np
i
p
j
n
2
p
i
p
j
= np
i
p
j
.
Teorema 62 Si X e Y son dos variables aleatorias k-dimensionales de tipo
M(n, p
1
, . . . , p
k
) y M(m, p
1
, . . . , p
k
) respectivamente, entonces la variable aleato-
ria Z = X +Y es del tipo M(n +m, p
1
, . . . , p
k
).
Demostracin: Considerando la funcin generatriz de momentos de la variable
aleatoria Z = X +Y, tenemos:
g
X+Y
(t
1
, . . . , t
k
) = E(e
t
1
(X
1
+Y
1
)++t
k
(X
k
+Y
k
)
) =
= E(e
t1X1++t
k
X
k
) E(e
t1Y1++t
k
Y
k
) =

k
X
i=1
p
i
e
ti
!
n

k
X
i=1
p
i
e
ti
!
m
=
=

k
X
i=1
p
i
e
ti
!
n+m
,
que es la funcin generatriz de momentos de una distribucin multinomial M(n+
m, p
1
, . . . , p
k
).
Ejemplo
Ejemplo 95 En un cierto cruce de ratones, el resultado de negros, grises y
blancos est en la relacin 8:4:4. Calcular la probabilidad de que de 10 ratones,
6 sean blancos, 3 grises y 1 blanco.
Solucin: Sean X
1
el nmero de ratones negros de entre 10, X
2
el nmero
de ratones grises de entre 10 y X
3
el nmero de ratones blancos de entre 10.
Podemos ajustar una distribucin multinomial de parmetros
n = 10 p
1
=
1
2
p
2
=
1
4
p
3
=
1
4
.
Por tanto,
P(X
1
= 6, X
2
= 3, X
3
= 1) =
10!
6!3!1!

1
2

1
4

1
4

1
= 0,0512.
Ejemplo 96 Un grupo de 12 personas deciden reunirse en una cierta ciudad.
La probabilidad de que una persona llegue a la ciudad en avin, coche, tren o
autobs es, respectivamente, de 0.3, 0.4, 0.1 y 0.2. Cul es la probabilidad de
que de las 12 personas, 3 lleguen en avin, 5 en coche, 2 en tren y 2 en autobs?
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 227
Solucin: Sean
X
1
= nmero de personas que llegan en avin
X
2
= nmero de personas que llegan en coche
X
3
= nmero de personas que llegan en tren
X
4
= nmero de personas que llegan en autobs
La variable (X
1
, X
2
, X
3
, X
4
) tiene distribucin multinomial de parmetros n =
12, p
1
= 0,3, p
2
= 0,4, p
3
= 0,1, y p
4
= 0,2. Entonces
P(X
1
= 3, X
2
= 5, X
3
= 2, X
4
= 2) =
=
12!
3!5!2!2!
(0,3)
3
(0,4)
5
(0,1)
2
(0,2)
2
= 0,4728.
3.1.5. Distribucin geomtrica o de Pascal
Denicin
Sea A un suceso de probabilidad P(A) = p, y sea X la variable aleatoria que
expresa el nmero de fracasos que tienen lugar en las repeticiones independi-
entes de pruebas de Bernouilli, hasta que ocurre A por primera vez. La variable
X toma los valores 0, 1, 2, . . . (nmero de fracasos). Decimos que una variable
aleatoria X sigue una distribucin geomtrica de parmetro p si su funcin de
probabilidad es
f(x) = (1 p)
x
p, x = 0, 1, . . .
En tal caso decimos que X es del tipo G(p).
Propiedades
1. Funcin de distribucin:
F(x) = P(X x) =

0 si x < 0
x
P
i=0
(1 p)
i
p si x 0
2. Funcin generatriz de momentos:
g(t) =
p
1 qe
t
,
donde q = 1 p
Demostracin:
g(t) = E(e
tX
) =

X
i=0
e
tx
(1 p)
i
p =

X
i=0
e
tx
q
i
p =
= p(1 +qe
t
+q
2
e
2t
+q
3
e
3t
+ ) =
p
1 qe
t
.
Els autors, 2002; Edicions UPC, 2002
228 CAPTULO 3. MODELOS DE PROBABILIDAD
3. Esperanza:
E(X) =
1 p
p
Demostracin:
dg(t)
dt
=
pqe
t
(1 qe
t
)
2
.
E(X) =
dg(t)
dt

t=0
=
pq
(1 q)
2
=
pq
p
2
=
q
p
=
1 p
p
.
4. Varianza:
V ar(X) =
1 p
p
2
Demostracin:
d
2
g(t)
dt
2
=
pqe
t
(1 qe
t
)
2
pqe
t
2(1 qe
t
)(qe
t
)
(1 qe
t
)
4
=
pqe
t
(1 qe
t
) + 2pq
2
e
2t
(1 qe
t
)
3
.

2
=
d
2
g(t)
dt
2

t=0
=
pq(1 q) + 2pq
2
(1 q)
3
=
p
2
q + 2pq
2
p
3
=
pq + 2q
2
p
2
Por tanto,
V ar(X) =
2
(E(X))
2
=
pq + 2q
2
p
2

1 p
p

2
=
pq + 2q
2
q
2
p
2
=
=
pq +q
2
p
2
=
(1 q)q +q
2
p
2
=
q
p
2
=
1 p
p
2
.
Teorema 63 Si X es una variable aleatoria de tipo G(p), entonces se verica
P(X h +k/X h) = P(X k)
con h, k = 0, 1, 2, . . . .
Demostracin: A partir de la funcin de distribucin de la variable aleatoria
geomtrica de parmetro p, G(p), podemos escribir, para x 0, que
P(X x) = 1 P(X < x) = 1 P(X x 1) = 1 F(x 1) =
= 1
x1
X
i=0
(1 p)
i
p = 1
x1
X
i=0
q
i
p = 1 p
x1
X
i=0
q
i
=
= 1 p
1 q q
x1
1 q
= 1 p
1 q
x
p
= 1 (1 q
x
) =
= q
x
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 229
Por tanto,
P(X h +k/X h) =
P(X h +k, X h)
P(X h)
=
=
P(X h +k)
P(X h)
=
q
h+k
q
h
= q
k
= P(X k).
Esto quiere decir que, si hemos pasado la h-sima repeticin de la prueba
de Bernouilli y no se ha obtenido un xito, entonces la probabilidad de que
se realicen por lo menos otras k repeticiones sin que se presente ningn xito,
o sea que se realicen por lo menos h + k repeticiones, esa probabilidad es la
misma que si consideramos que la primera repeticin es la h+1-sima, es decir,
esa probabilidad es la misma que la probabilidad de que realicemos al menos k
repeticiones sin obtener el primer xito. Se dice que la distribucin geomtrica
no tiene memoria.
Ejemplo
Ejemplo 97 En una cierta cadena de produccin, se sabe que en promedio uno
de cada 20 productos manufacturados es defectuoso. Cul es la probabilidad de
que al hacer un control, el cuarto producto manufacturado seleccionado sea el
primero defectuoso?
Solucin: Sea D el suceso seleccionar un producto defectuoso. Sabemos
que P(D) =
1
20
. El modelo es una distribucin geomtrica, con lo que la proba-
bilidad pedida es
P =

19
20

3
1
20
= 0,0428.
3.1.6. Distribucin Binomial Negativa
Denicin
Partimos de las mismas condiciones que en la distribucin binomial y ge-
omtrica, es decir, consideramos repeticiones independientes de pruebas de Bernouil-
li, con probabilidad de xito p constante para cada repeticin.
Denimos la variable aleatoria binomial negativa X como el nmero de fra-
casos que tienen lugar antes de que aparezca el r-simo xito. Diremos que una
variable aleatoria X sigue una distribucin binomial negativa de parmetros r y
p, si su funcin de probabilidad es
f(x) = P(X = x) =

x +r 1
x

(1 p)
x
p
r
, x = 0, 1, 2, . . . , r = 1, 2, . . .
En tal caso decimos que X es del tipo BN(r, p). Obsrvese que si tomamos
r = 1, entonces BN(1, p) = G(p).
Els autors, 2002; Edicions UPC, 2002
230 CAPTULO 3. MODELOS DE PROBABILIDAD
Propiedades
1. Funcin de distribucin:
F(x) = P(X x) =

0 si x < 0
x
P
i=0

i +r 1
i

(1 p)
i
p
r
si x 0
2. Funcin generatriz de momentos:
g(t) =

p
1 qe
t

r
,
donde q = 1 p
Demostracin:
g(t) = E(e
tX
) =

X
x=0
e
tx
P(X = x) =

X
x=0
e
tx

x +r 1
x

q
x
p
r
=
=

X
x=0
e
tx

r
x

(q)
x
p
r
= p
r

X
x=0

r
x

(qe
t
)
x
1
rx
=
= p
r
(1 qe
t
)
r
=

p
1 qe
t

r
.
Hemos usado que

x +r 1
x

=
(x +r 1) (x +r 2) (r + 2) (r + 1) r
x!
=
= (1)
x
(r) (r 1) (r 2) (r x + 1)
x!
=
= (1)
x

r
x

.
3. Esperanza:
E(X) =
rq
p
Demostracin: Utilizando la funcin generatriz, obtenemos:
E(X) =
dg(t)
dt

t=0
=
d
dt

p
1 qe
t

t=0
=
= r

p
1 qe
t

r1

p(qe
t
)
(1 qe
t
)
2

t=0
=
=
rp
r
qe
t
(1 qe
t
)
r+1

t=0
=
rp
r
q
(1 q)
r+1
=
=
rp
r
q
p
r+1
=
rq
p
.
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 231
4. Varianza:
V ar(X) =
rq
p
2
Demostracin:
E(X
2
) =
d
2
g(t)
dt
2

t=0
=
d
dt

rp
r
qe
t
(1 qe
t
)
r+1

t=0
=
=
rp
r
qe
t
(1 qe
t
)
r+1
rp
r
qe
t
(r + 1)(1 qe
t
)
r
(qe
t
)
(1 qe
t
)
2r+2

t=0
=
=
rp
r
qe
t
(1 qe
t
) +r(r + 1)p
r
q
2
e
2t
(1 qe
t
)
r+2

t=0
=
=
rp
r
q(1 q) +r(r + 1)p
r
q
2
(1 q)
r+2
=
rp
r
qp +rp
r
q
2
p
r+2
+
r
2
p
r
q
2
p
r+2
=
=
rp
r+1
q +rp
r
q
2
p
r+2
+
r
2
q
2
p
2
.
La varianza viene dada por
V ar(X) = E(X
2
) (E(X))
2
=
rp
r+1
q +rp
r
q
2
p
r+2
+
r
2
q
2
p
2

r
2
q
2
p
2
=
=
rp
r
q(p +q)
p
r+2
=
rp
r
q
p
r+2
=
rq
p
2
.
Teorema 64 Si X
1
y X
2
son dos variables aleatorias independientes distribuidas
segn BN(r
1
, p) y BN(r
2
, p) respectivamente, entonces la variable X = X
1
+X
2
se distribuye segn BN(r
1
+r
2
, p).
Demostracin: A partir de la funcin generatriz de momentos de la variable
aleatoria X = X
1
+X
2
tenemos:
g
X
(t) = g
X1+X2
(t) = g
X1
(t) g
X2
(t) =
=

p
1 qe
t

r1

p
1 qe
t

r2
=
=

p
1 qe
t

r1+r2
,
que es la funcin generatriz de momentos de una distribucin BN(r
1
+ r
2
, p).
Ejemplo
Ejemplo 98 Se extraen una a una, al azar y con reemplazamiento, cartas de
una baraja espaola. Cul es la probabilidad de obtener 5 cartas que no sean
oros antes de obtener el tercer oro?
Els autors, 2002; Edicions UPC, 2002
232 CAPTULO 3. MODELOS DE PROBABILIDAD
Solucin: Supongamos que el suceso xito es sacar un oro, y el suceso fra-
caso, sacar una carta que no sea oro. Entonces
p =
1
4
q =
3
4
.
Se trata de una binomial negativa con n = 3, x = 5 y p =
1
4
. Por tanto,
P(X = 5) =

3 + 5 1
5

1
4

3
4

5
=

7
5

3
5
4
8
= 0,0778.
3.1.7. Distribucin Hipergeomtrica
Denicin
Hasta ahora en las distribuciones estudiadas considerbamos que se realiz-
aban repeticiones independientes de experimentos o pruebas de Bernouilli, en
donde la probabilidad de xito permaneca constante en cada repeticin, es de-
cir, las repeticiones independientes en los experimentos eran equivalentes a la
seleccin de una muestra con reemplazamiento.
Ahora nos interesa estudiar el caso en el que el muestreo o seleccin de los
elementos de la muestra, equivalente a la repeticin de las pruebas de Bernouilli
en la distribucin binomial, se hace sin reemplazamiento. Veremos que la prob-
abilidad de xito no permanece constante.
Consideremos una poblacin de tamao N, dividida segn la caracterstica
a estudiar, en dos subpoblaciones disjuntas de tamaos N
1
y N
2
. Por ejemplo,
una urna con N bolas de las cuales N
1
son blancas y N
2
son negras. Tomamos
una muestra aleatoria sin reemplazamiento de tamao n, n N.
Denimos la variable aleatoria hipergeomtrica X como el nmero de elemen-
tos que pertenecen a una de las subpoblaciones, cuando tomamos una muestra
aleatoria sin reemplazamiento de tamao n de la poblacin total.
La funcin de probabilidad de X (considerando la primera de la subpobla-
ciones) es:
f(k) = P(X = k) =

N
1
k

N
2
n k

N
n
,
donde k cumple max {0, n N
2
} k mn{n, N
1
}. Si designamos por p la
probabilidad de que un elemento pertenezca a la primera subpoblacin y por
q = 1p, la probabilidad de que pertenezca a la segunda subpoblacin, resulta:
N
1
= N p
N
2
= N (1 p) = N q
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 233
Diremos que X sigue una distribucin hipergeomtrica de parmetros N, n, p, o,
abreviadamente, X es de tipo H(N, n, p), si su funcin de probabilidad es
f(x) = P(X = x) =

N p
x

N q
n x

N
n
,
siendo max {0, n Nq} x mn{n, Np}.
Propiedades
1. Funcin de distribucin:
F(x) =

0 si x < m ax {0, n Nq}


x
P
i=0

Np
i

Nq
n i

N
n

si max {0, n Nq} x mn{n, Np}


1 si x > mn{n, Np}
2. Esperanza:
E(X) = np
Demostracin:
E(X) =
X
x
x P(X = x) =
X
x
x

Np
x

Nq
nx

N
n
=
=
1

N
n

X
x
x
Np (Np 1) (Np x + 1)

Nq
nx

x (x 1) 1
=
=
Np

N
n

X
x

Np 1
x 1

Nq
n x

=
Np

N
n

N 1
n 1

=
=
Np
N
n = np.
3. Varianza:
V ar(X) = npq
N n
N 1
Els autors, 2002; Edicions UPC, 2002
234 CAPTULO 3. MODELOS DE PROBABILIDAD
Demostracin: Empezamos calculando el momento de orden dos:
E(X
2
) =
X
x
x
2
P(X = x) =
X
x
x
2

Np
x

Nq
nx

N
n
=
=
X
x
x
2

Np
x

Np1
x1

Nq
nx

N
n
=
=
Np

N
n

X
x
((x 1) + 1)

Np 1
x 1

Nq
n x

=
=
Np

N
n

"
(Np 1)
X
x

Np 2
x 2

Nq
n x

+
X
x

Np 1
x 1

Nq
n x

#
=
=
Np

N
n


(Np 1)

Np +Nq 2
x 2 +n x

Np +Nq 1
x 1 +n x

=
=
Np

N
n


(Np 1)

N 2
n 2

N 1
n 1

=
=
Np n! (N n)!
N!

(Np 1)(n 1)(N 2)! + (N 1)!


(n 1)!(N n)!

=
=
np [(Np 1)(n 1) + (N 1)]
N 1
.
Entonces,
V ar(X) = E(X
2
) (E(X))
2
=
=
np [(Np 1)(n 1) + (N 1)]
N 1
(np)
2
=
= npq
N n
N 1
Interpretacin
La distribucin hipergeomtrica se aplica con cierta frecuencia en el control
estadstico de calidad de una fabricacin en serie. As pues, si el lote bajo control
contiene N
1
elementos buenos y N
2
= N N
1
elementos defectuosos, cuando
tomamos una muestra de tamao n sin reemplazamiento estaremos interesados
en saber el nmero de elementos buenos que han aparecido en la muestra de
tamao n para as determinar la calidad del proceso de fabricacin.
Relacin entre la distribucin hipergeomtrica y la binomial
La diferencia esencial entre ambas distribuciones radica en que en la distribu-
cin binomial la probabilidad de xito permanece constante en las n repeticiones
(muestra de n elementos con reemplazamiento) mientras que en la distribucin
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 235
hipergeomtrica no ocurre lo mismo, sino que la probabilidad de xito vara de
una repeticin a otra del experimento (muestra de n elementos sin reemplaza-
miento). Sin embargo, se cumple la siguiente propiedad:
Teorema 65 Sea X una variable aleatoria de tipo H(N, n, p). Entonces, si N es
muy grande en comparacin con n, la distribucin hipergeomtrica se aproxima
a la binomial, es decir,
H(N, n, p) B(n, p) si N .
Demostracin: Partimos de la funcin de probabilidad hipergeomtrica:
P(X = x) =

Np
x

Nq
nx

N
n

Desarrollando los nmeros combinatorios, obtendremos:


P(X = x) =
(Np)!
x!(Np x)!

(Nq)!
(n x)!(Nq n +x)!

n!(N n)!
N!
=
=
n!
x!(n x)!

(Np)!(Nq)!(N n)!
(Np x)!(Nq n +x)!N!
=
=

n
x

Np (Np 1) (Np x + 1) Nq (Nq 1) (Nq n +x + 1)


N (N 1) (N 2) (N n + 1)
Tomando lmite cuando N , y teniendo en cuenta que el numerador es un
polinomio en N de grado n, cuyo trmino de mayor grado es (Np)
x
(Nq)
nx
=
N
n
p
x
q
nx
y el denominador es tambin un polinomio en N de grado n, cuyo
trmino de mayor grado es N
n
, tenemos
lm
N
P(X = x) =

n
x

p
x
q
nx
,
que es la funcin de probabilidad de una B(n, p), tal como queramos demostrar.
En la prctica, la aproximacin de una distribucin hipergeomtrica a una
binomial, no requiere que N sea excesivamente grande, as pues consideraremos
aqu una buena aproximacin cuando N > 50 y n 0,1N.
Ejemplo
Ejemplo 99 Un fabricante de faros para coches informa que en un envo de
4000 faros a un distribuidor, 500 tenan un ligero defecto. Si se compran a ese
distribuidor 20 faros al azar, cul es la probabilidad de que haya exactamente
2 defectuosos?
Solucin: Sea X el nmero de faros defectuosos de entre 20 comprados.
Ajustamos una distribucin hipergeomtrica, es decir, X es de tipo H(4000, 20, 0,125).
Por tanto,
P(X = 2) =

500
2

3500
18

4000
20
= 0,2546.
Els autors, 2002; Edicions UPC, 2002
236 CAPTULO 3. MODELOS DE PROBABILIDAD
3.1.8. Distribucin de Poisson
Denicin
Hay ciertos experimentos aleatorios que se caracterizan por las siguientes
propiedades:
1. El nmero de sucesos que ocurren en un intervalo de tiempo o en una
regin especicada son independientes del nmero de sucesos que ocurren
en cualquier otro intervalo o regin.
2. La probabilidad de que un solo suceso o resultado ocurra en un intervalo
de tiempo muy pequeo o en una regin muy pequea, es proporcional
a la longitud de dicho intervalo de tiempo o al tamao de la regin, y
no depende del nmero de sucesos que se produzcan fuera del intervalo o
regin considerada.
3. La probabilidad de que ocurran ms de un resultado o suceso en un interva-
lo de tiempo muy pequeo o en una regin muy pequea es prcticamente
nula.
Son ejemplos de experimentos aleatorios de este tipo los siguientes:
1. Accidentes de trco que se producen durante el n de semana en una
determinada ciudad.
2. Llamadas telefnicas por da en una determinada ocina.
3. Automviles que hay en un parking.
Este tipo de experimentos dan lugar a valores numricos de una variable
aleatoria. As tenemos:
1. El nmero de accidentes durante el n de semana
2. El nmero de llamadas durante el da
3. El nmero de automviles del parking
A este tipo de variables aleatorias se las llama de Poisson. La distribucin de
probabilidad de este tipo de variables aleatorias depende solamente del nmero
medio de resultados que ocurren en un intervalo dado.
Decimos que una variable aleatoria X sigue una distribucin de Poisson de
parmetro ( > 0), si su funcin de probabilidad es:
f(x) = P(X = x) =

x
x!
e

, x = 0, 1, 2, . . . ,
donde es el nmero medio de resultados que ocurren en el intervalo dado. En
tal caso decimos que X es una variable de tipo P().
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 237
Propiedades
1. Funcin de distribucin:
F(x) = P(X x) =

0 si x < 0
x
P
i=0

i
i!
e

si x 0
2. Esperanza:
E(X) =
Demostracin:
E(X) =

X
x=0
xP(X = x) =

X
x=0
x

x
x!
e

=
= e

0 + 1

1!
+ 2

2
2!
+ 3

3
3!
+

=
= e

+

2
1!
+

3
2!
+

=
= e


1 +

1!
+

2
2!
+

=
= e

= .
3. Varianza:
V ar(X) =
Els autors, 2002; Edicions UPC, 2002
238 CAPTULO 3. MODELOS DE PROBABILIDAD
Demostracin:
E(X
2
) =

X
x=0
x
2
P(X = x) =

X
x=0
x
2

x
x!
e

=
= e

0 + 1

1!
+ 2
2

2
2!
+ 3
2

3
3!
+

=
= e

+ 2
2
+
3
3
2!
+
4
4
3!
+

=
= e

1 + 2 +
3
2
2!
+
4
3
3!
+

=
= e

1 + (1 + 1) + (1 + 2)

2
2!
+ (1 + 3)

3
3!
+

=
= e

1 +

1!
+

2
2!
+

3
3!
+ +

1!
+ 2

2
2!
+ 3

3
3!
+

=
= e

1 +

1!
+

2
2!
+

3
3!
+ +

1!
+

2
1!
+

3
2!
+

=
= e

1 +

1!
+

2
2!
+

=
= e

[e

+e

] = (1 +) = +
2
.
Por lo tanto, la varianza vale
V ar(X) = E(X
2
) (E(X))
2
= +
2

2
= .
4. Funcin generatriz de momentos:
g(t) = e
(e
t
1)
Demostracin:
g(t) = E(e
tX
) =

X
x=0
e
tx
P(X = x) =

X
x=0
e
tx

x
x!
e

=
= e


X
x=0
e
tx

x
x!
= e


X
x=0
(e
t
)
x
x!
=
= e

1 +
e
t

1!
+
(e
t
)
2
2!
+
(e
t
)
3
3!
+

=
= e

e
e
t

= e
(e
t
)
= e
(e
t
1)
.
Els autors, 2002; Edicions UPC, 2002
3.1. DISTRIBUCIONES DE PROBABILIDAD DE TIPO DISCRETO 239
Teorema 66 Si X
1
, X
2
, . . . , X
n
son variables independientes de tipo P(
1
), P(
2
), . . . , P(
n
),
respectivamente, entonces la variable X = X
1
+ X
2
+ + X
n
es de tipo
P(
1
+
2
+ +
n
).
Demostracin: Utilizamos la funcin generatriz: como cada X
i
es de tipo
P(
i
), entonces su funcin generatriz de momentos es
g
i
(t) = e

i
(e
t
1)
.
Como todas las variables son independientes, entonces se obtiene
g(t) = E(e
tX
) = E(e
t(X1+X2++Xn)
) = E(e
tX1
) E(e
tX2
) E(e
tXn
) =
= e
1(e
t
1)
e
2(e
t
1)
e
n(e
t
1)
= e
(1+2++n)(e
t
1)
,
que es la funcin generatriz de momentos de una distribucin de Poisson de
parmetro =
1
+
2
+ +
n
.
Aproximacin de la distribucin binomial por la distribucin de Pois-
son
Sea X una variable del tipo B(n, p). Supongamos que = np, con lo cual
p =

n
y q = 1

n
. Veamos qu ocurre con la distribucin binomial cuando
n :
lm
n
P(X = x) = lm
n

n
x

p
x
q
nx
=
= lm
n
n(n 1) (n x + 1)
x!

1

n

nx
=
= lm
n
n(n 1) (n x + 1)
n
x
lm
n

x
x!
lm
n

1

n

n
lm
n

1

n

x
.
Calculamos cada uno de estos lmites por separado:
lm
n
n(n 1) (n x + 1)
n
x
= 1,
ya que es una indeterminacin del tipo

, y se trata de un cociente de polinomios


de igual grado.
lm
n

x
x!
=

x
x!
lm
n

1

n

n
= lm
n

1 +
1

n
= lm
n
"

1 +
1

= e

.
lm
n

1

n

x
= 1
x
= 1.
Por lo tanto,
lm
n

n
x

p
x
q
nx
=

x
x!
e

.
Els autors, 2002; Edicions UPC, 2002
240 CAPTULO 3. MODELOS DE PROBABILIDAD
As pues la distribucin binomial converge en ley a la distribucin de Poisson
de parmetro . Esto signica que podemos aproximar la distribucin binomial
por la de Poisson si n es grande y p pequeo, tomando como parmetro = np.
En la prctica, la distribucin binomial se puede aproximar a una Poisson
cuando np < 5 y p < 0,1, y como la media en la distribucin binomial es np y
en la distribucin de Poisson es , entonces en esta aproximacin se considera
que la media es = np.
Ejemplos
Ejemplo 100 La probabilidad de que un coche se accidente en un cierto tramo
de carretera de 0.0001. Si recorren ese tramo 20000 coches, cul es la proba-
bilidad de que se produzcan a lo sumo cinco accidentes?
Solucin: Sea X el nmero de accidentes de entre 20000 coches. X tiene
una distribucin B(20000, 0,0001). Como np = 2 < 5U y p = 0,0001 < 0,1,
se puede utilizar la aproximacin de la binomial por una Poisson. X se puede
aproximar, pues por P(np) = P(2). Entonces obtenemos:
P(X 5) = P(X = 0) +P(X = 1) +P(X = 2) +
+ P(X = 3) +P(X = 4) +P(X = 5) =
=
2
0
0!
e
2
+
2
1
1!
e
2
+
2
2
2!
e
2
+
2
3
3!
e
2
+
+
2
4
4!
e
2
+
2
5
5!
e
2
=
= 0,1353 + 0,2707 + 0,2707 + 0,1804 +
+ 0,0902 + 0,0361 =
= 0,9834.
Ejemplo 101 Una compaa de seguros calcul que el 0.01 % de la poblacin
fallece cada ao de un cierto tipo de accidente. Cul es la probabilidad de que
la compaa tenga que pagar por ms de cuatro de sus 10000 asegurados un ao
dado?
Solucin: Sea X el nmero de pagos efectuados en un ao dado. X tiene
distribucin B(10000, 0,0001). Como np = 1 < 5 y p = 0,0001 < 0,1, podemos
aproximar la binomial por una Poisson P(1). Entonces tenemos:
P(X > 4) = 1 P(X 4) =
= 1 [P(X = 0) +P(X = 1) +P(X = 2) +P(X = 3) +P(X = 4)] =
= 1

1
0
0!
e
1
+
1
1
1!
e
1
+
1
2
2!
e
1
+
1
3
3!
e
1
+
1
4
4!
e
1

=
= 1 [0,3679 + 0,3679 + 0,1839 + 0,0613 + 0,0153] =
= 0,0037.
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 241
Ejemplo 102 Se ha comprobado que el nmero medio de coches que llegan a
un estacin de servicio es de 180 a la hora. Si en dicha estacin se pueden
atender cinco coches por minuto, calcular la probabilidad de que en un minuto
dado queden coches sin atender.
Solucin: Sea X el nmero de coches que llegan en un minuto. El nmero
medio de coches por minuto es =
180
60
= 3, luego el modelo es una distribucin
de Poisson de parmetro = 3. Entonces tenemos:
P(X > 5) = 1 P(X 5) =
= 1
5
X
i=0
P(X = x) =
= 1
5
X
i=0
3
x
x!
e
3
=
= 1 (0,0498 + 0,1494 + 0,2240 +
+ 0,2240 + 0,1680 + 0,1008) =
= 0,0840.
3.2. Distribuciones de probabilidad de tipo con-
tinuo
En esta seccin nos ocuparemos de modelos probabilsticos asociados a vari-
ables aleatorias de tipo continuo.
3.2.1. Distribucin uniforme
Denicin
Se dice que la v.a. X tiene distribucin uniforme o rectangular en el intervalo
[a, b], a < b, si su funcin de densidad es constante en [a, b] y nula en el resto.
Como f(x) 0 para todo x R, y
R
+

f(x) dx = 1, se tiene que


Z
+

k dx = 1 k(b a) = 1 k =
1
b a
.
Por tanto, la funcin de densidad viene dada por
f(x) =

1
ba
si x [a, b]
0 si x / [a, b]
.
Diremos que X es una variable de tipo U[a, b].
Els autors, 2002; Edicions UPC, 2002
242 CAPTULO 3. MODELOS DE PROBABILIDAD
Propiedades
1. Funcin de distribucin:
F(x) =

0 si x < a
xa
ba
si a x b
1 si x > b
Demostracin:
Si x < a, F(x) = P(X x) =
Z
x

0 dt = 0.
Si a x b, F(x) = P(X x) =
Z
x

f(t) dt =
Z
a

0 dt +
Z
x
a
1
b a
dt =
x a
b a
.
Si b < x, F(x) = P(X x) =
Z
x

f(t) dt =
Z
a

0 dt +
Z
b
a
1
b a
dt +
Z
x
b
0 dt = 1.
2. Funcin generatriz de momentos:
g(t) =
(
e
tb
e
ta
t(ba)
si t 6= 0
1 si t = 0
Demostracin: Si t 6= 0 :
g(t) = E(e
tX
) =
Z
+

e
tx
f(x) dx =
Z
b
a
e
tx
1
b a
dx =
1
b a

e
tx
t

b
a
=
=
e
tb
e
ta
t(b a)
.
Si t = 0 :
g(0) = E(e
0X
) = E(1) = 1.
3. Esperanza:
E(X) =
a +b
2
Demostracin:
E(X) =
Z
+

xf(x) dx =
Z
b
a
x
1
b a
dx =
1
b a

x
2
2

b
a
=
1
2
b
2
a
2
b a
=
a +b
2
.
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 243
4. Varianza:
V ar(X) =
1
12
(b a)
2
Demostracin:
E(X
2
) =
Z
+

x
2
f(x) dx =
Z
b
a
x
2
1
b a
dx =
1
b a

x
3
3

b
a
=
=
1
3
b
3
a
3
b a
=
1
3
(b
2
+ab +a
2
).
Por tanto,
V ar(X) = E(X
2
) [E(X)]
2
=
1
3
(b
2
+ab +a
2
)

a +b
2

2
=
=
b
2
+ab +a
2
3

a
2
+ 2ab +b
2
4
=
=
b
2
2ab +a
2
12
=
(b a)
2
12
.
Ejemplo
Ejemplo 103 Una variable de tipo uniforme U[a, b] tiene por media = 200 y
por varianza
2
= 12. Calcular la probabilidad de que X sea menor que 196.
Solucin: En primer lugar debemos calcular a y b. Como X tiene distribu-
cin U[a, b], sabemos que
=
a +b
2

2
=
1
12
(b a)
2
Por tanto,
a+b
2
= 200
1
12
(b a)
2
= 12

resolviendo el sistema, obtenemos


a = 194
b = 206
La funcin de densidad de X es
f(x) =

0 si x 194
1
12
si 194 x 206
0 si x > 206
y por consiguiente,
P(X 196) =
Z
196

f(x) dx =
Z
196
194
1
12
dx =
1
6
.
Els autors, 2002; Edicions UPC, 2002
244 CAPTULO 3. MODELOS DE PROBABILIDAD
3.2.2. Distribucin Gamma
Denicin
Se dice que la v.a. X sigue una distribucin gamma de parmetros p > 0 y
a > 0 (y se denota por (p, a)) si su funcin de densidad viene dada por
f(x) =
(
a
p
x
p1
e
ax
(p)
si x > 0
0 en otro caso
,
donde denota la funcin gamma, denida por
(p) =
Z
+
0
x
p1
e
x
dx.
Recordamos alguna propiedades de la funcin :
1. (p) = (p 1) (p 1)
2. Si p N, entonces (p) = (p 1)!
3.

1
2

Propiedades
1. Funcin de distribucin:
F(x) =

a
p
(p)
R
x
0
x
p1
e
ax
dx si x > 0
0 si x 0
2. Funcin generatriz de momentos:
g(t) =

1
t
a

p
Demostracin:
g(t) = E(e
tX
) =
Z
+

e
tx
f(x) dx =
Z
+
0
e
tx
a
p
x
p1
e
ax
(p)
dx =
=
a
p
(p)
Z
+
0
e
(at)x
x
p1
dx =
a
p
(p)
(p)
(a t)
p
=
=
a
p
(a t)
p
=

a t
a

p
=

1
t
a

p
.
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 245
3. Esperanza:
E(X) =
p
a
Demostracin: Sabemos que E(X) =
dg(t)
dt

t=0
. Como
dg(t)
dt
= p

1
t
a

p1

1
a

=
p
a

1
t
a

p1
,
entonces
E(X) =
dg(t)
dt

t=0
=
p
a
.
4. Varianza:
V ar(X) =
p
a
2
Demostracin: Como
d
2
g(t)
dt
2
=
p
a
(p 1)

1
t
a

p2

1
a

=
p(p + 1)
a
2

1
t
a

p2
,
entonces
E(X
2
) =
d
2
g(t)
dt
2

t=0
=
p(p + 1)
a
2
.
Por lo tanto,
V ar(X) = E(X
2
) [E(X)]
2
=
p(p + 1)
a
2

p
2
a
2
=
p
a
2
.
Teorema 67 Si X
1
, X
2
, . . . , X
n
son variables aleatorias independientes con dis-
tribuciones (p
1
, a), (p
2
, a), . . . , (p
n
, a), respectivamente, entonces X = X
1
+
+X
n
es de tipo (p
1
+ +p
n
, a).
Demostracin: Utilizamos el mtodo de la funcin generatriz. Para cada i =
1, 2, . . . , n, la funcin generatriz de la variable X
i
viene dada por g
X
i
(t) =

1
t
a

pi
. Por tanto,
g
X
(t) = g
X1+X2++Xn
(t) = g
X1
(t) g
X2
(t) g
Xn
(t) =
=

1
t
a

p1

1
t
a

p2

1
t
a

pn
=
=

1
t
a

P
n
i=1
pi
,
que es la funcin generatriz de una variable aleatoria de tipo (
P
n
i=1
p
i
, a) .
Els autors, 2002; Edicions UPC, 2002
246 CAPTULO 3. MODELOS DE PROBABILIDAD
Ejemplo
Ejemplo 104 El tiempo de duracin X de una pieza de un cierto equipo se
distribuye segn una distribucin gamma de parmetros p = 3 y a = 0,2. Deter-
minar:
1. Probabilidad de que el equipo funcione ms de 10 horas.
2. Probabilidad de que el quipo funcione entre 10 y 15 horas.
Solucin:
1. Teniendo en cuenta la expresin de la funcin de distribucin de una
(p, a), tenemos que
P(X > 10) =
(0,2)
3
(3)
Z

10
x
2
e
(0,2)x
dx =

1
5

3
(3)
Z

10
x
2
e
x/5
dx.
Esta integral se puede resolver por partes, reiterando dos veces el proced-
imiento, y resultara
Z
x
2
e
x/5
dx = 5x
2
e
x/5
50xe
x/5
250e
x/5
=
= (5x
2
50x 250) e
x/5
Por tanto,
P(X > 10) =
1
125 2
h
(5x
2
50x 250) e
x/5
i

10
=
=
1
250
(500 + 500 + 250) e
2
' 0,68.
2.
P(10 X 15) =

1
5

3
(3)
Z
15
10
x
2
e
x/5
dx =
=
1
125 2
h
(5x
2
50x 250) e
x/5
i
15
10
=
=
1
250

(1,125 750 250) e


3
(500 500 250) e
2

=
= 0,25.
3.2.3. Distribucin exponencial
Denicin
Se dice que la variable aleatoria X tiene distribucin exponencial de parmetro
a (y se denota por Exp(a)) si su funcin de densidad es de la forma
f(x) =

ae
ax
si x > 0
0 si x 0
.
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 247
Obsrvese que esta distribucin es un caso particular de la distribucin gam-
ma de parmetros 1 y a, es decir Exp(a) = (1, a), lo cual nos permite en seguida
obtener las caractersticas de la exponencial haciendo p = 1 en los correspondi-
entes para la distribucin gamma. As tenemos:
Propiedades
1. Funcin de distribucin:
F(x) =
R
x
0
ae
ax
dx = 1 e
ax
si x > 0
0 si x 0
2. Funcin generatriz de momentos:
g(t) =

1
t
a

1
3. Media:
E(X) =
1
a
4. Varianza:
V ar(X) =
1
a
2
Teorema 68 Si X
1
, X
2
, . . . , X
n
son n variables aleatorias independientes e
idnticamente distribuidas, con distribucin Exp(a), entonces X = X
1
+X
2
+
+X
n
sigue una distribucin (n, a).
Demostracin: Dado que cada X
i
, i = 1, . . . , n sigue una distribucin Exp(a),
entonces es tambin de tipo (1, a). Por el teorema de adicin de variables
aleatorias con distribucin (p, a), sabemos que X = X
1
+ X
2
+ + X
n
es
de tipo (1 + 1 + + 1, a) = (n, a).
Ejemplo
Ejemplo 105 En un parking pblico se ha observado que los coches llegan
aleatoria e independientemente a razn de 360 coches por hora. Utilizando la
distribucin exponencial, encontrar la probabilidad de que el prximo coche no
llegue dentro de medio minuto.
Solucin: Sea X el tiempo que transcurre entre dos llegadas consecutivas.
Tanto X como el parmetro a deben venir expresadas en la misma unidad. As
pues, el parmetro a es el nmero de coches que llegan por minuto, y vale
a =
360
60
= 6 coches por minuto.
Entonces la probabilidad deseada es
P(X 0,5) = 1 P(X < 0,5) = 1 F(0,5) =
= 1 (1 e
60,5
) = e
3
= 0,049.
Els autors, 2002; Edicions UPC, 2002
248 CAPTULO 3. MODELOS DE PROBABILIDAD
3.2.4. Distribucin de Weibull
Denicin
Se dice que la variable aleatoria X sigue una distribucin de Weibull de
parmetros y (y se denota W(, )) si su funcin de densidad es
f(x) =

x
1
e
x

si x > 0
0 si x 0
.
Si se toma = 1 resulta la distribucin exponencial, es decir, Exp() =
W(, 1). La esperanza y la varianza de una variable X W(, ) son:
E(X) =
1/
(1 +
1

)
V ar(X) =
2/
(
(1 +
2

(1 +
1

2
)
Esta distribucin se utiliza en problemas de abilidad de sistemas para estudiar
la distribucin del tiempo transcurrido para que se produzca el fallo de un
componente del sistema.
3.2.5. Distribucin Beta
Denicin
Diremos que una variable aleatoria X de tipo continuo sigue una distribucin
beta de parmetros p y q, siendo p, q R y p, q > 0, si la funcin de densidad es
f(x) =

1
(p,q)
x
p1
(1 x)
q1
si 0 < x < 1
0 en otro caso
,
donde (p, q) es la funcin beta, y se dene por
(p, q) =
Z
1
0
x
p1
(1 x)
q1
dx, p > 0, q > 0.
Como
(p, q) =
(p) (q)
(p +q)
,
la funcin de densidad se puede expresar equivalentemente de la forma
f(x) =
(
(p+q)
(p) (q)
x
p1
(1 x)
q1
si 0 < x < 1
0 en otro caso
Abreviadamente, diremos que X es de tipo (p, q).
Obsrvese que la funcin de densidad est denida sobre el intervalo (0, 1),
lo cual nos indica que esta familia de distribuciones es muy til para modelar
proporciones (proporcin de piezas defectuosas en un lote, participacin de la
produccin de una empresa con respecto al total de lo producido en ese sector,
etc.).
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 249
Propiedades
1. Funcin de distribucin:
F(x) =

0 si x 0
R
x
0
1
(p,q)
x
p1
(1 x)
q1
dx si 0 < x 1
1 si x 1
2. Esperanza:
E(X) =
p
p +q
Demostracin: Calculamos primero los momentos de orden r respecto
al origen, para poder obtener fcilmente la esperanza y la varianza:
E(X
r
) =
Z
1
0
x
r

1
(p, q)
x
p1
(1 x)
q1
dx =
1
(p, q)
Z
1
0
x
p+r1
(1 x)
q1
dx =
=
(p +r, q)
(p, q)
=
(p +r) (q)
(p +r +q)

(p +q)
(p) (q)
=
=
(p +r) (p +q)
(p +r +q) (p)
=
(p +r)! (p +q)!
(p +r +q)! (p)!
=
(p +r 1) (p + 1) p
(p +r +q 1) (p +q)
Haciendo r = 1, obtenemos la expresin de la esperanza:
E(X) =
p
p +q
.
3. Varianza:
V ar(X) =
pq
(p +q + 1)(p +q)
2
Demostracin: Sabemos que el momento de orden r viene dado por
E(X
r
) =
(p +r 1) (p + 1) p
(p +r +q 1) (p +q)
.
Haciendo r = 2 obtenemos la expresin del momento de orden 2:
E(X
2
) =
(p + 1)p
(p +q + 1)(p +q)
.
Entonces la varianza es
V ar(X) = E(X
2
) (E(X))
2
=
(p + 1)p
(p +q + 1)(p +q)

p
2
(p +q)
2
=
=
(p
2
+p)(p +q) p
2
(p +q + 1)
(p +q + 1)(p +q)
2
=
=
pq
(p +q + 1)(p +q)
2
.
Els autors, 2002; Edicions UPC, 2002
250 CAPTULO 3. MODELOS DE PROBABILIDAD
Ejemplo
Ejemplo 106 Si consideramos una variable aleatoria X que representa la pro-
porcin de personas que consumen una determinada marca de aceite de oliva y
que sigue una distribucin beta de parmetros p = 1 y q = 1, (1, 1), determi-
nar la probabilidad de que dicha proporcin est comprendida entre el 10 % y el
50 %.
Solucin: Sabemos que la distribucin beta se puede utilizar para represen-
tar variables fsicas cuyos valores estn comprendidos en el intervalo (0, 1), es
decir, para representar proporciones. La probabilidad pedida es
P(0,1 X 0,5) =
Z
0,5
0,1
(1 + 1)
(1) (1)
x
11
(1 x)
11
dx =
=
Z
0,5
0,1
dx = [x]
0,5
0,1
= 0,4.
3.2.6. Distribucin normal
Denicin
Se dice que la variable aleatoria X sigue una distribucin normal reducida,
y se denota por N(0, 1), si su funcin de densidad es
f(x) =
1

2
e

x
2
2
para todo x R.
Propiedades
1. Funcin de distribucin:
F(X) = P(X x) =
Z
x

2
e

x
2
2
dx
La funcin de distribucin da la probabilidad acumulada desde hasta
cada valor de x. Grcamente, este valor es el rea entre y x limitada
por el eje x y la curva normal. Como e

x
2
2
es integrable en el sentido de
Riemann en cualquier intervalo, F(x) existe para cada x, pero no posee
una primitiva elemental. Por eso se han tabulado las probabilidades de la
N(0, 1).
2. Funcin generatriz de momentos:
g(t) = e
t
2
2
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 251
Demostracin:
g(t) = E(e
tX
) =
Z
+

e
tx
1

2
e

x
2
2
dx =
1

2
Z
+

x
2
2
+tx
dx =
=
1

2
Z
+

e
t
2
2
e

(xt)
2
2
dx =
1

2
e
t
2
2
Z
+

(xt)
2
2
dx
Haciendo el cambio de variable x t = z, dx = dz, tenemos:
g(t) =
1

2
e
t
2
2
Z
+

z
2
2
dz =
1

2
e
t
2
2

2 = e
t
2
2
.
3. Esperanza:
= E(X) = 0
Demostracin: Desarrollando g(t) en serie de McLaurin, resulta:
g(t) = e
t
2
2
= 1 +
t
2
/2
1!
+
(t
2
/2)
2
2!
+ = 1 +
t
2
2
+
t
4
2
2
2!
+ ,
de donde obtenemos
= E(X) =
dg(t)
dt

t=0
= 0.
4. Varianza:
V ar(X) = 1
Demostracin: Hemos visto que el desarrollo de g(t) en serie de McLau-
rin es:
g(t) = e
t
2
2
= 1 +
t
2
2
+
t
4
2
2
2!
+ ,
de donde obtenemos
E(X
2
) =
d
2
g(t)
dt
2

t=0
= 1.
Por tanto,

2
= E(X
2
) [E(X)]
2
= 1 0 = 1.
La funcin f tiene su mximo en x = 0, luego 0 es, adems de la media, la
moda de esta distribucin. Tiene dos puntos de inexin, en x = 1, x = 1, y
es simtrica respecto del eje Y , lo que resulta muy til en el manejo de tablas.
Adems, desde el punto de vista estadstico, esto implica que la mediana es
tambin x = 0.
Els autors, 2002; Edicions UPC, 2002
252 CAPTULO 3. MODELOS DE PROBABILIDAD
Denicin 6 Se dice que la variable aleatoria X sigue una distribucin normal
de media y desviacin tpica , y se denota N(, ), si su funcin de densidad
es
f(x) =
1

2
e

(x)
2
2
2
para todo x R.
Su grca tiene el mximo en x = , es simtrica respecto de esta recta y
tiene dos puntos de inexin situados en las abscisas y +.
La distribucin N(, ) se puede obtener a partir de la N(0, 1) utilizando el
cambio de variable Y = +X :
F
Y
(x) = P(Y x) = P( +X x) = P

X
x

=
= F
X

=
Z x

2
e

u
2
2
du
Por tanto,
f
Y
(x) = F
0
Y
(x) =
1

F
0
X

=
1

f
X

,
de donde
f
Y
(x) =
1

2
e
(x)
2
/2
2
.
Esta transformacin de variables posibilita el paso de la N(, ) a la N(0, 1) y,
en consecuencia, la utilizacin de las tablas de la N(0, 1) para la resolucin de
problemas de la N(, ).
Denicin 7 Dada la variable Y de tipo N(, ), se llama variable tipicada
a
X =
Y

.
Observacin 49 Sabemos que una variable tipicada tiene distribucin N(0, 1),
con lo cual si queremos calcular, por ejemplo, P(3 < Y < 5), donde Y es de
tipo N(3, 2), haremos
P(3 < Y < 5) = P

3 3
2
<
Y 3
2
<
5 3
2

= P(0 < X < 1),


donde X es N(0, 1), y se puede calcular P(0 < X < 1) a partir de las tablas.
A partir de la relacin entre N(, ) y N(0, 1), se pueden deducir las propiedades
de toda variable aleatoria Y de tipo N(, ) :
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 253
Propiedades
1. Funcin generatriz de momentos:
g(t) = e
t+
(t)
2
2
Demostracin:
g(t) = E(e
tY
) = E

e
t(+X)

= e
t
E(e
tX
) = e
t
e
(t)
2
/2
= e
t+
(t)
2
2
.
2. Esperanza:
= E(X) =
Demostracin:
E(Y ) = E( +X) = +E(X) = + 0 = .
Por tanto, el primer parmetro de N(, ) es precisamente su media.
3. Varianza:
V ar(X) =
2
Demostracin:
V ar(Y ) =
2
V ar(X) =
2
1 =
2
.
Por tanto, la desviacin tpica de N(, ) es , precisamente el segundo
parmetro.
Teorema 69 Si X
1
, . . . , X
n
son variables aleatorias independientes con dis-
tribuciones X
i
N(
i
,
i
), i = 1, . . . , n, entonces la variable suma X = X
1
+
X
2
+ +X
n
tiene distribucin N

1
+ +
n
,
p

2
1
+ +
2
n

.
Demostracin: Utilizamos el mtodo de la funcin generatriz:
g
X
(t) = E(e
tX
) = E(e
tX
1
) E(e
tX
1
) E(e
tX
1
) =
= e
t
1
+(t
1
)
2
/2
e
t
2
+(t
2
)
2
/2
e
t
n
+(t
n
)
2
/2
=
= e
t(
1
+
2
++
n
)+
t
2
2
(
2
1
+
2
2
++
2
n
)
,
que es la funcin generatriz de una distribucin
N

1
+ +
n
,
q

2
1
+ +
2
n

.
Els autors, 2002; Edicions UPC, 2002
254 CAPTULO 3. MODELOS DE PROBABILIDAD
Teorema 70 Si X
1
, . . . , X
n
son variables aleatorias independientes e igual-
mente distribuidas segn una N(, ), entonces la variable
X =
X
1
+ +X
n
n
es de tipo N

,

.
Demostracin: Utilizamos el mtodo de la funcin generatriz:
g
X
(t) = E(e
tX
) = E

e
t(
X
1
n
+
X
2
n
++
X
n
n
)

= E

e
t
n
X
1

e
t
n
X
2

e
t
n
X
n

=
=

e
t
n
+
(t)
2
2n
2

e
t
n
+
(t)
2
2n
2

e
t
n
+
(t)
2
2n
2

=

e
t
n
+
(t)
2
2n
2

n
=
= e
t+(t)
2
/2n
,
que es la funcin generatriz de una distribucin normal de media y desviacin
tpica

n
.
Teorema 71 Si X es una variable aleatoria con distribucin B(n, p), entonces
se cumple
Y =
X np

npq
N(0, 1)
cuando n .
Demostracin: Como X tiene distribucin B(n, p), su funcin generatriz es
(pe
t
+q)
n
, luego la funcin generatriz de Y ser
g
Y
(t) = E(e
tY
) = E(e
t(Xnp)/

npq
) = e
npt/

npq
E(e
tX/

npq
) =
= e
npt/

npq

pe
t/

npq
+q

n
=

e
pt/

npq

pe
t/

npq
+q

n
=
=

pe
t(1p)/

npq
+qe
tp/

npq

n
=

pe
tq/

npq
+qe
tp/

npq

n
.
Considerando el desarrollo de McLaurin de e
z
=
P

r=0
z
r
r!
hasta el trmino de
grado dos, resulta
pe
tq/

npq
= p +
pq

npq
t +
pq
2
2npq
t
2
+
pq
3
3!(npq)
3/2
t
3
qe
tp/

npq
= q
pq

npq
t +
p
2
q
2npq
t
2
+
p
3
q
3!(npq)
3/2
t
3
de donde se obtiene
g
Y
(t) =

1 +
t
2
2n
+
(pq
3
+qp
3
)t
3
3!(npq)
3/2

n
Deniendo
z =
t
2
2
+
(pq
3
+qp
3
)t
3
3!(pq)
3/2

n
,
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 255
resulta
log g
Y
(t) = nlog

1 +
z
n

= z
n
z
log

1 +
z
n

.
Si t es jo y n , entonces
z
t
2
2
z
n
0
z
n
z
log

1 +
z
n

= z
log

1 +
z
n

z
n
z
t
2
2
Por tanto,
lmg
Y
(t) = e
t
2
/2
,
que es la funcin generatriz de momentos de la N(0, 1).
Este teorema nos permite aproximar probabilidades binomiales mediante la
normal. La aproximacin es muy buena si n es grande, pero incluso es aceptable
para n pequea si p est prximo a
1
2
. En la prctica se suele aceptar como
buena la aproximacin cuando np y nq son mayores que 5.
Como la variable B(n, p) es discreta, cuando se aproxime mediante la normal
habr de hacerse por intervalos. Po ejemplo, si X es de tipo B(100,
1
2
) y quer-
emos calcular P(X = 45), aproximaremos X por una N(50, 5), y calcularemos
P(44,5 < X < 45,5), donde X ya se considera N(0, 1). Es decir, se cambia el
valor discreto de la binomial por un intervalo de amplitud 1 centrado en el valor
que vamos a calcular.
Ejemplos
Ejemplo 107 La estatura Y de un cierto grupo de personas sigue una distribu-
cin normal de media = 1,70 m y desviacin tpica = 0,10 m. Calcular la
probabilidad de que una persona seleccionada al azar mida ms de 1.80.
Solucin: Y tiene distribucin N(1,70, 0,10). Tipicando esta variable se
obtiene una nueva variable X =
Y 1,70
0,10
de tipo N(0,1). Entonces,
P(Y > 1,80) = P

Y 1,70
0,10
>
1,80 1,70
0,10

= P(X > 1) = 0,1587.


Ejemplo 108 La longitud de ciertas piezas sigue una distribucin N(32, 0,3).
1. Calcular la probabilidad de que una pieza tenga una longitud comprendida
entre 31.1 y 32.6.
2. Si se eligen tres piezas al azar, cul es la probabilidad de que dos y slo
dos de ellas tengan longitud comprendida en el intervalo [31,1, 32,6]?
Els autors, 2002; Edicions UPC, 2002
256 CAPTULO 3. MODELOS DE PROBABILIDAD
Solucin:
1. Sea Y la longitud de las piezas. Sabemos que la distribucin de Y es
N(32, 0,3). Tipicando, obtenemos una nueva variable X =
Y 32
0,3
de tipo
N(0, 1).
P(31,1 < Y < 32,6) = P

31,1 32
0,3
<
Y 32
0,3
<
32,6 32
0,3

=
= P(3 < X < 2) = P(X < 2) P(X < 3) = 0,9758.
2. Si se eligen tres piezas al azar, sea Z el nmero de piezas comprendidas
en el intervalo [31,1, 32,6]. Z tiene distribucin B(3, 0,9758). Por tanto,
P(Z = 2) =

3
2

(0,9758)
2
0,0242 = 0,0695.
Ejemplo 109 Calcular la probabilidad de obtener entre 3 y 6 caras, ambas in-
clusive, en 10 lanzamientos de una moneda, utilizando:
1. La distribucin binomial,
2. La distribucin normal.
Solucin:
1. Sea Y el nmero de caras en 10 lanzamientos de una moneda. Y es de
tipo B(10,
1
2
). Por tanto,
P(3 Y 6) = P(Y = 3) +P(Y = 4) +P(Y = 5) +P(Y = 6) =
=

10
3

1
2

1
2

7
+

10
4

1
2

1
2

6
+
+

10
5

1
2

1
2

5
+

10
6

1
2

1
2

4
=
=
1
2
10

10
3

10
4

10
5

10
6

=
= 0,7734
2. Aproximamos Y por una N(np,

npq) = N(5, 1,58). Entonces la variable


tipicada X =
Y 5
1,58
tiene distribucin N(0, 1). Cada valor discreto de la
binomial se convierte en un intervalo de la normal de amplitud 1 centrado
en dicho valor, con lo que resulta:
P(2,5 < Y < 6,5) = P

2,5 5
1,58
<
Y 5
1,58
<
6,5 5
1,58

=
= P(1,58 < X < 0,95) = 0,7718.
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 257
Ejemplo 110 Dos establecimientos venden el mismo tipo de artculo. Las ven-
tas se distribuyen, para el primer establecimiento, segn una N(1200, 100), y
para el segundo, segn una N(1000, 90). Calcular la probabilidad de que las ven-
tas del primero superen en ms de 50 unidades a las del segundo.
Solucin: Sean
X
1
= unidades vendidas en el primer establecimiento
X
2
= unidades vendidas en el segundo establecimiento
Como X
1
es de tipo N(1200, 100) y X
2
, de tipo N(1000, 90), entonces Y =
X
1
X
2
es de tipo N(1200 1000,

100
2
+ 90
2
) = N(200, 134,53). Por tanto,
P(Y > 50) = P

Y 200
134,53
>
50 200
134,53

=
= P(X > 1,11) = 0,8665.
3.2.7. Distribucin Log-normal
Denicin
Una variable aleatoria X de tipo continuo, no negativa, sigue una distribu-
cin log-normal de parmetros y si la variable aleatoria Y = lnX sigue una
distribucin N(, ), con < < + y > 0. Su funcin de densidad es
f(x) =
(
2
x

2
e
[(ln x)
2
/2
2
]
si x > 0
0 si x 0
Abreviadamente, diremos que X es de tipo log N(, ).
Propiedades
1. Funcin de distribucin: La funcin de distribucin de una variable aleato-
ria X log-normal en x es igual a la funcin de distribucin de una variable
N(0, 1) en
ln x

.
Demostracin: Sea X una variable aleatoria log-normal, e Y = lnX, que
sigue una distribucin N(, ). Entonces
F
X
(x) = F
Y
(lnx) = P(Y lnx) = P

Y


lnx

'
' P

Z
lnx

= F

lnx

.
Els autors, 2002; Edicions UPC, 2002
258 CAPTULO 3. MODELOS DE PROBABILIDAD
2. Esperanza:
E(X) = e
+
1
2

2
Demostracin: Calculemos primero el momento de orden r respecto al
origen de la variable X, teniendo en cuenta que
Y = lnX X = e
Y
.
Sabemos que la funcin generatriz de momentos para una variable aleato-
ria Y de tipo N(, ) es
g
Y
(t) = E(e
tY
) = e
t+
1
2
t
2

2
Por tanto, el momento de orden r de X es:
E(X
r
) = E(e
rY
),
que coincide con la funcin generatriz de momentos de Y evaluada en
t = r :
E(X
r
) = E(e
rY
) = e
r+
1
2
r
2

2
.
Haciendo r = 1, obtenemos la esperanza, que viene dada por
E(X) = e
+
1
2

2
.
3. Varianza:
V ar(X) = e
2+
2
(e

2
1)
Demostracin: Sabemos que el momento de orden r viene dado por
E(X
r
) = E(e
rY
) = e
r+
1
2
r
2

2
.
Por tanto, el momento de orden 2 es
E(X
2
) = e
2+
1
2
4
2
.
Por tanto, la varianza es
V ar(X) = E(X
2
) (E(X))
2
= e
2+
1
2
4
2

e
+
1
2

2
=
= e
2+2
2
e
2+
2
= e
2+
2
(e

2
1).
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 259
Ejemplo
Ejemplo 111 El consumo semanal de gasoil de los autobuses urbanos de una
ciudad sigue una distribucin log-normal de parmetros = 4 y = 1,5. De-
terminar:
1. La probabilidad de que el consumo semanal sea como mximo de 600 litros.
2. La probabilidad de que el consumo semanal est comprendido entre 500 y
700 litros.
Solucin: Sea X la variable aleatoria que representa el consumo semanal
de gasoil, y sabemos que tiene distribucin logN(4, 1,5).
1. La probabilidad de que el consumo semanal sea como mximo de 600 litros
es
P(X 600) = P(lnX ln600) = P

lnX 4
1,5

ln600 4
1,5

'
' P

Z
ln600 4
1,5

= P

Z
6,39 4
1,5

=
= P(Z 1,59) = F(1,59) = 0,9441.
2. La probabilidad de que el consumo semanal est comprendido entre 500 y
700 litros es:
P(500 X 700) = P(ln500 lnX ln700) =
= P

ln500 4
1,5

lnX 4
1,5

ln700 4
1,5

'
' P

6,21 4
1,5
Z
6,55 4
1,5

=
= P(1,47 Z 1,7) = F(1,7) F(1,47) =
= 0,9554 0,9292 =
= 0,0262.
3.2.8. Distribucin
2
de Pearson
Denicin
Dadas las variables X
1
, X
2
, . . . , X
n
de tipo N(0, 1) e independientes, se llama
variable
2
de Pearson con n grados de libertad a la variable denida por

2
= X
2
1
+X
2
2
+ +X
2
n
.
Els autors, 2002; Edicions UPC, 2002
260 CAPTULO 3. MODELOS DE PROBABILIDAD
Es decir, la
2
es suma de cuadrados de variables N(0, 1) independientes. Su
funcin de densidad es
f(x) =

1
2
n/2
(n/2)
x
n
2
1
e

x
2
si x > 0
0 si x 0
A la distribucin de probabilidad de variable continua denida por f se le conoce
como distribucin
2
de Pearson con n grados de libertad y se denota por
2
n
.
Est claro que n es el nico parmetro de esta distribucin. Mirando la funcin
de densidad, se tiene que

2
n
=

n
2
,
1
2

,
de donde podemos deducir las propiedades de la distribucin
2
n
:
Propiedades
1. Esperanza:
E(X) = n
Demostracin: Sabemos que la esperanza de una distribucin (p, a) es
=
p
a
. Por tanto, la esperanza de una
2
n
=

n
2
,
1
2

es
E(X) =
n/2
1/2
= n.
2. Varianza:

2
= V ar(X) = 2n
Demostracin: Sabemos que la varianza de una distribucin (p, a) es

2
=
p
a
2
. Por tanto, la varianza de una
2
n
=

n
2
,
1
2

es
V ar(X) =
n/2
(1/2)
2
= 2n.
3. Funcin generatriz de momentos:
g
X
(t) = (1 2t)

n
2
Demostracin: Sabemos que la funcin generatriz de momentos de una
distribucin (p, a) es g
X
(t) =

1
t
a

p
. Por tanto, la funcin generatriz
de una
2
n
=

n
2
,
1
2

es
g
X
(t) =

1
t
1/2

n
2
= (1 2t)

n
2
.
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 261
4. Si X es una variable aleatoria distribuida segn una
2
n
, entonces la vari-
able aleatoria

2X sigue aproximadamente una distribucin N(

2n 1, 1).
Teorema 72 Si X
1
, X
2
, . . . , X
k
son k variables aleatorias independientes con
distribuciones
2
n1
,
2
n2
, . . . ,
2
n
k
, respectivamente, entonces X = X
1
+X
2
+ +
X
k
tiene distribucin
2
con n
1
+n
2
+ +n
k
grados de libertad.
Demostracin: Sabemos que cada X
i
tiene distribucin

n
i
2
,
1
2

. Por el teo-
rema de adicin de distribuciones , sabemos que X = X
1
+X
2
+ +X
k
tiene
distribucin

n
1
2
+
n
2
2
+ +
n
k
2
,
1
2

n
1
+n
2
+ +n
k
2
,
1
2

=
2
(n
1
+n
2
++n
k
)
.
Ejemplo
Ejemplo 112 Dada una variable aleatoria X distribuida segn una
2
38
, obten-
er la probabilidad P(
2
38
20).
Solucin: Sabemos que la variable aleatoria

2X
q
2
2
38
se aproxima por una distribucin N(

2 38 1, 1). Por tanto,


P(
2
38
20) = P(
q
2
2
38

2 20) =
= P

p
2
2
38

2 38 1
1

2 20

2 38 1
1
!
'
' P(Z

40

75) = P(Z 2,34) =


= F
Z
(2,34) = 0,0096.
3.2.9. Distribucin t de Student
Denicin
Dadas las variables aleatorias X, X
1
, X
2
, . . . , X
n
independientes e idntica-
mente distribuidas N(0, ), se llama variable t de Student a la denida por
T =
X
Y
=
X
q
1
n
P
n
i=1
X
2
i
.
Se dice que la variable T sigue una distribucin t de Student con n grados de
libertad si su funcin de densidad es
f(t) =
(
n+1
2
)

n (
1
2
)

1 +
t
2
n

(n+1)/2
, con < t < +.
Els autors, 2002; Edicions UPC, 2002
262 CAPTULO 3. MODELOS DE PROBABILIDAD
Esta distribucin es simtrica respecto del origen, con lo que = 0. Adems, f
es independiente de , lo que ser de gran importancia en las aplicaciones.
Propiedades
1. Funcin de distribucin:
F(t) = P(T t) =
(
n+1
2
)

n (
1
2
)
Z
t

1 +
t
2
n

(n+1)/2
dt.
2. Esperanza:
E(T) = 0,
por la simetra de la funcin de densidad.
3. Varianza:
V ar(T) =
n
n 2
.
3.2.10. Distribucin F de Snedecor
Denicin
Sean X
1
, X
2
, . . . , X
m,
Y
1
, Y
2
, . . . , Y
n
m + n variables aleatorias independi-
entes e idnticamente distribuidas N(0, 1). Se llama variable F de Snedecor con
(m, n) grados de libertad y se denota F
m,n
a la variable aleatoria denida por
F =
1
m
P
m
i=1
X
2
i
1
n
P
n
i=1
Y
2
i
Es decir, una variable F es un cociente de variables
2
independientes y divididas
cada una de ellas por su nmero de grados de libertad.
A la distribucin de probabilidad obtenida a partir de la funcin de densidad
f(x) =
(
[(m+n)/2]
(m/2) (n/2)

m
n
m
2
x
(
m
2
1)

1 +x
m
n

(m+n)/2
si x > 0
0 si x 0
se la denomina F de Snedecor con (m, n) grados de libertad.
Propiedades
1. Funcin de distribucin:
F(x) = P(X x) =
(
[(m+n)/2]
(m/2) (n/2)

m
n
m
2
R
x
0
x
(
m
2
1)

1 +x
m
n

(m+n)/2
dx si x > 0
0 si x 0
2. Esperanza:
E(X) =
n
n 2
si n > 2, pues en caso contrario la integral que resulta al calcular E(X)
es divergente.
Els autors, 2002; Edicions UPC, 2002
3.2. DISTRIBUCIONES DE PROBABILIDAD DE TIPO CONTINUO 263
3. Varianza:
V ar(X) =
n
2
(2m+ 2n 4)
m(n 2)
2
(n 4)
si n > 4, pues en caso contrario la integral que resulta al calcular V ar(X)
es divergente.
4. Si X es de tipo F
m,n
, entonces
1
X
es de tipo F
n,m
, lo que es interesante
para manejar las tablas.
5. F(1, n) y t
2
n
son variables aleatorias con la misma distribucin de prob-
abilidad.Si denotamos por F
m,n,
el valor tal que P(F > F
m,n,
) = ,
entonces
F
m,n,1
=
1
F
m,n,
,
lo que tambin resulta til en el manejo de tablas.
Els autors, 2002; Edicions UPC, 2002
264 CAPTULO 3. MODELOS DE PROBABILIDAD
Els autors, 2002; Edicions UPC, 2002
Parte II
Prctica
265
Els autors, 2002; Edicions UPC, 2002
Els autors, 2002; Edicions UPC, 2002

También podría gustarte