1 Controles 2 - Roberto Cortez

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 38

Ingeniera Matematica

FACULTAD DE CIENCIAS Roberto Cortez


FISICAS Y MATEMATICAS
Julio Backhoff
UNIVERSIDAD DE CHILE
Probabilidades y Estadstica Otono 2010 Vctor Riquelme

Control # 2
Tiempo: 3 horas
P1. Decimos que la variable aleatoria X tiene distribucion de Pareto si su densidad esta dada por
(
c(xm /x)+1 x xm
f (x) =
0 en otro caso,
donde xm , > 0 son parametros.
a) (1.5 ptos.) Muestre que c = /xm .
b) (1.5 ptos.) Para cuales esta bien definida la esperanza de X? Calcule E(X) para aquellos
que tenga sentido.
c) (1.5 ptos.) Para cuales esta bien definida la varianza de X? Calcule var(X) para aquellos
que tenga sentido.
d ) (1.5 ptos.) Cual es la distribucion de log(X/xm )?
P2. a) (3.0 ptos.) Se dispone de una urna con N bolitas, de las cuales m son blancas y el resto
son negras, y se extraen n bolitas al azar. Calcule la cantidad esperada de bolitas blancas
extradas. Indicacion: defina variables indicatrices adecuadas y utilice la linealidad de la
esperanza.
b) (3.0 ptos.) Sean X, Y variables aleatorias con densidad conjunta
(
2(x + y) 0 < x < 1, 0 < y < x
fX,Y (x, y) =
0 en otro caso.
Calcule las densidades marginales de X e Y . Son independientes? Explique. Indicacion:
dibuje la region en que la densidad conjunta es estrictamente positiva.
P3. Decimos que Y es una variable chi-cuadrado con n grados de libertad, anotado Y 2n , si puede
escribirse de la forma Y = X12 + + Xn2 , donde las variables Xi son N (0, 1) independientes. Se
desea calcular la esperanza y varianza de Y , para lo cual siga los siguientes pasos:
a) (1.2 ptos.) Sea X variable aleatoria con densidad fX . Pruebe que la densidad de la variable
aleatoria X 2 es
fX ( x) + fX ( x)
fX 2 (x) = 1(0,) (x).
2 x

Indicacion: dado x 0, se tiene que X 2 x si y solo si x X x.
b) (1.2 ptos.) Si X N (0, 1), muestre que la densidad de X 2 es
ex/2
fX 2 (x) = 1(0,) (x).
2x
c) (1.2 ptos.) Si X N (0, 1), pruebe que la funcion generadora de momentos de X 2 es
MX 2 (t) = (1 2t)1/2 t < 1/2.
d ) (1.2 ptos.) Muestre que la funcion generadora de momentos de Y 2n es MY (t) = (1
2t)n/2 t < 1/2. Indicacion: utilice la independencia de las variables Xi .
e) (1.2 ptos.) Dado Y 2n , calcule E(Y ) y var(Y ).
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Julio Backhoff
Probabilidades y Estadstica Otono 2010 Vctor Riquelme

Pauta Control # 2
P1. a) Para calcular la constante, imponemos que la integral de la densidad en todo R sea 1, es decir:
Z Z  Z

xm +1 +1 1 +1 x = cxm ,
1= f (x)dx = c dx = cxm x dx = cxm
xm x xm xm

pues como > 0, al evaluar en se obtiene 0. Despejando c, obtenemos c = /xm .


b) Calculemos la esperanza y veamos cuando esta no queda bien definida:
Z Z Z
 xm +1
E(X) = xf (x)dx = x dx = x m x dx.
xm xm x xm


Para = 1 la primitiva es log(x), con lo cual obtenemos que E(X) = xm log(x)|xm , lo cual vale .
6 1, tenemos:
Para =
+1
(
si + 1 > 0

x
E(X) = xm = +1
xm
+ 1 xm

xm +1 si + 1 < 0.

En resumen, la esperanza de X queda indefinida para 1, y esta bien definida para > 1, siendo
xm /( 1) su valor.
c) Calculemos la varianza y veamos cuando hay problemas:
Z Z Z
 xm +1
E(X 2 ) = x2 f (x)dx = x2 dx = x
m x(1) dx.
xm x m x xm

Poniendo = 1 y analizando la integral con el mismo razonamiento de la parte previa, se concluye


que E(X 2 ) queda indefinida cuando 1, es decir, cuando 2. Para > 2, tenemos:

x+2 x2m
E(X 2 ) = xm = ,
+ 2 xm
2

y entonces
x2m 2 x2m x2m
var(X) = E(X 2 ) E(X)2 = = .
2 ( 1)2 ( 1)2 ( 2)
d ) Sea Y = log(X/xm ). Veamos:
Z xm ey
y
P (Y y) = P (log(X/xm ) y) = P (X xm e ) = f (x)dx.

Si y < 0, entonces xm ey < xm y la probabilidad anterior es 0. Para y > 0, derivamos con respecto a
y, obteniendo:
 +1
xm
fY (y) = xm ey f (xm ey ) = xm ey = ey .
xm xm ey
Es decir, fY (y) = ey 1[0,) (y), lo cual significa que Y = log(X/xm ) es una variable exponencial
de parametro .
P2. a) Hay tres formas de resolver este problema, dos de las cuales utilizan la indicacion, mientras que la
ultima utiliza la definicion de esperanza. Llamemos X a la variable aleatoria que representa el numero
de bolitas blancas extradas.
1
Primera forma: siguiendo la indicacion, por cada una de las n bolitas extradas definimos una
variable aleatoria indicatriz Xi , dada por
(
1 si la i-esima bolita extrada fue blanca
Xi =
0 en otro caso.

Es claro que X = X1 + + Xn . Ademas, cada variable Xi es una Bernoulli, por lo cual su


esperanza es
m
E(Xi ) = P (Xi = 1) = ,
N
donde la ultima igualdad se debe a que la probabilidad de que la i-esima bolita extrada sea blanca
corresponde a los casos favorables (m) dividido en casos posibles (N ). Aplicando linealidad de la
esperanza:
nm
E(X) = E(X1 ) + + E(Xn ) = .
N
Segunda forma: siguiendo la indicacion, por cada una de las m bolitas blancas definimos una vari-
able aleatoria indicatriz Yj , dada por
(
1 si la j-esima bolita blanca fue extrada
Yj =
0 en otro caso.

Es claro que X = Y1 + + Ym . Ademas, cada variable Yj es una Bernoulli, por lo cual su


esperanza esta dada por:
N

n1 n
E(Yj ) = P (Yj = 1) = N  = ,
n
N
donde la penultima igualdad se debe a que la probabilidad de extraer la j-esima bolita blanca
corresponde a la cantidad de formas de extraer n bolitas que incluyan a la j-esima blanca, dividido
por el total de formas de extraer las n bolitas. Aplicando linealidad de la esperanza, concluimos:
nm
E(X) = E(Y1 ) + + E(Ym ) = .
N
Tercera forma: X es una variable hipergeometrica, cuya funcion distribucion es conocida, dada por:
m N m
 
k nk
P (X = k) = N
 .
n

Aplicando la definicion de la esperanza, se tiene que:


n n m N m
 
X X k nk
E(X) = kP (X = k) = k N
 ,
k=0 k=0 n

donde se utiliza la convencion de que los coeficientes binomiales con ndices fuera de rango son 0.
Usando que a ab = b a1 b1

, obtenemos:

n m1 N m n m1 N m n1 m1 N m
     
X m k1 nk nm X k1 nk nm X j n1j
E(X) = N N 1
 = N 1
 = N 1

n n1
N n1
N j=0 n1
k=0 k=0

donde la ultima sumatoria es 1 pues corresponde a la suma de las probabilidades de una variable
hipergeometrica con parametros N 1, n 1 y m 1. Por lo tanto, E(X) = nm/N .
b) Calculemos la densidad marginal de X. Dado 0 < x < 1, tenemos:
Z Z x Z x Z x
fX (x) = fX,Y (x, y)dy = 2(x + y)dy = 2x dy + 2ydy = 2x2 + x2 ,
0 0 0

2
por lo tanto, dado que fX,Y (x, y) = 0 para x / (0, 1), obtenemos que fX (x) = 3x3 1(0,1) (x). Ahora
calculemos la densidad marginal de Y . Dado 0 < y < 1, para que fX,Y (x, y) sea no nulo se necesita
que y < x < 1 (hacer dibujo para verlo claro). Por lo tanto:
Z Z 1 Z 1 Z 1
fY (y) = fX,Y (x, y)dx = 2(x + y)dx = 2xdx + 2y dx = 1 y 2 + 2y(1 y).
y y y

Luego, dado que fX,Y (x, y) = 0 para y / (0, 1), se obtiene que la densidad de Y es fY (y) = (1 +
2y 3y 2 )1(0,1) (y). Cuando las variables son independientes, la densidad conjunta es el producto de
las densidades. En este caso el producto de las densidades es
fX (x)fY (y) = 3x2 (1 + 2y 3y 2 )1(0,1) (x)1(0,1) (y),
lo cual no calza con la densidad conjunta de X e Y . Por lo tanto, ellas no son independientes.
P3. a) Dado x > 0, tenemos:

P (X 2 x) = P ( x X x) = FX ( x) FX ( x),
y derivando con respecto a x, se obtiene:

fX ( x) fX ( x) fX ( x) + fX ( x)
fX 2 (x) = = .
2 x 2 x 2 x
La indicatriz aparece porque para x < 0 el evento X 2 < x es vaco y por lo tanto la densidad es 0.
b) Reemplazando fX por la densidad de una N (0, 1) en la formula de la parte previa, obtenemos:
2 2 !
1 e( x) /2 e( x) /2 ex/2
fX 2 (x) = + 1(0,) (x) = 1(0,) (x).
2 x 2 2 2x
c) Calculemos:
Z x(12t)/2
ex/2
Z
tX tx e
MX 2 (t) = E(e ) = e dx = dx.
0 2x 0 2x
Cuando t 1/2 esta integral vale . Para t < 1/2, hacemos el cambio de variable y = x(1 2t) y
obtenemos: Z Z y/2
ey/2 dy 1 e
MX 2 (t) = p = dy,
0 2y/(1 2t) 1 2t 1 2t 0 2y
y la integral vale 1 pues el integrando es la densidad de X 2 .
d ) Como Y 2n , Y se escribe como la suma de los Xi2 , donde Xi N (0, 1) y son independientes. Por lo
hecho anteriormente, se tiene que MXi2 (t) = (1 2t)1/2 . Ademas, sabemos que la f.g.m. de la suma
de variables independientes es el producto de las f.g.m., por lo cual
MY (t) = MX12 (t) MXn2 (t) = (1 2t)1/2 (1 2t)1/2 = (1 2t)n/2 .
e) Utilicemos la f.g.m. para calcular E(Y ) y var(Y ):
dMY (t) n
= (1 2t)n/21 (2) = n(1 2t)n/21 .
dt 2
Y derivando nuevamente:
d2 MY (t) n
= n( 1)(1 2t)n/22 (2) = n(n + 2)(1 2t)n/22 .
dt2 2
Por lo tanto:

dMY (t)
E(Y ) = =n
dt t=0
d2 MY (t)

2
E(Y ) = = n(n + 2)
dt2 t=0
var(Y ) = E(Y 2 ) E(Y )2 = n(n + 2) n2 = 2n.
Observacion: tambien es posible obtener el resultado calculando la esperanza y varianza de X 2 ,
con X N (0, 1), y luego aplicar linealidad de la esperanza y de la varianza en caso de variables
independientes.

3
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
Vctor Carmi
UNIVERSIDAD DE CHILE
MA3403-4 Probabilidades y Estadstica, Primavera 2010 Daro Cepeda

Control # 2
25 de octubre de 2010
Tiempo: 3 horas

P1. a) (3.0 ptos.) El arancel mensual de una determinada carrera universitaria asciende a $60. Si el
ingreso per capita mensual de la familia de un estudiante es inferior a $50, se le asigna 100 %
de beca; si el ingreso per capita esta entre $50 y $80, se le asigna 50 % de beca; y si esta entre
$80 y $100, se asigna un 25 %. En otro caso, no se asigna beca. Calcule el valor esperado de
la beca mensual asignada a un estudiante escogido al azar, suponiendo que el ingreso per
capita mensual de la familia se distribuye uniformemente en el intervalo [$25, $175].
b) (3.0 ptos.) Sean X e Y variables aleatorias independientes exponenciales de parametro = 1.
Sean U = X/Y , V = XY . Muestre que la funcion de densidad conjunta de U y V es
1
e( u+ u ) v
fU,V (u, v) = 2u u > 0, v > 0
0 en otro caso.

P2. a) Sea A R2 como en la figura, y sea (X, Y ) un vector aleatorio uniformemente distribuido
sobre A, es decir, fX,Y (x, y) = area(A)1 1A (x, y).
3 1[1,1](x) .
1) (1.5 ptos.) Muestre que fX (x) = 2|x|
Calcule tambien la densidad marginal de Y .

2) (1.5 ptos.) Deduzca que E(X) = 0 y muestre que


cov(X, Y ) = 0. Indicacion: utilice sin demostrar
que
ZZ
E(XY ) = xyfX,Y (x, y)dxdy.
R2

3) (1.0 pto.) Son independientes X e Y ? Justifique.


b) (2.0 ptos.) Se tienen dos mazos identicos con n cartas cada uno. La persona A extrae kA
cartas al azar del primer mazo, y la persona B extrae, independiente de A, kB cartas al
azar del segundo mazo (sin reposicion en ambos casos). Muestre que el numero esperado
de cartas que aparecen simultaneamente entre las escogidas por A y por B, es (kA kB )/n.
Indicacion: defina variables indicatrices adecuadas y use la linealidad de la esperanza.
P3. Sea X una variable aleatoria con distribucion de Laplace de parametros R y b > 0, es decir,
su densidad esta dada por
1 |x|
fX (x) = e b x R.
2b
a) (1.5 ptos.) Muestre que la funcion generadora de momentos de X es MX (t) = et /(1 b2 t2 )
para |t| < 1/b.
b) (1.5 ptos.) Calcule la esperanza y varianza de X.
c) (1.5 ptos.) Suponiendo = 0, calcule la densidad de |X|. Que variable conocida es |X|?
d ) (1.5 ptos.) Sean Y1 exp(1 ), Y2 exp(2 ) variables independientes. Pruebe que 1 Y1
2 Y2 tiene distribucion de Laplace con parametros = 0 y b = 1. Indicacion: calcule las
densidades de 1 Y1 y 2 Y2 , y calcule la densidad de su suma utilizando una propiedad
adecuada.
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Julio Backhoff
Probabilidades y Estadstica Otono 2010 Vctor Riquelme

Pauta Control # 2
P1. a) Para calcular la constante, imponemos que la integral de la densidad en todo R sea 1, es decir:
Z Z  Z

xm +1 +1 1 +1 x = cxm ,
1= f (x)dx = c dx = cxm x dx = cxm
xm x xm xm

pues como > 0, al evaluar en se obtiene 0. Despejando c, obtenemos c = /xm .


b) Calculemos la esperanza y veamos cuando esta no queda bien definida:
Z Z Z
 xm +1
E(X) = xf (x)dx = x dx = x m x dx.
xm xm x xm


Para = 1 la primitiva es log(x), con lo cual obtenemos que E(X) = xm log(x)|xm , lo cual vale .
6 1, tenemos:
Para =
+1
(
si + 1 > 0

x
E(X) = xm = +1
xm
+ 1 xm

xm +1 si + 1 < 0.

En resumen, la esperanza de X queda indefinida para 1, y esta bien definida para > 1, siendo
xm /( 1) su valor.
c) Calculemos la varianza y veamos cuando hay problemas:
Z Z Z
 xm +1
E(X 2 ) = x2 f (x)dx = x2 dx = x
m x(1) dx.
xm x m x xm

Poniendo = 1 y analizando la integral con el mismo razonamiento de la parte previa, se concluye


que E(X 2 ) queda indefinida cuando 1, es decir, cuando 2. Para > 2, tenemos:

x+2 x2m
E(X 2 ) = xm = ,
+ 2 xm
2

y entonces
x2m 2 x2m x2m
var(X) = E(X 2 ) E(X)2 = = .
2 ( 1)2 ( 1)2 ( 2)
d ) Sea Y = log(X/xm ). Veamos:
Z xm ey
y
P (Y y) = P (log(X/xm ) y) = P (X xm e ) = f (x)dx.

Si y < 0, entonces xm ey < xm y la probabilidad anterior es 0. Para y > 0, derivamos con respecto a
y, obteniendo:
 +1
xm
fY (y) = xm ey f (xm ey ) = xm ey = ey .
xm xm ey
Es decir, fY (y) = ey 1[0,) (y), lo cual significa que Y = log(X/xm ) es una variable exponencial
de parametro .
P2. a) Hay tres formas de resolver este problema, dos de las cuales utilizan la indicacion, mientras que la
ultima utiliza la definicion de esperanza. Llamemos X a la variable aleatoria que representa el numero
de bolitas blancas extradas.
1
Primera forma: siguiendo la indicacion, por cada una de las n bolitas extradas definimos una
variable aleatoria indicatriz Xi , dada por
(
1 si la i-esima bolita extrada fue blanca
Xi =
0 en otro caso.

Es claro que X = X1 + + Xn . Ademas, cada variable Xi es una Bernoulli, por lo cual su


esperanza es
m
E(Xi ) = P (Xi = 1) = ,
N
donde la ultima igualdad se debe a que la probabilidad de que la i-esima bolita extrada sea blanca
corresponde a los casos favorables (m) dividido en casos posibles (N ). Aplicando linealidad de la
esperanza:
nm
E(X) = E(X1 ) + + E(Xn ) = .
N
Segunda forma: siguiendo la indicacion, por cada una de las m bolitas blancas definimos una vari-
able aleatoria indicatriz Yj , dada por
(
1 si la j-esima bolita blanca fue extrada
Yj =
0 en otro caso.

Es claro que X = Y1 + + Ym . Ademas, cada variable Yj es una Bernoulli, por lo cual su


esperanza esta dada por:
N

n1 n
E(Yj ) = P (Yj = 1) = N  = ,
n
N
donde la penultima igualdad se debe a que la probabilidad de extraer la j-esima bolita blanca
corresponde a la cantidad de formas de extraer n bolitas que incluyan a la j-esima blanca, dividido
por el total de formas de extraer las n bolitas. Aplicando linealidad de la esperanza, concluimos:
nm
E(X) = E(Y1 ) + + E(Ym ) = .
N
Tercera forma: X es una variable hipergeometrica, cuya funcion distribucion es conocida, dada por:
m N m
 
k nk
P (X = k) = N
 .
n

Aplicando la definicion de la esperanza, se tiene que:


n n m N m
 
X X k nk
E(X) = kP (X = k) = k N
 ,
k=0 k=0 n

donde se utiliza la convencion de que los coeficientes binomiales con ndices fuera de rango son 0.
Usando que a ab = b a1 b1

, obtenemos:

n m1 N m n m1 N m n1 m1 N m
     
X m k1 nk nm X k1 nk nm X j n1j
E(X) = N N 1
 = N 1
 = N 1

n n1
N n1
N j=0 n1
k=0 k=0

donde la ultima sumatoria es 1 pues corresponde a la suma de las probabilidades de una variable
hipergeometrica con parametros N 1, n 1 y m 1. Por lo tanto, E(X) = nm/N .
b) Calculemos la densidad marginal de X. Dado 0 < x < 1, tenemos:
Z Z x Z x Z x
fX (x) = fX,Y (x, y)dy = 2(x + y)dy = 2x dy + 2ydy = 2x2 + x2 ,
0 0 0

2
por lo tanto, dado que fX,Y (x, y) = 0 para x / (0, 1), obtenemos que fX (x) = 3x3 1(0,1) (x). Ahora
calculemos la densidad marginal de Y . Dado 0 < y < 1, para que fX,Y (x, y) sea no nulo se necesita
que y < x < 1 (hacer dibujo para verlo claro). Por lo tanto:
Z Z 1 Z 1 Z 1
fY (y) = fX,Y (x, y)dx = 2(x + y)dx = 2xdx + 2y dx = 1 y 2 + 2y(1 y).
y y y

Luego, dado que fX,Y (x, y) = 0 para y / (0, 1), se obtiene que la densidad de Y es fY (y) = (1 +
2y 3y 2 )1(0,1) (y). Cuando las variables son independientes, la densidad conjunta es el producto de
las densidades. En este caso el producto de las densidades es
fX (x)fY (y) = 3x2 (1 + 2y 3y 2 )1(0,1) (x)1(0,1) (y),
lo cual no calza con la densidad conjunta de X e Y . Por lo tanto, ellas no son independientes.
P3. a) Dado x > 0, tenemos:

P (X 2 x) = P ( x X x) = FX ( x) FX ( x),
y derivando con respecto a x, se obtiene:

fX ( x) fX ( x) fX ( x) + fX ( x)
fX 2 (x) = = .
2 x 2 x 2 x
La indicatriz aparece porque para x < 0 el evento X 2 < x es vaco y por lo tanto la densidad es 0.
b) Reemplazando fX por la densidad de una N (0, 1) en la formula de la parte previa, obtenemos:
2 2 !
1 e( x) /2 e( x) /2 ex/2
fX 2 (x) = + 1(0,) (x) = 1(0,) (x).
2 x 2 2 2x
c) Calculemos:
Z x(12t)/2
ex/2
Z
tX tx e
MX 2 (t) = E(e ) = e dx = dx.
0 2x 0 2x
Cuando t 1/2 esta integral vale . Para t < 1/2, hacemos el cambio de variable y = x(1 2t) y
obtenemos: Z Z y/2
ey/2 dy 1 e
MX 2 (t) = p = dy,
0 2y/(1 2t) 1 2t 1 2t 0 2y
y la integral vale 1 pues el integrando es la densidad de X 2 .
d ) Como Y 2n , Y se escribe como la suma de los Xi2 , donde Xi N (0, 1) y son independientes. Por lo
hecho anteriormente, se tiene que MXi2 (t) = (1 2t)1/2 . Ademas, sabemos que la f.g.m. de la suma
de variables independientes es el producto de las f.g.m., por lo cual
MY (t) = MX12 (t) MXn2 (t) = (1 2t)1/2 (1 2t)1/2 = (1 2t)n/2 .
e) Utilicemos la f.g.m. para calcular E(Y ) y var(Y ):
dMY (t) n
= (1 2t)n/21 (2) = n(1 2t)n/21 .
dt 2
Y derivando nuevamente:
d2 MY (t) n
= n( 1)(1 2t)n/22 (2) = n(n + 2)(1 2t)n/22 .
dt2 2
Por lo tanto:

dMY (t)
E(Y ) = =n
dt t=0
d2 MY (t)

2
E(Y ) = = n(n + 2)
dt2 t=0
var(Y ) = E(Y 2 ) E(Y )2 = n(n + 2) n2 = 2n.
Observacion: tambien es posible obtener el resultado calculando la esperanza y varianza de X 2 ,
con X N (0, 1), y luego aplicar linealidad de la esperanza y de la varianza en caso de variables
independientes.

3
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Vctor Carmi
MA3403-5 Probabilidades y Estadstica, Otono 2011 Alfredo Torrico

Control 2
23 de mayo de 2011
Tiempo: 3 horas

P1. Sea X variable aleatoria de Weibull con parametros > 0 y k > 0, es decir, su densidad esta dada
por
k  x k1 (x/)k
fX (x) = e 1[0,) (x).

a) (1,5 ptos.) Muestre que FX (x) = [1 e(x/) ]1[0,) (x).
k

b) (1,5 ptos.) Muestre


R y que la f.g.m. de la variable ln(X) es la funcion t (1 + t/k). Recuerde
que () = 0 e y 1 dy.
c) (1,5 ptos.) Obtenga todos los momentos de X. Calcule su esperanza y varianza. Obten-
ga una expresion usando una serie de potencias para la f.g.m. de X. Indicacion: examine
que repsesenta Mln(X) (t).
d ) (1,5 ptos.) Calcule la densidad de la variable (X/)k . Que variable conocida es?

P2. a) (3,0 ptos.) Una persona dispara con arco y flecha a un blanco. Si la flecha llega a menos de
5cm del centro, se asignan 10 puntos; si esta a mas de 5cm y a menos de 15cm, se le asignan
5 puntos; y si esta a mas de 15cm y menos de 25cm, se le asignan 3 puntos. En otro caso,
no se asignan puntos. Calcule la cantidad esperada de puntos, si se sabe que la distancia de
la flecha al centro del blanco se distribuye uniformemente entre 0cm y 50cm.
b) (3,0 ptos.) Sean X N (, 2 ), Y N (, 2 ) variables aleatorias independientes. Muestre
que Z = X + Y N ( + , 2 + 2 ). Indicacion: calculeR la densidad de Z mediante
2
una propiedad conocida (sabiendo que una integral del tipo eA(yB) dy, con A y B
constantes, no depende del valor de B), o bien utilice la f.g.m. y sus propiedades (recordando
1 2
que si W es normal entonces su f.g.m. es etE(W )+ 2 t var(W ) ).

P3. a) En un banco llegan clientes a tasa de 3 por minuto. El valor esperado del tiempo que un
cliente tarda en una caja es de 2 minutos. Hay 4 cajas, que atienden de manera independiente.
1) (1,0 pto.) Cual es la probabilidad de que en los proximos 2 minutos lleguen exactamente
4 clientes?
2) (1,0 pto.) Cual es la tasa de atencion conjunta de las cajas?
3) (1,0 pto.) Suponga que surge una falla en el sistema computacional del banco, por lo
cual las cajas dejan de atender clientes. El tiempo que tarda el sistema en volver a
funcionar es una variable exponencial de parametro = 0,2. Cual es el valor esperado
de la cantidad de clientes que llegan al banco durante la falla del sistema?
b) Sean X e Y variables aleatorias con densidad conjunta dada por
(
1
2 2, x 1, y 1
fX,Y (x, y) = x y
0, en otro caso

Se definen las variables aleatorias U = XY , V = X/Y .


1) (1,5 ptos.) Muestre que la densidad conjunta de U y V es fU,V (u, v) = 1/(2u2 v) para
0 < 1/u v u, y 0 en otro caso.
2) (1,5 ptos.) Encuentre las densidades marginales de U y V .
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Vctor Carmi
MA3403-5 Probabilidades y Estadstica, Otono 2011 Alfredo Torrico

Pauta Control 2
P1. a) Calculemos:
Z x
k  z k1 (z/)k k x
k
FX (x) = P(X x) = e dz = e(z/) = 1 e(x/) ,
0 0

k
donde hemos usado que la derivada de e(z/) es exactamente el integrando. Lo anterior
vale para x 0, mientras que para x < 0 se tiene que FX (x) = 0, lo cual hace aparecer la
indicatriz buscada.
b) Utilizando la propiedad para calcular la esperanza de una funcion de una variable aleatoria,
tenemos que:
Z
k  x k1 (x/)k
Mln(X) (t) = E(et ln(X) ) = E(X t ) = xt e dx.
0

Hacemos el cambio de variable y = (x/)k , con lo cual dy = (k/) (x/)k1 dx, obteniendo
Z Z
1/k t y
Mln(X) (t) = (y ) e dy = t
y (1+t/k)1 ey dy = t (1 + t/k).
0 0

c) Por lo hecho en el punto previo, sabemos que Mln(X) (t) = E(X t ). Por lo tanto para n N,
tenemos que el momento n-esimo de X corresponde a E(X n ) = Mln(X) (n) = n (1 + n/k).
La esperanza de X es entonces E(X) = (1 + 1/k), y la varianza es

var(X) = E(X 2 ) E(X)2 = 2 (1 + 2/k) 2 (1 + 1/k)2 = 2 [(1 + 2/k) (1 + 1/k)2 ].

Encontremos una expresion para MX (t): expandiendo en serie de Taylor en torno a 0, y


utilizando la propiedad fundamental de la funcion generadora de momentos, se obtiene:
n n n n n
X t d MX X t X t
MX (t) = (0) = E(X n ) = (1 + n/k).
n! dtn n! n!
n=0 n=0 n=0

d ) Sea Y = (X/)k . Calculemos su distribucion acumulada:


1/k ]/)k
FY (y) = P((X/)k y) = P(X y 1/k ) = FX (y 1/k ) = 1 e([y = 1 ey ,

lo cual vale para y 0. Derivando, obtenemos entonces fY (y) = ey 1[0,) (y), es decir,
(X/)k es una variable exponencial de parametro 1.

P2. a) Sea X la variable aleatoria que denota los puntos obtenidos, e Y la distancia de la flecha al
centro del blanco. X es discreta, con RX = {0, 3, 5, 10}, luego
X
E(X) = kpX (k) = 0 pX (0) + 3 pX (3) + 5 pX (5) + 10 pX (10).
kRX

La cantidad pX (10) corresponde a la probabilidad de que el puntaje sea 10, lo que equivale
a la probabilidad de que la flecha este a menos de 5cm del centro. Es decir, pX (10) = P(Y

1
[0, 5]) = 5/50, donde hemos usado que Y unif(0, 50). Aplicando lo mismo para los otros
posibles puntajes, se obtiene:

E(X) = 0 P(Y [25, 50]) + 3 P(Y [15, 25]) + 5 P(Y [5, 15]) + 10 P(Y [0, 5])
10 10 5 30 + 50 + 50 13
=0+3 +5 + 10 = = .
50 50 50 50 5
b) Hay dos formas de resolver este problema. La primera consiste en calcular explcitamente la
densidad de Z, utilizando el hecho que la densidad de la suma de variables independientes
es la convolucion de las densidades. Se tiene entonces que:
Z
fZ (z) = fX (x)fY (z x)dx

Z
(x )2 (z x )2
   
= cte exp exp dx
2 2 2 2
Z
y2 (z y )2
 
= cte exp 2 dx,
2 2 2

donde la ultima igualdad se obtiene haciendo el cambio de variable y = x (cte significa


que no depende de z ni de la variable de integracion). Trabajemos con el exponente que
aparece en el integrando, apartando la dependencia en z:
1
Exponente = ( 2 y 2 + 2 (z ( + ) y)2 )
2 2 2
1
= 2 2 (( 2 + 2 )y 2 2y 2 (z ( + )) + 2 (z ( + ))2 )
2
2 + 2 2 2y 2 (z ( + )) (z ( + ))2
 
= y
2 2 2 2 + 2 2 2
" 2
#
2 + 2 2 (z ( + )) 4 (z ( + ))2 (z ( + ))2

= y
2 2 2 2 + 2 ( 2 + 2 )2 2 2
2
2 + 2 2 (z ( + )) 2 (z ( + ))2 (z ( + ))2

= y +
2 2 2 2 + 2 2 2 ( 2 + 2 ) 2 2
2
2 + 2 2 (z ( + )) (z ( + ))2
 
= y .
2 2 2 2 + 2 2( 2 + 2 )
Luego:
Z
(z ( + ))2

fZ (z) = cte exp exp(A(y B)2 )dy,
2( 2 + 2 )

donde A y B no dependen de la variable de integracion. Haciendo un simple cambio de


variable w = y B, vemos que la integral no depende de B, lo que implica que no depende
de z. Por lo tanto,

(z ( + ))2
 
0
fZ (z) = cte exp .
2( 2 + 2 )

Lo anterior es la densidad de una N ( + , 2 + 2 ), salvo por la constante. Pero como


sabemos que esa expresion debe ser una funcion densidad, la unica opcion es que la constante
0
p
sea tal que lo anterior integre 1, luego necesariamente cte = 1/ 2( 2 + 2 ). Es decir,
Z N ( + , 2 + 2 ).

2
La segunda forma consiste en utilizar la funcion generadora de momentos y sus propiedades.
Como X e Y son independientes, tenemos:
1 2 t2 1 2 2 1 2 + 2 )t2
MZ (t) = MX+Y (t) = MX (t) MY (t) = et+ 2 et+ 2 t
= e(+)t+ 2 ( .

Es decir, MZ coincide con la f.g.m. de una N ( + , 2 + 2 ). Pero como la f.g.m. caracteriza


la distribucion de la variable, necesariamente Z N ( + , 2 + 2 ).

P3. a) 1) Sabemos que la cantidad de clientes que llegan en 2 minutos es una variable de Poisson
de parametro = 3 2 = 6. Luego, la probabilidad buscada es:

64
P(Poiss(6) = 4) = e6 = 54e6 .
4!
2) Sabemos que el tiempo promedio que tarda un cliente en ser atendido, lo cual corre-
sponde a una variable exp() para cierto , es de 2 minutos. Como el valor esperado de
esta variable es 1/, se tiene que = 0,5, es decir, cada caja atiende a tasa de 0,5 clientes
por minuto. Por lo visto en clases, la suma de procesos de Poisson independientes es
un nuevo proceso de Poisson, cuya tasa es la suma de las tasas. En nuestro caso, son 4
cajas, por lo cual la tasa de atencion conjunta es 4 = 2 clientes por minuto.
3) Sea X la cantidad de clientes que llegan durante la falla del sistema, y sea S el tiempo
que dura la falla. Condicionando en el resultado de S, tenemos:
Z Z
E(X) = E(X|S = s)fS (s)ds = E(X|S = s) 0,2 e0,2s ds.
0

Al condicionar en el evento {S = s}, la duracion de la falla esta fija. Luego, dado que la
llegada de clientes es un proceso de Poisson con tasa 3, en el evento {S = s} se tiene que
X Poiss(3s). Por lo tanto, E(X|S = s) = E(Poiss(3s)) = 3s. Obtenemos entonces:
Z Z
0,2s 3 3
E(X) = 3s 0,2 e ds = 0,2 (0,2 s) e0,2s ds = = 15,
0 0,2 0 0,2
donde hemos usado que la integral vale 1 pues el integrando es la densidad de una
variable gamma de parametros = 0,2 y = 2.
b) 1) Se tiene que (U, V ) = g(X, Y ), donde g es la funcion g(x, y) = (xy, x/y). Notemos que
p p p
( U V , U/V ) = ( XY (X/Y ), XY /(X/Y )) = (X, Y ),

es decir, g 1 (u, v) = ( uv, u/v). Luego, el jacobiano de g 1 viene dado por:
p

" # "
v u v u
d uv d uv
#
2 uv 2 uv
Jg 1
(u, v) = du dv = 1/v u/v 2 = 2 u 2 v
.
d u/v d u/v 1 u
,
du dv 2 u/v 2 u/v 2 uv 2v v

Por lo tanto:

1
1 1 1
| det Jg (u, v)| =
= .
4v 4v 2v
Por el metodo del jacobiano, tenemos entonces que:
1 1 1
fU,V (u, v) = fX,Y (g 1 (u, v)) | det Jg 1 (u, v)| = 2p 2 = 2 ,
uv u/v 2v 2u v

3
p
lo cual vale cuando uv 1 y u/v 1, es decir, cuando v 1/u y u v (con
u, v > 0). Obtenemos entonces:
(
1
2 , 0 < 1/u v u
fU,V (u, v) = 2u v
0, en otro caso.

2) Calculemos la marginal de U . Se tiene que el intervalo [1/u, u] es no vaco si y solo si


u 1. Luego, para u < 1 se tiene que fU (u) vale 0, mientras que para u 1 obtenemos:
Z Z u
dv 1 ln(u)
fU (u) = fU,V (u, v)dv = 2
= 2 [ln(u) ln(1/u)] = .
1/u 2u v 2u u2

Veamos V : la condicion 1/u v u equivale a u 1/v y u v, es decir, u


max(v, 1/v). Para v > 0, tenemos entonces
Z Z
du 1 1
fV (v) = fU,V (u, v)du = 2v
= .
max(v,1/v) 2u 2v max(v, 1/v)

En resumen:

1
(
ln(u) 2v2 ,
v1
u2
, u1
fU (u) = fV (v) = 12 , 0<v<1
0, en otro caso,
0, en otro caso.

4
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Angel Pardo
MA3403-3 Probabilidades y Estadstica, Primavera 2011 Alfredo Torrico

Control 2
12 de diciembre de 2011
Tiempo: 3 horas

P1. a) (3,0 ptos.) Un estudiante debe llegar a su clase de las 8:30, para lo cual espera un autobus
en el paradero. El autobus que pasa a las 7:30 tarda 40 minutos en llegar a la facultad, pero
el autobus de las 7:40 tarda 50 minutos. Si el estudiante no alcanza el autobus de las 7:40,
debe tomar el colectivo de las 7:45, que en 35 minutos lo deja en la facultad. Si la hora
de llegada del estudiante al paradero se distribuye uniformemente entre las 7:25 y las 7:45,
cual es el valor esperado de la hora de llegada a su clase?
b) (3,0 ptos.) Se dispone de una urna con N bolitas numeradas de 1 a N . Se extraen bolitas
con resposicion de manera independiente hasta que haya salido cada bolita al menos una
vez. Sea X la variable que denota la cantidad total de extracciones realizadas, y sea Xk la
cantidad de extracciones desde la vez k 1 que aparece una bolita que no haba salido antes
(excluyendo esa extraccion) hasta la siguiente vez que aparece una bolita que no ha salido
antes (incluyendo esa extraccion), para k = 1, . . . , N . Deduzca la distribucion de cada Xk ,
y obtenga una expresion para E(X).
P2. Sea X variable aleatoria con distribucion chi-cuadrado con n grados de libertad, anotado X 2n ,
es decir, su densidad esta dada por
1
fX (x) = xn/21 ex/2 1(0,) (x),
2n/2 (n/2)
R
donde () = 0 ez z 1 dz es la funcion Gamma.

a) (1,5 ptos.) Muestre que la f.g.m. de X es MX (t) = (1 2t)n/2 para t < 1/2.
b) (1,5 ptos.) Calcule E(X) y var(X).
c) (1,5 ptos.) Si Y es una variable normal estandar, muestre que Y 2 21 . Utilice el hecho que

(1/2) = .
d ) (1,5 ptos.) Concluya que si X1 , . . . , Xn son normales estandar independientes, entonces X12 +
+ Xn2 tiene distribucion 2n . Indicacion: utilice las propiedades de la f.g.m.
P3. a) Sean X e Y independientes con distribucion normal estandar. Definimos U = X y V = X/Y .
1) (1,5 ptos.) Muestre que la funcion de densidad conjunta de U y V es
2 2 )/2
|u|eu (1+1/v
fU,V (u, v) = .
2v 2
2) (1,5 ptos.) Muestre que V tiene distribucion de Cauchy, es decir, su densidad es fV (v) =
1/[(1 + v 2 )].
b) La cantidad de llamadas telefonicas recibidas en una empresa durante t horas es una variable
Poisson(t). Se produce una falla en el sistema telefonico, durante la cual las llamadas
recibidas no pueden ser atendidas. La duracion de la falla es una variable exponencial de
parametro . Sea X la cantidad de llamadas no atendidas durante la falla.
1) (2,0 ptos.) Utilizando esperanzas condicionales, calcule E(X).
2) (1,0 ptos.) Para k = 0, 1, . . ., calcule P(X = k). Concluya que X + 1 es una variable
geometrica de parametro p = /( + ). Obtenga nuevamente E(X). Indicacion: utilice
la regla de probabilidades totales; para calcular la integral, construya la densidad de
una variable Gamma adecuada.
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Angel Pardo
MA3403-3 Probabilidades y Estadstica, Primavera 2011 Alfredo Torrico

Pauta Control 2
P1. a) Sea X la hora de llegada a la clase, medida en minutos pasadas las 8:00, y sea Y la hora
de llegada al paradero. Claramente X es una variable discreta que toma el valor 10 cuando
alcanza el autobus de las 7:30, o bien 30 cuando alcanza el autobus de las 7:40, o bien 20
cuando toma el colectivo. Luego:
X
E(X) = kP(X = k) = 10 P(X = 10) + 30 P(X = 30) + 20 P(X = 20).
kRX

Sabemos que X = 10 cuando alcanza el autobus de las 7:30, es decir, cuando la hora de
llegada al paradero es menor que 7:30, o sea, cuando Y < 7:30. Analogamente, X = 30
cuando 7:30 Y < 7:40, y tambien X = 20 cuando 7:40 Y . Teniendo en cuenta que Y es
uniforme en el intervalo entre las 7:25 y las 7:45, se obtiene:

E(X) = 10 P(Y < 7:30) + 30 P(7:30 Y < 7:40) + 20 P(7:40 Y )


5 10 5 1
= 10 + 30 + 20 = (50 + 300 + 100) = 450/20 = 22,5,
20 20 20 20
es decir, la hora esperada de llegada es a las 8:22 con 30 segundos.
b) Cuando han salido exactamente k 1 bolitas distintas (es decir, cuando estamos en las
extracciones correspondientes a Xk ), la probabilidad de que en una extraccion aparezca una
bolita que no ha salido antes corresponde a la proporcion de bolitas no vistas, es decir,
(N (k 1))/N . Por lo tanto, se tiene que Xk es una variable geometrica de parametro
pk = (N k + 1)/N .
Como Xk geom(pk ), se tiene que E(Xk ) = 1/pk = N/(N k + 1). Ademas, claramente se
tiene que X = X1 + + XN , pues deben acumularse las extracciones necesarias para que
cada bolita salga al menos una vez. Por linealidad de la esperanza, tenemos entonces que
N N N
X X N X1
E(X) = E(Xk ) = =N .
N k+1 k
k=1 k=1 k=1

P2. a) Dado t < 1/2, calculemos:


Z Z
1
MX (t) = E(e tX
)= tx
e fX (x)dx = n/2 etx xn/21 ex/2 dx
2 (n/2) 0
Z
1
= n/2 ex(12t)/2 xn/21 dx.
2 (n/2) 0
Hacemos el cambio de variable y = x(1 2t)/2, obteniendo:
Z
1
MX (t) = n/2 ey [2y(1 2t)1 ]n/21 2(1 2t)1 dy
2 (n/2) 0
2n/2 (1 2t)n/2 y n/21 (1 2t)n/2
Z
= e y dy = (n/2) = (1 2t)n/2 .
2n/2 (n/2) 0 (n/2)

b) Derivemos la f.g.m.:
dMX d n
(t) = (1 2t)n/2 = (1 2t)n/21 (2) = n(1 2t)n/21 ,
dt dt 2
d2 MX d  n 
(t) = n(1 2t)n/21 = n 1 (1 2t)n/22 (2) = n(n + 2)(1 2t)n/22 .
dt2 dt 2
Por lo tanto, usando la propiedad fundamental de la f.g.m., obtenemos:
dMX
E(X) = (0) = n(1 0)n/21 = n,
dt
d2 MX
var(X) = E(X 2 ) E(X)2 = (0) n2 = n(n + 2)(1 0)n/22 n2 = 2n.
dt2

c) Calculemos la densidad de Y 2 , para lo cual partimos por su distribucion acumulada. Para


y > 0, tenemos:

y y

Z Z
1 2 2 2 /2
2
FY 2 (y) = P(Y y) = P( y Y y) =
ez /2 dz = ez dz,
y 2 2 0

donde hemos usado la simetra del integrando. Derivando lo anterior con respecto a y,
utilizando el TFC y la regla de la cadena, obtenemos la densidad de Y 2 :
2 2
1 1
fY 2 (y) = ez /2 = ey/2 y 1/2 .

2 z= y 2 y 2

Lo anterior vale para y > 0, mientras que para y 0 la distribucion acumulada vale 0 (pues

Y 2 0), y por lo tanto la densidad tambien es 0. Usando que (1/2) = , obtenemos
entonces:
1
fY 2 (y) = ey/2 y 1/21 1(0,) (y),
21/2 (1/2)

es decir, Y 2 21 .
d ) Por el tem anterior, cada Xk2 posee distribucion 21 , luego MX 2 (t) = (1 2t)1/2 . Como la
k
f.g.m. de la suma de variables independientes corresponde al producto de las f.g.m., se tiene
entonces que la f.g.m. de W = X12 + + Xn2 es
n
Y n
Y
MW (t) = MX 2 (t) = (1 2t)1/2 = (1 2t)n/2 .
k
k=1 k=1

Y recordando que la f.g.m. caracteriza la distribucion de la variable, se concluye que nece-


sariamente W se distribuye como una 2n , como deseabamos.

P3. a) 1) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del cambio de
variables nos dice que

fU,V (u, v) = fX,Y (g 1 (u, v))|det(Dg 1 (u, v)|.

En nuestro caso es directo ver que g es su propia inversa, por lo cual g 1 (u, v) = (u, u/v)
y  
1 1 0
Dg (u, v) =
1/v u/v 2
y luego |det(Dg 1 (u, v)| = |u|/v 2 . Como X e Y son normales estandar independi-
entes, su densidad conjunta es el producto de las densidades marginales, es decir,
2 2
(1/2)e(x +y )/2 . Reemplazando todo esto en la formula que entrega el teorema, obten-
emos: 2 2 2 2
|u| e(u +(u/v) )/2 |u|eu (1+1/v )/2
fU,V (u, v) = 2 = .
v 2 2v 2
2) Calculemos la densidad marginal de V :
2 2 )/2
|u|eu (1+1/v
Z Z Z
1 2 (1+1/v 2 )/2
fV (v) = fU,V (u, v)du = du = 2 ueu du,
2v 2 2v 2 0
2
donde p
la ultima igualdad se debe a la simetra en u. Hacemos el cambio de variable
w = u 1 + 1/v 2 y de lo anterior se obtiene
2
wew /2
Z Z
1 dw 1 2 /2 1
fV (v) = = wew dw = ,
v 2 (1 + v 2 ) (1 + v 2 )
p p
0 1 + 1/v 2 1 + 1/v 2 0

2 /2
donde la integral vale 1, pues corresponde a ew evaluado en 0 e . Luego, V es
una variable con distribucion de Cauchy.
b) 1) Sea T la duracion de la falla. Condicionando en los resultados de T , tenemos:
Z Z
E(X) = E(X|T = t)fT (t)dt = E(X|T = t)et dt,
0

donde hemos usado que T exp(). En el evento T = t, sabemos que X es una variable
de Poisson de parametro t, por lo cual su esperanza es exactamente t. Integrando por
partes, tenemos entonces:
Z  Z 
t t t
E(X) = te dt = te + e dt = (0 + 1/) = /.
0 0 0

2) Por la regla de probabilidades totales (version continua), condicionando en los resultados


de T tenemos:
Z Z
P(X = k) = P(X = k|T = t)fT (t)dt = P(X = k|T = t)et dt.
0

Utilizando nuevamente que X Poisson(t) cuando se condiciona en T = t, sigue que:



(t)k t
Z
P(X = k) = ete dt
0 k!
Z
k ( + )e(+)t [( + )t](k+1)1
= dt,
( + )k+1 0 (k + 1)

donde hemos utilizado que (k + 1) = k!. La integral anterior vale 1 pues el integrando
corresponde a la densidad de una variable Gamma(k + 1, + ), por lo tanto:
 k    k  

P(X = k) = = 1 .
+ + + +

Luego, P(X + 1 = k) = P(X = k 1) = (1 p)k1 p, donde p = /( + ); es decir,


X + 1 geom(p). En particular,

1 +
E(X) = E(X + 1) 1 = 1= 1 = /.
p

3
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Francisco Castro
MA3403-3 Probabilidades y Estadstica, Otono 2012 Alfredo Torrico

Control 2
7 de mayo de 2012
Tiempo: 3 horas

P1. (a) (3,0 ptos.) El arancel mensual de una determinada carrera universitaria asciende a $60. Si
el ingreso per capita mensual de la familia de un estudiante es inferior a $50, se le asigna
100 % de beca; si el ingreso per capita esta entre $50 y $80, se le asigna 50 % de beca; y
si esta entre $80 y $100, se asigna un 25 %. En otro caso, no se asigna beca. Calcule el
valor esperado de la beca mensual asignada a un estudiante escogido al azar, suponiendo
que el ingreso per capita mensual de la familia se distribuye uniformemente en el intervalo
[$25, $175].
(b) (3,0 ptos.) Se tienen dos mazos identicos con n cartas cada uno. La persona A extrae kA
cartas al azar del primer mazo, y la persona B extrae, independiente de A, kB cartas al
azar del segundo mazo (sin reposicion en ambos casos). Muestre que el numero esperado
de cartas que aparecen simultaneamente entre las escogidas por A y por B es (kA kB )/n.
Indicacion: defina variables indicatrices adecuadas y use linealidad de la esperanza.
P2. (a) (3,0 ptos.) Sean X unif(0, 1), Y exp(1) variables independientes. Sean U = X + Y ,
V =X Y . Muestre que
( u/(v+1)
ue
(v+1)2
si 0 < u 1 + 1/v y 0 < v
fU,V (u, v) =
0 en otro caso.

(b) (3,0 ptos.) Se lanza n veces de manera independiente una moneda con probabilidad p de
cara, donde p es el resultado de la realizacion de otra variable aleatoria U con distribucion
unif(0, 1), independiente de los lanzamientos. Sea X la cantidad de caras que se obtienen.
1
Demuestre que para todo i = 0, . . . , n se tiene que pX (i) = n+1 . Indicacion: utilizando una
propiedad conocida, calcule P(X = i) condicionando en los posibles resultados de U ; utilice
sin demostrar el hecho que
Z 1
i!(n i)!
pi (1 p)ni dp = .
0 (n + 1)!

P3. Se dice que la variable aleatoria X tiene distribucion log-normal con parametros y 2 si
Y = ln(X) tiene distribucion N (, 2 ).
(a) (1,2 ptos.) Pruebe que la densidad de X es
1 (ln(x))2
fX (x) = e 22 1(0,) (x).
x 2
2 2
(b) (1,2 ptos.) Pruebe que para todo s R, E(X s ) = es+ s /2 . Obtenga la esperanza y
varianza de X. Indicacion: utilice la funcion generadora de momentos de una variable
N (, 2 ).
(c) (1,2 ptos.) Pruebe que la f.g.m. MX (t) no esta definida para t > 0.
(d) (1,2 ptos.) Sea U N (, 2 ), y sean R, 6= 0. Pruebe que V = +U tiene distribucion
N ( + , 2 2 ). Utilice esto para obtener la distribucion de aX b , donde a > 0 y b 6= 0.
(e) (1,2 ptos.) Sean X1 , X2 variables aleatorias independientes con distribucion log-normal de
parametros 1 , 12 y 2 , 22 , respectivamente. Cual es la distribucion de Z = X1 X2 ?
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Francisco Castro
MA3403-3 Probabilidades y Estadstica, Otono 2012 Alfredo Torrico

Pauta Control 2
P1. (a) Sea X la variable aleatoria del monto de beca asignado. Esta solo toma los
valores 60, 30, 15 y 0, correspondientes al 100 %, 50 %, 25 % y 0 % de $60,
respectivamente. Luego, X es una variable discreta, por lo cual su esperanza se
calcula como
X
E(X) = kP(X = k)
kRX
= 60P(X = 60) + 30P(X = 30) + 15P(X = 15) + 0P(X = 0)
= 60P(25 Y < 50) + 30P(50 Y < 80) + 15P(80 Y < 100)

donde Y es la variable aleatoria de ingreso per capita de la familia, la cual


sabemos que se distribuye uniformemente en el intervalo [25, 175]. Por lo tanto:
50 25 80 50 100 80 1
E(X) = 60 + 30 + 15 = (1500 + 900 + 300) = 18.
150 150 150 150
Luego, el valor esperado de la beca asignada es de $18.
(b) Podemos suponer que las cartas de cada mazo estan numeradas de 1 a n. Para
cada i = 1, . . . , n, sea Ei el evento en que la carta i es escogida por A y B. Si
X denota la cantidad de cartas que fueron escogidas por ambas personas, es
directo que
X = 1E1 + + 1En ,
y entonces, por linealidad de la esperanza, se tiene que

E(X) = E(1E1 ) + + E(1En ) = P(E1 ) + + P(En ),

donde E(1Ei ) = P(Ei ) porque 1Ei es una variable de Bernoulli. Ademas, Ei


ocurre cuando la persona A extrae la carta i (lo cual tiene probabilidad kA /n)
y la persona B tambien (probabilidad kB /n), es decir, P(Ei ) = kA kB /n2 para
todo i. Obtenemos entonces:
kA kB kA kB kA kB
E(X) = 2
+ + 2
= .
n n n

P2. (a) Podemos escribir (U, V ) = g(X, Y ), con g(x, y) = (x + y, x/y). Por el metodo
del jacobiano, la densidad conjunta de U y V viene dada por la formula

fU,V (u, v) = fX,Y (g 1 (u, v))| det Jg 1 (u, v)|.

Notemos que U y V son variables mayores que 0, pues X e Y lo son. Resolviendo


el sistema (u, v) = (x + y, x/y) para x e y, se llega a
uv u
(x, y) = ( , ) = g 1 (u, v).
v+1 v+1

1
Calculemos el jacobiano de esta funcion:
" #
 uv uv  v u
1 v+1 (v+1)2
Jg (u, v) = u u
v+1 v v+1
u = 1 u ,
u v+1 v v+1 v+1 (v+1)2

y entonces

1
uv u u
| det Jg (u, v)| =

3
3
= .
(v + 1) (v + 1) (v + 1)2
Ademas, como X e Y son independientes, la densidad conjunta es el producto
de sus densidades marginales:
fX,Y (x, y) = fX (x)fY (y) = 1[0,1] (x)ey 1[0,) (y).
Utilizando todo lo anterior, tenemos que:
u
ue v+1 uv u
fU,V = 2
1[0,1] ( )1[0,) ( ).
(v + 1) v+1 v+1
La segunda indicatriz vale 1 para cualquier par de valores (u, v) mayores que 0.
uv
Para que la primera indicatriz valga 1 debe cumplirse que 0 v+1 1, lo cual
ocurre (para u, v > 0) si y solo si u 1 + 1/v. Por lo tanto:
( u/(v+1)
ue
(v+1)2
si 0 < u 1 + 1/v y 0 < v
fU,V (u, v) =
0 en otro caso.

(b) Siguiendo la indicacion, condicionemos en los posibles resultados de U utilizando


la regla de probabilidades totales en su version continua:
Z Z 1
pX (i) = P(X = i) = P(X = i | U = p)fU (p)dp = P(X = i | U = p)dp,
0

donde hemos utilizado el hecho que fU (p) = 1[0,1] (p). Notemos que cuando
U = p, la variable X tiene distribucion bin(n, p), con lo cual se tiene P(X = i |
U = p) = ni pi (1 p)ni . Obtenemos:


 Z 1
n n! i!(n i)! 1
pX (i) = pi (1 p)ni dp = = ,
i 0 i!(n i)! (n + 1)! n+1
como deseabamos.
P3. (a) Para calcular fX (x), partimos por FX (x) y despues derivamos:
Z ln(x)
1 (y)2
FX (x) = P(X x) = P(Y ln(x)) = e 22 dy,
2
donde hemos utilizado que Y = ln(X) tiene distribucion N (, 2 ). Derivando lo
anterior con respecto a x y aplicando el TFC y la regla de la cadena, obtenemos:
1 (ln(x))2 1
fX (x) = e 22 .
2 x
Lo anterior vale para x > 0, mientras que para x 0 se tiene que P(X x) = 0,
pues X = eY es una variable positiva; luego fX (x) = 0 para x 0. Juntando
todo esto, tenemos:
1 (ln(x))2
fX (x) = e 22 1(0,) (x).
x 2

2
(b) Recordemos que como Y = ln(X) tiene distribucion N (, 2 ), su f.g.m. es
2 2
MY (t) = et+ t /2 . Utilizando esto, se tiene que:
s 2 s2 /2
E(X s ) = E(eln(X ) ) = E(esY ) = MY (s) = es+ .

Con esto, evaluando en s = 1 obtenemos directamente la esperanza de X:


2 /2
E(X) = E(X 1 ) = e+ .

Para obtener la varianza de X, utilizamos s = 2 y el valor de la esperanza:


2 2 /2 2 /2 2 2
var(X) = E(X 2 ) E(X)2 = e2+2 (e+ )2 = (e 1)e2+ .

(c) Calculemos MX (t) para t > 0:


Z (ln(x))2
Z
1
tX
MX (t) = E(e ) = tx
e fX (x)dx = etx e 22 dx.
0 x 2
Hacemos el cambio de variable y = ln(x), de modo que dy = dx/x. Obtenemos:
Z
1 y (y)2
MX (x) = ete e 22 dy.
2

Notemos que el exponente del integrando es tey (y )2 /2 2 , el cual diverge


a cuando y (si t > 0). Por lo tanto, la integral no converge en , lo
que hace que MX (t) no este definido para t > 0.
(d) Calculemos la acumulada de V = + U y posteriormente derivemos. Supong-
amos primero que > 0:
v
v (u)2
Z
1
FV (v) = P( + U v) = P(U )= e 22 du.
2
Derivando con respecto a v y aplicando el TFC y la regla de la cadena, obten-
emos:
( v )2 (v[+])2
1 2 1 1
fV (v) = e 2 = e 2 2 2 ,
2 2
lo cual corresponde justamente a la densidad de una variable N ( + , 2 2 ).
El caso < 0 es similar:
Z
v 1 (u)2
FV (v) = P( + U v) = P(U )= e 22 du,
v 2

y al derivar se obtiene:
( v )2 2
1 1 1
(v[+])
fV (v) = e 2 2 = e 2 2 2 ,
2 2()

lo cual nuevamente coincide con la densidad de una N (+, 2 2 ). Utilicemos


este hecho para obtener la distribucion de Z = aX b : notemos que W = ln(Z) =
ln(a) + b ln(X) = ln(a) + bY . Aplicando lo anterior con = ln(a) y = b, se
concluye que W = ln(Z) tiene distribucion N (ln(a) + b, b2 2 ). Por definicion,
esto significa que Z tiene distribucion log-normal con parametros ln(a) + b y
b2 2 .

3
(e) Si anotamos Y1 = ln(X1 ), Y2 = ln(X2 ), por definicion de distribucion log-
normal sabemos que Y1 N (1 , 12 ) y que Y2 N (2 , 22 ); ademas Y1 e Y2
son independientes pues X1 y X2 lo son. Ademas, notemos que W = ln(Z) =
ln(X1 X2 ) = ln(X1 ) + ln(X2 ) = Y1 + Y2 , es decir, W es suma de dos normales
independientes. Por teorema visto en clases, se tiene entonces que W = ln(Z)
N (1 + 2 , 12 + 22 ). Es decir, Z tiene distribucion log-normal de parametros
1 + 2 y 12 + 22 .

4
Ingeniera Matematica
FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-3 Probabilidades y Estadstica, Primavera 2012 Alfredo Torrico

Control 2
8 de octubre de 2012
Tiempo: 3 horas

P1. (a) (3,0 ptos.) Una persona dispara con arco y flecha a un blanco. Si la flecha llega a menos de
5cm del centro, se asignan 10 puntos; si esta a mas de 5cm y a menos de 15cm, se le asignan
5 puntos; y si esta a mas de 15cm y menos de 25cm, se le asignan 3 puntos. En otro caso,
no se asignan puntos. Calcule la cantidad esperada de puntos que obtiene la persona, si se
sabe que la distancia de la flecha al centro del blanco se distribuye uniformemente entre
0cm y 50cm.
(b) Sean X e Y variables independientes con distribucion normal estandar. Sean U = X y
V = X/Y .
1) (1,5 ptos.) Muestre que
2 2
|u|eu (1+1/v )/2
fU,V (u, v) = .
2v 2
2) (1,5 ptos.) Muestre que V = X/Y tiene distribucion de Cauchy, es decir, su densidad
es
1
fV (v) = .
(1 + v 2 )
P2. Decimos que X es una variable aleatoria Gumbel de parametros R y > 0, anotado
X Gumbel(, ), si se tiene
(x)/
FX (x) = ee , x R.
(a) (1,5 ptos.) Muestre que MX (t) = et (1 t), donde la funcion esta dada por
Z
() = ez z 1 dz, > 0.
0

(b) (1,5 ptos.) Muestre que E(X) = 0 (1) y var(X) = 2 [00 (1) 0 (1)2 ].
(c) (1,5 ptos.) Dados R y > 0, sea Y = X + . Mueste que Y Gumbel( + , ).
(d) (1,5 ptos.) Sea Y = e(X)/ . Calcule fY . Que variable aleatoria conocida es Y ?
P3. Usted trabaja atendiendo un almacen. Los clientes llegan siguiendo un proceso de Poisson con
tasa de 0,5 clientes por minuto.
(a) (2,0 ptos.) Cual es la probabilidad de que en los proximos 4 minutos lleguen a lo mas 2
clientes?
(b) (2,0 ptos.) Sea T el instante en que llega el primer cliente, y S el tiempo que transcurre
desde T hasta que llega el siguiente cliente. Para 0 t s, muestre que P(T t, s <
T + S) = tes . Indicacion: usando una propiedad conocida, condicione en los posibles
resultados de T ; argumente por que T y S son independientes y utilice este hecho.
Suponga que en el instante 0 usted se ausenta del almacen y vuelve despues de s minutos. Al
volver observa que ha llegado exactamente 1 cliente. Queremos probar que, dado que llego un
solo cliente en [0, s], la variable T se distribuye uniformemente en dicho intervalo.
(c) (2,0 ptos.) Argumente que el evento en que llega un solo cliente en [0, s] corresponde al
evento {T s < T + S}. Para 0 t s, calcule P(T t | llega un solo cliente en [0, s]) y
concluya. Indicacion: utilice la parte anterior.
Ingeniera Matematica
FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-3 Probabilidades y Estadstica, Primavera 2012 Alfredo Torrico

Pauta Control 2
P1. (a) Sea X la variable aleatoria que denota los puntos obtenidos, e Y la distancia de la flecha
al centro del blanco. X es discreta, con RX = {0, 3, 5, 10}, luego
X
E(X) = kpX (k) = 0 pX (0) + 3 pX (3) + 5 pX (5) + 10 pX (10).
kRX

La cantidad pX (10) corresponde a la probabilidad de que el puntaje sea 10, lo que equivale
a la probabilidad de que la flecha este a menos de 5cm del centro. Es decir, pX (10) = P(Y
[0, 5]) = 5/50, donde hemos usado que Y unif(0, 50). Aplicando lo mismo para los otros
posibles puntajes, se obtiene:

E(X) = 0 P(Y [25, 50]) + 3 P(Y [15, 25]) + 5 P(Y [5, 15]) + 10 P(Y [0, 5])
10 10 5
=0+3 +5 + 10
50 50 50
30 + 50 + 50
=
50
13
= .
5

(b) 1) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del cambio de
variables (metodo del jacobiano) nos dice que

fU,V (u, v) = fX,Y (g 1 (u, v))|det(Jg 1 (u, v))|.

En nuestro caso es directo ver que g es su propia inversa, por lo cual g 1 (u, v) = (u, u/v)
y entonces  
1 1 0
Jg (u, v) =
1/v u/v 2
y luego |det(Jg 1 (u, v))| = |u|/v 2 . Como X e Y son normales estandar indepen-
dientes, su densidad conjunta es el producto de las densidades marginales, es decir,
2 2
fX,Y (x, y) = (1/2)e(x +y )/2 . Reemplazando todo esto en la formula que entrega el
teorema, obtenemos:
2 2 2 )/2 2 2 )/2
|u|e(u +u /v |u|eu (1+1/v
fU,V (u, v) = = .
2v 2 2v 2
2) Calculemos la densidad marginal de V :
Z
fV (v) = fU,V (u, v)du

2 2
|u|eu (1+1/v )/2
Z
= du
2v 2
Z
1 2 2
= 2
2 ueu (1+1/v )/2 du,
2v 0
donde p
la ultima igualdad se debe a la simetra en u. Hacemos el cambio de variable
w = u 1 + 1/v 2 y de lo anterior se obtiene
2
wew /2
Z
1 dw
fV (v) =
v 2
p p
1 + 1/v 2 1 + 1/v 2
0
Z
1 2
= wew /2 dw
(1 + v 2 ) 0
1
= ,
(1 + v 2 )
2 /2
donde la ultima integral vale 1, pues corresponde a ew evaluado en 0 e . Luego,
V es una variable con distribucion de Cauchy.

P2. (a) La densidad de X se obtiene derivando FX , es decir,


1 (x)/ e(x)/
fX (x) = e e , x R.

Ahora calculemos MX (t) utilizando lo anterior y el cambio de variable y = (x )/:
Z
MX (t) = etx fX (x)dx

1 tx (x)/ e(x)/
Z
= e e e dx

1 t(+y) y ey
Z
= e e e dy

Z
y
= et [ey ]t ey ee dy

Z 0  
t t z 1
=e z ze dz,
z

donde en el ultimo paso hemos utilizado el cambio de variable z = ey . Finalmente, obte-


nemos lo buscado:
Z
MX (t) = et z [1t]1 ez dz = et (1 t).
0

(b) Derivemos MX :
dMX
(t) = et (1 t) et 0 (1 t).
dt
Derivando nuevamente:
d2 MX
(t) = 2 et (1 t) et 0 (1 t) et 0 (1 t) + 2 et 00 (1 t).
dt2
Recordemos que (n) = (n 1)! para n N \ {0}, en particular (1) = 1 (tambien puede
obtenerse evaluando la intergral que define ). Evaluando en t = 0 las derivadas anteriores,
obtenemos los momentos de X de orden 1 y 2:
dMX
E(X) = (0) = (1) 0 (1) = 0 (1),
dt
d2 MX
E(X 2 ) = (0) = 2 (1) 20 (1) + 2 00 (1) = 2 20 (1) + 2 00 (1).
dt2
2
Finalmente, obtenemos la varianza:

var(X) = E(X 2 ) E(X)2


= 2 20 (1) + 2 00 (1) [ 0 (1)]2
= 2 20 (1) + 2 00 (1) [2 20 (1) + 2 0 (1)2 ]
= 2 [00 (1) 0 (1)2 ].

(c) Calculemos FY :

FY (y) = P(X + y)
= P(X (y )/)
= FX ((y )/)
y
( )/
= ee
(y[+])/()
= ee ,

lo cual corresponde a la distribucion acumulada de una variable Gumbel de parametros


+ y , como desabamos probar. Una forma alternativa de obtener lo buscado es
calculando MY :

MY (t) = E(et(X+) ) = et E(e(t)X ) = et MX (t) = et et (1 t),

es decir, MY (t) = e(+)t (1 t), lo cual corresponde a la funcion generadora de


momentos de una variable Gumbel de parametros + y , por la parte P2.(a). Como
la funcion generadora de momentos caracteriza la distribucion de la variable, necesariamente
Y tiene la distribucion deseada.
(d) Calculemos FY . Para y > 0 tenemos:

FY (y) = P(e(X)/ y)
= P(X log y)
= 1 FX ( log y)
([ log y])/
= 1 ee
= 1 ey .

Derivando, obtenemos fY (y) = ey para y > 0. Como la variable Y es positiva, para y 0


se tiene FY (y) = 0. Luego, fY (y) = ey 1[0,) (y). Es decir, Y es una variable exponencial
de parametro = 1.

P3. (a) Llamemos Nt al proceso de Poisson que representa la llegada de los clientes, es decir, Nt
es la cantidad de clientes que han llegado al almacen hasta el tiempo t. La probabilidad
buscada corresponde a P(N4 {0, 1, 2}). Sabemos que Nt Poisson(t), luego N4 es una
variable Poisson de parametro 0,5 4 = 2. Entonces:

P(N4 {0, 1, 2}) = P(N4 = 0) + P(N4 = 1) + P(N4 = 2)


20 21 22
= e2 + e2 + e2
0! 1! 2!
2
= e [1 + 2 + 2]
= 5e2 .

3
(b) Siguiendo la indicacion, tenemos:
Z
P(T t, s < T + S) = P(T t, s < T + S | T = x)fT (x)dx
Z

= P(x t, s < x + S | T = x)ex dx,
0

donde en el ultimo paso hemos utilizado que T exp(). Notemos que S y T son indepen-
dientes, pues corresponden a los tiempos que transcurren entre dos eventos consecutivos en
un proceso de Poisson (los cuales son independientes por definicion). Luego, la probabilidad
dentro de la integral no depende de la condicion T = x. Ademas, dicha probabilidad vale 0
si x > t, y vale P(s x < S) si x t. Usando que S tambien es una variable exponencial
de parametro , obtenemos lo buscado:
Z t
P(T t, s < T + S) = P(s x < S)ex dx
0
Z t
= e(sx) ex dx
0
Z t
= es dx
0
= tes .

(c) Que llegue un solo cliente en [0, s] significa que el primer cliente llego en el tiempo s o antes,
(lo cual corresponde al evento T s), y que el segundo cliente llego despues del tiempo s
(correspondiente al evento s < T + S, pues T + S es el instante en que llega el segundo
cliente). Tenemos entonces:

P(T t | llega un solo cliente en [0, s]) = P(T t | T s < T + S)


P(T t, T s < T + S)
=
P(T s < T + S)
P(T t, s < T + S)
= ,
P(T s < T + S)

donde en el ultimo paso hemos eliminado la desigualdad T s, la cual es redundante con


la desigualdad T t, pues t s. Utilizando la parte anterior, obtenemos:

tes t
P(T t | llega un solo cliente en [0, s]) = s
= .
se s
Como funcion de t (s esta fijo), lo anterior corresponde exactamente a la funcion de distri-
bucion acumulada de una variable uniforme en el intervalo [0, s]. Luego, condicional en que
llegue un solo cliente en [0, s], la variable T tiene distribucion uniforme en [0, s].

4
Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-5 Probabilidades y Estadstica
Otoo 2013
Alfredo Torrico

Control 2
13 de mayo de 2013
Tiempo: 3 horas
P1. (a) (2,0 ptos.) Sean X unif(0, 1), Y exp(1) variables independientes. Sean U = X + Y ,
V =X Y . Muestre que
ueu/(v+1)
si 0 < u 1 + 1/v y 0 < v
(
(v+1)2
fU,V (u, v) =
0 en otro caso.
(b) En un banco llegan clientes siguiendo un proceso de Poisson con tasa = 3 clientes por
minuto. Adems, cada una de las 4 cajas disponibles atiende clientes siguiendo un proceso de
Poisson (independiente a la llegada de los clientes al banco y de las otras cajas), de manera
que el valor esperado del tiempo que un cliente tarda en una caja es de 2 minutos.
1) (1,0 pto.) Cul es la probabilidad de que en 2 minutos lleguen exactamente 4 clientes?
2) (1,0 pto.) Cul es la tasa de atencin conjunta de las cajas?
3) (2,0 ptos.) Suponga que surge una falla en el sistema computacional del banco, por
lo cual las cajas dejan de atender clientes. El tiempo que tarda el sistema en volver a
funcionar es una variable exponencial de parmetro = 0,2. Cul es el valor esperado
de la cantidad de clientes que llegan al banco durante la falla del sistema?
P2. Sea X variable aleatoria de Frchet de parmetros > 0 y s > 0, anotado X Frchet(, s). Es
decir, su densidad es
 x (+1) (x/s)
fX (x) = e 1[0,) (x).
s s
(a) (1,5 ptos.) Muestre que FX (x) = e(x/s) 1[0,) (x). Muestre que la mediana de X es

m = s log(2)1/ , es decir, m satisface P(X m) = P(X m) = 1/2.


(b) (1,5 ptos.) Sea k < un nmero natural. Muestre que el k-simo momento de X es igual
a sk (1R k/). Suponiendo > 2, obtenga la esperanza y varianza de X . Recuerde que

() = 0 z 1 e dz , > 0.
(c) (1,5 ptos.) Sea U unif(0, 1). Muestre que Y = s( log(U ))1/ Frchet(, s).
(d) (1,5 ptos.) Pruebe que la distribucin de Frchet es mx-estable. Es decir: dadas U y V
variables independientes tales que U Frchet(, s) y V Frchet(, t), pruebe que Z =
max(U, V ) tambin posee distribucin de Frchet. De qu parmetros?
P3. (a) (2,0 ptos.) Suponga que n personas van a una esta, y al llegar cada una deja su chaqueta
en el silln. Debido al ajetreo, durante la esta las chaquetas se revuelven (permutan) al
azar. Al retirarse, las personas no distinguen cul es su chaqueta, as que se llevan la primera
que encuentran. Calcule la cantidad esperada de personas que se llevan su propia chaqueta.
Indicacin: dena variables indicatrices adecuadas y utilice la linealidad de la esperanza.

(b) (2,0 ptos.) Muestre que la distribucin gamma es estable bajo sumas. Es decir: dadas X e
Y variables independientes tales que X gamma(, ) e Y gamma(, ), pruebe que
Z = X + Y tambin es una variable gamma. De qu parmetros? En el caso en que y
son nmeros naturales, argumente por qu este resultado era esperable.
(c) (2,0 ptos.) Sean X , Y variables aleatorias con densidad conjunta fX,Y (x, y) = 2(x + y)
cuando 0 < x < 1, 0 < y < x, y fX,Y (x, y) = 0 en otro caso. Calcule las densidades
marginales de X e Y . Son independientes? Explique.
Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-5 Probabilidades y Estadstica
Otoo 2013
Alfredo Torrico

Pauta control 2
P1. (a) Podemos escribir (U, V ) = g(X, Y ), con g(x, y) = (x + y, x/y). Por el mtodo del jacobiano,
la densidad conjunta de U y V viene dada por la frmula

fU,V (u, v) = fX,Y (g 1 (u, v))| det Jg 1 (u, v)|.

Notemos que U y V son variables mayores que 0, pues X e Y lo son. Resolviendo el sistema
(u, v) = (x + y, x/y) para x e y , se llega a
uv u
(x, y) = ( , ) = g 1 (u, v).
v+1 v+1
Calculemos el jacobiano de esta funcin:
" #
 uv uv  v u
1 u v+1 v v+1 v+1 (v+1)2
Jg (u, v) = u u = 1 u ,
u v+1 v v+1 v+1 (v+1)2

y entonces
1
uv u u
| det Jg (u, v)| = 3
= .
(v + 1) (v + 1) (v + 1)2
3

Adems, como X e Y son independientes, la densidad conjunta es el producto de sus den-


sidades marginales:

fX,Y (x, y) = fX (x)fY (y) = 1[0,1] (x)ey 1[0,) (y).

Utilizando todo lo anterior, tenemos que:


u
ue v+1 uv u
fU,V = 1 ( )1 ( ).
(v + 1)2 [0,1] v + 1 [0,) v + 1

La segunda indicatriz vale 1 para cualquier par de valores (u, v) mayores que 0. Para que la
primera indicatriz valga 1 debe cumplirse que 0 v+1
uv
1, lo cual ocurre (para u, v > 0) si
y slo si u 1 + 1/v . Por lo tanto:
ueu/(v+1)
si 0 < u 1 + 1/v y 0 < v
(
(v+1)2
fU,V (u, v) =
0 en otro caso.

(b) 1) Sabemos que la cantidad de clientes que llegan en 2 minutos es una variable de Poisson
de parmetro 2 = 6. Luego, la probabilidad buscada es:
64
P(Poiss(6) = 4) = e6 = 54e6 .
4!
2) Sabemos que el tiempo promedio que tarda un cliente en ser atendido, lo cual correspon-
de a una variable exp() para cierto , es de 2 minutos. Como el valor esperado de esta
variable es 1/ , se tiene que = 0,5, es decir, cada caja atiende a tasa de 0,5 clientes
por minuto. Por lo visto en clases, la suma de procesos de Poisson independientes es
un nuevo proceso de Poisson, cuya tasa es la suma de las tasas. En nuestro caso, son 4
cajas, por lo cual la tasa de atencin conjunta es 4 = 2 clientes por minuto.
3) Sea S el tiempo que dura la falla. Condicionando en el resultado de S , tenemos:
Z Z
E(X) = E(X|S = s)fS (s)ds = E(X|S = s)es ds.
0

Al condicionar en el evento {S = s}, la duracin de la falla est ja. Luego, dado que
la llegada de clientes es un proceso de Poisson con tasa , en el evento {S = s} se
tiene que X Poiss(s). Por lo tanto, E(X|S = s) = E(Poiss(s)) = s. Obtenemos
entonces: Z Z

E(X) = ses ds = (s)es ds = = 15,
0 0
donde hemos usado que la integral vale 1 pues el integrando es la densidad de una
variable gamma de parmetros y = 2.
(+1)
(a) Es directo ver que e(x/s) es la primitiva de s xs e(x/s) . Sabiendo que FX (x) =

P2.

fX (y)dy , se concluye que FX (x) = e [0,) (x). Calculemos la mediana:


(x/s) 1
Rx


1/2 = P(X m) = FX (m) = e(m/s) .

Despejando m, obtenemos:

m = s[ log(1/2)]1/ = s log(2)1/ .

(b) Calculemos E(X k ):



 x (+1) (x/s)
Z Z
k k
E(X ) = x fX (x)dx = xk e dx.
0 s s

Hacemos el cambio de variable y = (x/s) , de modo que dy = (/s)(x/s)1 dx, con


x = sy 1/ . Entonces:
Z 0 Z
1/ k y
k
E(X ) = [sy ] ye dy = s k
y 1k/ ey dy = sk (1 k).
0

Luego, E(X) = s(1 1/). La varianza:

var(X) = E(X 2 ) E(X)2 = s2 [(1 2/) (1 1/)2 ].

(c) Para y > 0, tenemos:



FY (y) = P(Y y) = P(s( log(U ))1/ y) = P(U e(y/s) ) = e(y/s) ,

donde en el ltimo paso hemos utilizado el hecho que P(U u) = u para u [0, 1].
Hemos obtenido entonces que FY coincide con la distribucin acumulada de X , es decir,
Y Frchet(, s).
(d) Usando el hecho que mn(a, b) c si y slo si a c y b c, tenemos para z > 0:

FZ (z) = P(max(U, V ) z) = P(U z, V z) = P(U z)P(V z),

donde en el ltimo paso usamos la independencia de U y V . Obtenemos:


+t ]1/ )
FZ (z) = e(z/s) e(z/t) = e(z/[s .

Es decir, Z es una variable Frchet de parmetros y [s + t ]1/ .

2
P3. (a) Sea X la cantidad de personas que se lleva su chaqueta. Supongamos que las personas estn
etiquetadas con los ndices {1, . . . , n}. Para un tal i, consideremos el evento Ei en que la
i-sima persona se lleva su propia chaqueta. Es directo que X = 1E1 + + 1En . Adems,
la cantidad de permutaciones de los ndices que dejan ja la i-sima coordenada es (n 1)!,
con lo cual se obtiene
(n 1)! 1
P(Ei ) = = .
n! n
Esto vale para todo i. Aplicando linealidad de la esperanza y recordando que para cualquier
evento E se tiene que E(1E ) = P(E), obtenemos:
1 1
E(X) = E(1E1 ) + + E(1En ) = P(E1 ) + + P(En ) = + + = 1.
n n

(b) Calculemos la f.g.m. de Z = X + Y . Como X e Y son independientes, tenemos:


     +

MZ (t) = MX (t)MY (t) = = .
t t t

Es decir, MZ (t) coindide con la f.g.m. de una variable gamma de parmetros + y . Dado
que la f.g.m. caracteriza la distribucin de la variable, necesariamente Z gamma( + , ).
Cuando y son nmeros naturales, sabemos que X corresponde a la distribucin de la
suma de variables exponenciales independientes de parmetro ; dem para Y . Luego, al
hacer X + Y estamos sumando + variables exponenciales independientes, lo cual ya
sabemos que tiene ley gamma( + , ).
(c) Calculemos la marginal de X . Para x (0, 1), tenemos:
Z Z x
fX (x) = fX,Y (x, y)dy = 2(x + y)dy = 2x2 + x2 = 3x2 ,
0

mientras que para x / (0, 1) se tiene fX,Y (x, y) = 0, y , y entonces fX (x) = 0. Obtenemos
entonces que fX (x) = 3x2 1(0,1) (x). Calculemos la marginal de Y para y (0, 1):
Z Z 1
fY (y) = fX,Y (x, y)dx = 2(x + y)dx = (1 y 2 ) + 2y(1 y) = 1 + 2y 3y 2 .
y

Nuevamente, para y / (0, 1) la marginal vale 0, con lo cual obtenemos que fY (y) = [1 + 2y
3y 2 ]1(0,1) (y). Notemos que X e Y no son independientes, pues el producto de sus densidades
marginales es 3x2 [1+2y3y 2 ] para x, y (0, 1), lo cual no coincide con la densidad conjunta.

3
Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Mauricio Duarte
MA3403 Probabilidades y Estadstica
Primavera 2013
Joaqun Fontbona

Control 2
28 de octubre de 2013
Tiempo: 3 horas

P1. Sea X una variable Normal estndar, es decir, de media 0 y varianza 1. Considere una variable de Bernoulli
I, con parmetro 12 , es decir P(I = 0) = 12 = P(I = 1). Definamos otra variable Y mediante
I
X si I = 1,
Y =
X si I = 0.

En palabras, es tan probable que Y sea igual a X como a X.

(a) (1,5 ptos.) Son X e Y variables aleatorias independientes? Justifique rigurosamente su respuesta.
(b) (1,5 ptos.) Son I e Y variables aleatorias independientes? Justifique rigurosamente su respuesta.
(c) (1,5 ptos.) Calcule FY (y) y deduzca que Y N (0, 1).
(d) (1,5 ptos.) Muestre que Cov(X, Y ) = 0.

P2. Sea X una variable aleatoria con distribucin de Laplace de parmetros R y b > 0, es decir, su
densidad est dada por
1 |x|
fX (x) = e b x R.
2b
(a) (1,5 ptos.) Muestre que la funcin generadora de momentos de X es MX (t) = et /(1 b2 t2 ) para
|t| < 1/b.
(b) (1,5 ptos.) Calcule la esperanza y varianza de X.
(c) (1,5 ptos.) Suponiendo = 0, calcule la densidad de |X|. Qu variable conocida es |X|?
(d) (1,5 ptos.) Sean Y1 exp(1 ), Y2 exp(2 ) variables independientes. Pruebe que 1 Y1 2 Y2 tiene
distribucin de Laplace con parmetros = 0 y b = 1. Indicacin: obtenga primero las distribuciones
de 1 Y1 y 2 Y2 , y calcule la distribucin de su suma utilizando una propiedad adecuada.
P3. (a) Sean X e Y variables independientes con distribucin normal estndar. Sean U = X y V = X/Y .
1) (1,5 ptos.) Muestre que
2 2
|u|eu (1+1/v )/2
fU,V (u, v) = .
2v 2
2) (1,5 ptos.) Muestre que V = X/Y tiene distribucin de Cauchy, es decir, su densidad es
1
fV (v) = .
(1 + v 2 )

(b) Imagine que buses del Transantiago arriban a cierto paradero de acuerdo a un proceso de Poisson de
intensidad 10 [buses/hora]. Suponga que usted llega a esperar su bus a las 2pm.
1) (1,0 pto.) Cul es la cantidad esperada de buses que pasan en las prximas 2 horas?
2) (1,0 pto.) Si usted espera bus hasta las 3pm, cul es la probabilidad que an deba esperar media
hora ms antes de que un bus pase?
3) (1,0 pto.) Cada bus que pasa viene fuera de servicio con probabilidad p = 0,2, independiente del
resto. Dado t 0, si Nt denota la cantidad de buses en servicio que han pasado hasta el instante
t desde que usted llega, calcule la distribucin de Nt . Qu puede decir sobre el proceso (Nt )t0 ?
Indicacin: para calcular P(Nt = n), condicione en una variable aleatoria adecuada.
Cuadro 1: Resumen distribuciones
nombre parametros notacion tipo soporte distribucion esperanza varianza f.g.m.

pX (0) = 1 p
Bernoulli p 2 (0, 1) X Bernoulli(p) discreta {0, 1} p p(1 p) 1 p + pet
pX (1) = p

n k k
binomial
n 2 N , p 2 (0, 1) X bin(n, p) discreta {0, 1, . . . , n} pX (k) = p (1 p)n np np(1 p) (1 p + pet )n
k

1 1 1 p pet
geometrica discreta pX (k) = (1 p)k p
p p2
p 2 (0, 1) X geom(p) {1, 2, 3, . . .}
1 (1 p)et

k 1 k r r
r r(1 p) pet
binomial
discreta pX (k) = (1 p) p
p
r 2 N , p 2 (0, 1) X BN(r, p) {r, r + 1, . . .}
negativa r 1 p2 1 (1 p)et
r

k
pX (k) = e (et 1)
Poisson >0 discreta e
k!
X Poisson( ) {0, 1, 2, . . .}

1 a+b (b a)2 etb eta


uniforme continua [a, b] fX (x) = [a,b] (x)
a, b 2 R, a < b X unif(a, b) b a 2 12 t(b a)

x 1 1
exponencial >0 continua fX (x) = e [0,1) (x) 2
X exp( ) [0, 1)
t
8t <

1 (x )2
2 1 2 2
normal >0 ) continua R e 2 2 2 t
2 R, X N (, fX (x) = p et+ 2
2

x 1
e ( x)
gamma > 0, >0 continua fX (x) = [0,1) (x) 2
X gamma(, ) [0, 1)
() t
8t <

Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Mauricio Duarte
MA3403 Probabilidades y Estadstica
Primavera 2013
Joaqun Fontbona

Pauta Control 2
P1. (a) (1,5 ptos.) Recordemos que funciones de v.a. independientes son independientes. Si X e
Y fuesen independientes, tambin lo seran X 2 e Y 2 . Pero estas dos ltimas variables son
iguales, por lo que es imposible que sean independientes.
(b) (1,5 ptos.) Asumimos que X e I son independientes. Dado que la distribucin Normal con
media cero es simtrica, tenemos que

P(Y y | I = 1) = P(X y) = P(X y) = P(Y y | I = 0).

Se deduce que el evento la distribucin acumulada de Y no depende del valor de I, luego


Y e I son independientes.
(c) (1,5 ptos.) Dado que Y e I son independientes,

P(Y y) = P(Y y | I = 1) = P(X y).

Se deduce que FY (y) = FX (y). Como la distribucin acumulada caracteriza a la variable


aleatoria, tenemos que Y X, es decir, Y N (0, 1).
(d) (1,5 ptos.) Observar que Y = X (2I 1). Como X e I son independientes, y dado que
tanto X como Y tienen esperanza cero, varianza uno

Cov(X, Y ) = E(XY ) = E(X 2 (2I 1)) = E(X 2 )E(2I 1)


= 2E(I) 1 = 2P(I = 1) 1 = 0.

P2. (a) (1,5 ptos.) Calculemos:

et
Z Z Z
1 |x| |y|
MX (t) = E(etX ) = etx fX (x)dx = etx e b dx = ety e b dy,
2b 2b

donde la ltima igualdad se obtiene haciendo el cambio de variable y = x . Separando


la integral en los rangos en que y es negativa y positiva, obtenemos:

1 0 1
et et e(t+ b )y e(t b )y
Z 0 Z 
(t+ 1b )y (t 1b )y
MX (t) = e dy + e dy = + .
t + 1b t 1b 0

2b 0 2b

Por lo tanto, la primera integral converge cuando t > 1/b, y la segunda converge cuando
t < 1/b. Es decir, MX (t) est bien definida cuando |t| < 1/b. Para un tal t, se tiene entonces:
!
et 1 1 et
MX (t) = 1 1 = .
2b t+ b t b
1 b2 t2

(b) (1,5 ptos.) Derivando la f.g.m. y evaluando en 0:


!0
0 et et (1 b2 t2 ) + 2b2 tet 0 10
MX (t) = = E(X) = MX (0) = = .
1 b2 t2 (1 b2 t2 )2 1
1
Derivamos nuevamente:
!0
00 et (1 b2 t2 ) + 2b2 tet
MX (t) =
(1 b2 t2 )2
1
= [(2 et (1 bt2 ) 2b2 tet + 2b2 et + 2btet )(1 b2 t2 )2
(1 b2 t2 )4
+ 4(1 b2 t2 )b2 t(et (1 b2 t2 ) + 2b2 tet )].

Evaluando en 0 para obtener el segundo momento de X, se obtiene:


00
var(X) = E(X 2 )E(X)2 = MX (0)2 = 1[(2 0+2b2 +0)1+0]2 = 2 +2b2 2 = 2b2 .

(c) (1,5 ptos.) Sea Y = |X|. Calculemos su distribucin acumulada en y 0:


Z y Z y
1 |x| 1 x
FY (y) = P(Y y) = P(|X| y) = P(y X y) = e b dx = 2 e b dx,
y 2b 0 2b

donde la ltima igualdad se obtiene por la simetra del integrando. Derivando con respecto
y
a y, y aplicando el teorema fundamental del Clculo, se llega a que fY (y) = (1/b)e b .
Sabiendo que fY (y) = 0 para y < 0 (pues Y es no-negativa), obtenemos:
1 y
fY (y) = e b 1[0,) (y).
b
Es decir, Y = |X| tiene distribucin exponencial de parmetro 1/b.
(d) (1,5 ptos.) Calculemos las densidades de U = 1 Y1 y V = 2 Y2 :
u 1
FU (u) = P(U u) = P(1 Y1 u) = P(Y1 u/1 ) = 1 e 1 = 1 eu ,

lo cual vale para u 0. Derivando, se obtiene que fU (u) = eu 1[0,) . Similarmente para
V:
v
FV (v) = P(V v) = P(2 Y2 v) = P(Y2 v/2 ) = e 2 2 = ev ,
vlido para v 0. Derivando, se llega a fV (v) = ev 1(,0] (v). Sea Z = 1 Y1 2 Y2 = U +V .
Como U y V son independientes (pues Y1 y Y2 lo son), se tiene que la densidad de su suma
es la convolucin de sus densidades, es decir:
Z Z
fZ (z) = (fU fV )(z) = fU (z w)fV (w)dw = e(zw) 1[0,) (z w)ew 1(,0] (w)dw

Se tiene que la primera indicatriz vale 1 si y slo si w z. Luego, el producto de las


indicatrices valdr 1 slo cuando w mn(0, z). Con esto, se obtiene:

1 2w mn(0,z) 1 z+2 mn(0,z)


Z mn(0,z)
fZ (z) = ez e2w dw = ez e = e .
2 2

Adems: (
z si z 0
z + 2 mn(0, z) =
z si z < 0.

Por lo tanto, z + 2 mn(0, z) = |z|. Con esto se obtiene que fZ (z) = (1/2)e|z| para todo
z R, concluyendo que Z = 1 Y1 2 Y2 es una variable de Laplace con parmetros = 0
y b = 1.

2
Una forma alternativa de probar lo pedido es la siguiente: de los clculos previos, es claro
que U y V tienen distribucin exponencial de parmetro 1, luego MU (t) = 1/(1 t) y
1
MV (t) = E(etV ) = E(e(t)(V ) ) = MV (t) = MU (t) = .
1+t
Como U y V son independientes, la f.g.m. de Z = U + V es el producto de las f.g.m.s, con
lo cual obtenemos
1 1 1
  
MZ (t) = = ,
1t 1+t 1 t2
la cual es la f.g.m. de una variable de Laplace con parmetros = 0 y b = 1. Como la
f.g.m. caracteriza la distribucin de una variable aleatoria, necesariamente Z posee dicha
distribucin.

P3. (a) 1) (1,5 ptos.) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del
cambio de variables (mtodo del jacobiano) nos dice que

fU,V (u, v) = fX,Y (g 1 (u, v))|det(Jg 1 (u, v))|.

En nuestro caso es directo ver que g es su propia inversa, por lo cual g 1 (u, v) = (u, u/v)
y entonces " #
1 1 0
Jg (u, v) =
1/v u/v 2

y luego |det(Jg 1 (u, v))| = |u|/v 2 . Como X e Y son normales estndar indepen-
dientes, su densidad conjunta es el producto de las densidades marginales, es decir,
2 2
fX,Y (x, y) = (1/2)e(x +y )/2 . Reemplazando todo esto en la frmula que entrega el
teorema, obtenemos:
2 2 2 )/2 2 2 )/2
|u|e(u +u /v |u|eu (1+1/v
fU,V (u, v) = = .
2v 2 2v 2
2) (1,5 ptos.) Calculemos la densidad marginal de V :
Z
fV (v) = fU,V (u, v)du

2 2
|u|eu (1+1/v )/2
Z
= du
2v 2
Z
1 2 (1+1/v 2 )/2
= 2 ueu du,
2v 2 0

la ltima igualdad se debe a la simetra en u. Hacemos el cambio de variable


donde p
w = u 1 + 1/v 2 y de lo anterior se obtiene
2
wew /2
Z
1 dw
fV (v) =
v 2
p p
0 1 + 1/v 2 1 + 1/v 2
Z
1 2 /2
= wew dw
(1 + v 2 ) 0
1
= ,
(1 + v 2 )
2 /2
donde la ltima integral vale 1, pues corresponde a ew evaluado en 0 e . Luego,
V es una variable con distribucin de Cauchy.
3
(b) 1) (1,0 ptos) Sea Bt el proceso de Poisson de intensidad 10 que representa la cantidad de
buses que han arribado al paradero en tiempo t. Buscamos E(B2 ), pero como B2 es
una variable de Poisson de parmetro 10 2 = 20, tenemos que E(B2 ) = 20. Entonces,
se espera que pasen 20 buses en las prximas 2 horas.
2) (1,0 ptos) Con la notacin de la parte anterior, tenemos que B1 = 0 pues a la hora
de espera no han pasado buses an. Buscamos la probabilidad de que B1,5 = 0 dado
que B1 = 0. Dado que los incrementos del proceso de Poisson son independientes y
estacionarios

P(B1,5 = 0|B1 = 0) = P(B1,5 B1 = 0|B1 = 0)


= P(B1,5 B1 = 0) = P(B0,5 = 0)
(10 0,5)0
= e100,5 = e5 .
0!
3) (1,0 ptos) Para k N, buscamos P(Nt = k). Como se tiene que Bt Nt , usando
probabilidades totales en el valor de Bt :

X
P(Nt = k) = P(Nt = k|Bt = n)P(Bt = n)
n=k

(10t)n
P(Nt = k|Bt = n)e10t
X
=
j=k
n!

Buscamos P(Nt = k|Bt = n), la probabilidad de que entre n buses que han pasado, una
cantidad n k hayan sido defectuosos. Como los buses son independientes en cuanto a
ser defectuosos o no, esta probabilidad equivale a un muestreo sin orden y sin reposicin
un subconjunto de buses de tamao n k entre n, con probabilidad de xito (ser
defectuoso) igual a p. Entonces
! !
n n nk
P(Nt = k|Bt = n) = pnk (1 p)k = p (1 p)k .
nk k

As

X
P(Nt = k) = P(Nt = k|Bt = n)P(Bt = n)
n=k

!
n nk (10t)n
(1 p)k e10t
X
= p
n=k
k n!

n! (10t)nk (10t)k
pnk (1 p)k e10t
X
=
n=k
k!(n k)! n!

(1 p)k (10t)k 10t X pnk
= e (10t)nk
k! n=k
(n k)!

(1 p)k (10t)k 10t X (10pt)n
= e
k! n=0
(n)!
(1 p)k (10t)k 10t 10pt
= e e
k!
(10(1 p)t)k 10(1p)t
= e .
k!

4
Como p = 0,8, tenemos que Nt Poisson(8t).
Es claro que Nt+s Nt depende exclusivamente de los buses que pasan entre tiempo t
y t + s, los cuales operan independientemente de Nt , luego Nt+s Nt es independiente
de Nt . Adems, repitiendo el argumento de antes,

X
P(Nt+s Nt = k) = P(Nt+s Nt = k|Bt+s Bt = n)P(Bt+s Bt = n)
n=k

!
n nk (10s)n
(1 p)k e10s
X
= p
n=k
k n!
(10(1 p)s)k 10(1p)s
= e ,
k!
es decir P(Nt+s Nt = k) = P(Ns = k).
Concluimos que Nt es un proceso de Poisson de intensidad 10p = 8.

También podría gustarte