1 Controles 2 - Roberto Cortez
1 Controles 2 - Roberto Cortez
1 Controles 2 - Roberto Cortez
Control # 2
Tiempo: 3 horas
P1. Decimos que la variable aleatoria X tiene distribucion de Pareto si su densidad esta dada por
(
c(xm /x)+1 x xm
f (x) =
0 en otro caso,
donde xm , > 0 son parametros.
a) (1.5 ptos.) Muestre que c = /xm .
b) (1.5 ptos.) Para cuales esta bien definida la esperanza de X? Calcule E(X) para aquellos
que tenga sentido.
c) (1.5 ptos.) Para cuales esta bien definida la varianza de X? Calcule var(X) para aquellos
que tenga sentido.
d ) (1.5 ptos.) Cual es la distribucion de log(X/xm )?
P2. a) (3.0 ptos.) Se dispone de una urna con N bolitas, de las cuales m son blancas y el resto
son negras, y se extraen n bolitas al azar. Calcule la cantidad esperada de bolitas blancas
extradas. Indicacion: defina variables indicatrices adecuadas y utilice la linealidad de la
esperanza.
b) (3.0 ptos.) Sean X, Y variables aleatorias con densidad conjunta
(
2(x + y) 0 < x < 1, 0 < y < x
fX,Y (x, y) =
0 en otro caso.
Calcule las densidades marginales de X e Y . Son independientes? Explique. Indicacion:
dibuje la region en que la densidad conjunta es estrictamente positiva.
P3. Decimos que Y es una variable chi-cuadrado con n grados de libertad, anotado Y 2n , si puede
escribirse de la forma Y = X12 + + Xn2 , donde las variables Xi son N (0, 1) independientes. Se
desea calcular la esperanza y varianza de Y , para lo cual siga los siguientes pasos:
a) (1.2 ptos.) Sea X variable aleatoria con densidad fX . Pruebe que la densidad de la variable
aleatoria X 2 es
fX ( x) + fX ( x)
fX 2 (x) = 1(0,) (x).
2 x
Indicacion: dado x 0, se tiene que X 2 x si y solo si x X x.
b) (1.2 ptos.) Si X N (0, 1), muestre que la densidad de X 2 es
ex/2
fX 2 (x) = 1(0,) (x).
2x
c) (1.2 ptos.) Si X N (0, 1), pruebe que la funcion generadora de momentos de X 2 es
MX 2 (t) = (1 2t)1/2 t < 1/2.
d ) (1.2 ptos.) Muestre que la funcion generadora de momentos de Y 2n es MY (t) = (1
2t)n/2 t < 1/2. Indicacion: utilice la independencia de las variables Xi .
e) (1.2 ptos.) Dado Y 2n , calcule E(Y ) y var(Y ).
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Julio Backhoff
Probabilidades y Estadstica Otono 2010 Vctor Riquelme
Pauta Control # 2
P1. a) Para calcular la constante, imponemos que la integral de la densidad en todo R sea 1, es decir:
Z Z Z
xm +1 +1 1 +1 x = cxm ,
1= f (x)dx = c dx = cxm x dx = cxm
xm x xm xm
Para = 1 la primitiva es log(x), con lo cual obtenemos que E(X) = xm log(x)|xm , lo cual vale .
6 1, tenemos:
Para =
+1
(
si + 1 > 0
x
E(X) = xm = +1
xm
+ 1 xm
xm +1 si + 1 < 0.
En resumen, la esperanza de X queda indefinida para 1, y esta bien definida para > 1, siendo
xm /( 1) su valor.
c) Calculemos la varianza y veamos cuando hay problemas:
Z Z Z
xm +1
E(X 2 ) = x2 f (x)dx = x2 dx = x
m x(1) dx.
xm x m x xm
y entonces
x2m 2 x2m x2m
var(X) = E(X 2 ) E(X)2 = = .
2 ( 1)2 ( 1)2 ( 2)
d ) Sea Y = log(X/xm ). Veamos:
Z xm ey
y
P (Y y) = P (log(X/xm ) y) = P (X xm e ) = f (x)dx.
Si y < 0, entonces xm ey < xm y la probabilidad anterior es 0. Para y > 0, derivamos con respecto a
y, obteniendo:
+1
xm
fY (y) = xm ey f (xm ey ) = xm ey = ey .
xm xm ey
Es decir, fY (y) = ey 1[0,) (y), lo cual significa que Y = log(X/xm ) es una variable exponencial
de parametro .
P2. a) Hay tres formas de resolver este problema, dos de las cuales utilizan la indicacion, mientras que la
ultima utiliza la definicion de esperanza. Llamemos X a la variable aleatoria que representa el numero
de bolitas blancas extradas.
1
Primera forma: siguiendo la indicacion, por cada una de las n bolitas extradas definimos una
variable aleatoria indicatriz Xi , dada por
(
1 si la i-esima bolita extrada fue blanca
Xi =
0 en otro caso.
donde se utiliza la convencion de que los coeficientes binomiales con ndices fuera de rango son 0.
Usando que a ab = b a1 b1
, obtenemos:
n m1 N m n m1 N m n1 m1 N m
X m k1 nk nm X k1 nk nm X j n1j
E(X) = N N 1
= N 1
= N 1
n n1
N n1
N j=0 n1
k=0 k=0
donde la ultima sumatoria es 1 pues corresponde a la suma de las probabilidades de una variable
hipergeometrica con parametros N 1, n 1 y m 1. Por lo tanto, E(X) = nm/N .
b) Calculemos la densidad marginal de X. Dado 0 < x < 1, tenemos:
Z Z x Z x Z x
fX (x) = fX,Y (x, y)dy = 2(x + y)dy = 2x dy + 2ydy = 2x2 + x2 ,
0 0 0
2
por lo tanto, dado que fX,Y (x, y) = 0 para x / (0, 1), obtenemos que fX (x) = 3x3 1(0,1) (x). Ahora
calculemos la densidad marginal de Y . Dado 0 < y < 1, para que fX,Y (x, y) sea no nulo se necesita
que y < x < 1 (hacer dibujo para verlo claro). Por lo tanto:
Z Z 1 Z 1 Z 1
fY (y) = fX,Y (x, y)dx = 2(x + y)dx = 2xdx + 2y dx = 1 y 2 + 2y(1 y).
y y y
Luego, dado que fX,Y (x, y) = 0 para y / (0, 1), se obtiene que la densidad de Y es fY (y) = (1 +
2y 3y 2 )1(0,1) (y). Cuando las variables son independientes, la densidad conjunta es el producto de
las densidades. En este caso el producto de las densidades es
fX (x)fY (y) = 3x2 (1 + 2y 3y 2 )1(0,1) (x)1(0,1) (y),
lo cual no calza con la densidad conjunta de X e Y . Por lo tanto, ellas no son independientes.
P3. a) Dado x > 0, tenemos:
P (X 2 x) = P ( x X x) = FX ( x) FX ( x),
y derivando con respecto a x, se obtiene:
fX ( x) fX ( x) fX ( x) + fX ( x)
fX 2 (x) = = .
2 x 2 x 2 x
La indicatriz aparece porque para x < 0 el evento X 2 < x es vaco y por lo tanto la densidad es 0.
b) Reemplazando fX por la densidad de una N (0, 1) en la formula de la parte previa, obtenemos:
2 2 !
1 e( x) /2 e( x) /2 ex/2
fX 2 (x) = + 1(0,) (x) = 1(0,) (x).
2 x 2 2 2x
c) Calculemos:
Z x(12t)/2
ex/2
Z
tX tx e
MX 2 (t) = E(e ) = e dx = dx.
0 2x 0 2x
Cuando t 1/2 esta integral vale . Para t < 1/2, hacemos el cambio de variable y = x(1 2t) y
obtenemos: Z Z y/2
ey/2 dy 1 e
MX 2 (t) = p = dy,
0 2y/(1 2t) 1 2t 1 2t 0 2y
y la integral vale 1 pues el integrando es la densidad de X 2 .
d ) Como Y 2n , Y se escribe como la suma de los Xi2 , donde Xi N (0, 1) y son independientes. Por lo
hecho anteriormente, se tiene que MXi2 (t) = (1 2t)1/2 . Ademas, sabemos que la f.g.m. de la suma
de variables independientes es el producto de las f.g.m., por lo cual
MY (t) = MX12 (t) MXn2 (t) = (1 2t)1/2 (1 2t)1/2 = (1 2t)n/2 .
e) Utilicemos la f.g.m. para calcular E(Y ) y var(Y ):
dMY (t) n
= (1 2t)n/21 (2) = n(1 2t)n/21 .
dt 2
Y derivando nuevamente:
d2 MY (t) n
= n( 1)(1 2t)n/22 (2) = n(n + 2)(1 2t)n/22 .
dt2 2
Por lo tanto:
dMY (t)
E(Y ) = =n
dt t=0
d2 MY (t)
2
E(Y ) = = n(n + 2)
dt2 t=0
var(Y ) = E(Y 2 ) E(Y )2 = n(n + 2) n2 = 2n.
Observacion: tambien es posible obtener el resultado calculando la esperanza y varianza de X 2 ,
con X N (0, 1), y luego aplicar linealidad de la esperanza y de la varianza en caso de variables
independientes.
3
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
Vctor Carmi
UNIVERSIDAD DE CHILE
MA3403-4 Probabilidades y Estadstica, Primavera 2010 Daro Cepeda
Control # 2
25 de octubre de 2010
Tiempo: 3 horas
P1. a) (3.0 ptos.) El arancel mensual de una determinada carrera universitaria asciende a $60. Si el
ingreso per capita mensual de la familia de un estudiante es inferior a $50, se le asigna 100 %
de beca; si el ingreso per capita esta entre $50 y $80, se le asigna 50 % de beca; y si esta entre
$80 y $100, se asigna un 25 %. En otro caso, no se asigna beca. Calcule el valor esperado de
la beca mensual asignada a un estudiante escogido al azar, suponiendo que el ingreso per
capita mensual de la familia se distribuye uniformemente en el intervalo [$25, $175].
b) (3.0 ptos.) Sean X e Y variables aleatorias independientes exponenciales de parametro = 1.
Sean U = X/Y , V = XY . Muestre que la funcion de densidad conjunta de U y V es
1
e( u+ u ) v
fU,V (u, v) = 2u u > 0, v > 0
0 en otro caso.
P2. a) Sea A R2 como en la figura, y sea (X, Y ) un vector aleatorio uniformemente distribuido
sobre A, es decir, fX,Y (x, y) = area(A)1 1A (x, y).
3 1[1,1](x) .
1) (1.5 ptos.) Muestre que fX (x) = 2|x|
Calcule tambien la densidad marginal de Y .
Pauta Control # 2
P1. a) Para calcular la constante, imponemos que la integral de la densidad en todo R sea 1, es decir:
Z Z Z
xm +1 +1 1 +1 x = cxm ,
1= f (x)dx = c dx = cxm x dx = cxm
xm x xm xm
Para = 1 la primitiva es log(x), con lo cual obtenemos que E(X) = xm log(x)|xm , lo cual vale .
6 1, tenemos:
Para =
+1
(
si + 1 > 0
x
E(X) = xm = +1
xm
+ 1 xm
xm +1 si + 1 < 0.
En resumen, la esperanza de X queda indefinida para 1, y esta bien definida para > 1, siendo
xm /( 1) su valor.
c) Calculemos la varianza y veamos cuando hay problemas:
Z Z Z
xm +1
E(X 2 ) = x2 f (x)dx = x2 dx = x
m x(1) dx.
xm x m x xm
y entonces
x2m 2 x2m x2m
var(X) = E(X 2 ) E(X)2 = = .
2 ( 1)2 ( 1)2 ( 2)
d ) Sea Y = log(X/xm ). Veamos:
Z xm ey
y
P (Y y) = P (log(X/xm ) y) = P (X xm e ) = f (x)dx.
Si y < 0, entonces xm ey < xm y la probabilidad anterior es 0. Para y > 0, derivamos con respecto a
y, obteniendo:
+1
xm
fY (y) = xm ey f (xm ey ) = xm ey = ey .
xm xm ey
Es decir, fY (y) = ey 1[0,) (y), lo cual significa que Y = log(X/xm ) es una variable exponencial
de parametro .
P2. a) Hay tres formas de resolver este problema, dos de las cuales utilizan la indicacion, mientras que la
ultima utiliza la definicion de esperanza. Llamemos X a la variable aleatoria que representa el numero
de bolitas blancas extradas.
1
Primera forma: siguiendo la indicacion, por cada una de las n bolitas extradas definimos una
variable aleatoria indicatriz Xi , dada por
(
1 si la i-esima bolita extrada fue blanca
Xi =
0 en otro caso.
donde se utiliza la convencion de que los coeficientes binomiales con ndices fuera de rango son 0.
Usando que a ab = b a1 b1
, obtenemos:
n m1 N m n m1 N m n1 m1 N m
X m k1 nk nm X k1 nk nm X j n1j
E(X) = N N 1
= N 1
= N 1
n n1
N n1
N j=0 n1
k=0 k=0
donde la ultima sumatoria es 1 pues corresponde a la suma de las probabilidades de una variable
hipergeometrica con parametros N 1, n 1 y m 1. Por lo tanto, E(X) = nm/N .
b) Calculemos la densidad marginal de X. Dado 0 < x < 1, tenemos:
Z Z x Z x Z x
fX (x) = fX,Y (x, y)dy = 2(x + y)dy = 2x dy + 2ydy = 2x2 + x2 ,
0 0 0
2
por lo tanto, dado que fX,Y (x, y) = 0 para x / (0, 1), obtenemos que fX (x) = 3x3 1(0,1) (x). Ahora
calculemos la densidad marginal de Y . Dado 0 < y < 1, para que fX,Y (x, y) sea no nulo se necesita
que y < x < 1 (hacer dibujo para verlo claro). Por lo tanto:
Z Z 1 Z 1 Z 1
fY (y) = fX,Y (x, y)dx = 2(x + y)dx = 2xdx + 2y dx = 1 y 2 + 2y(1 y).
y y y
Luego, dado que fX,Y (x, y) = 0 para y / (0, 1), se obtiene que la densidad de Y es fY (y) = (1 +
2y 3y 2 )1(0,1) (y). Cuando las variables son independientes, la densidad conjunta es el producto de
las densidades. En este caso el producto de las densidades es
fX (x)fY (y) = 3x2 (1 + 2y 3y 2 )1(0,1) (x)1(0,1) (y),
lo cual no calza con la densidad conjunta de X e Y . Por lo tanto, ellas no son independientes.
P3. a) Dado x > 0, tenemos:
P (X 2 x) = P ( x X x) = FX ( x) FX ( x),
y derivando con respecto a x, se obtiene:
fX ( x) fX ( x) fX ( x) + fX ( x)
fX 2 (x) = = .
2 x 2 x 2 x
La indicatriz aparece porque para x < 0 el evento X 2 < x es vaco y por lo tanto la densidad es 0.
b) Reemplazando fX por la densidad de una N (0, 1) en la formula de la parte previa, obtenemos:
2 2 !
1 e( x) /2 e( x) /2 ex/2
fX 2 (x) = + 1(0,) (x) = 1(0,) (x).
2 x 2 2 2x
c) Calculemos:
Z x(12t)/2
ex/2
Z
tX tx e
MX 2 (t) = E(e ) = e dx = dx.
0 2x 0 2x
Cuando t 1/2 esta integral vale . Para t < 1/2, hacemos el cambio de variable y = x(1 2t) y
obtenemos: Z Z y/2
ey/2 dy 1 e
MX 2 (t) = p = dy,
0 2y/(1 2t) 1 2t 1 2t 0 2y
y la integral vale 1 pues el integrando es la densidad de X 2 .
d ) Como Y 2n , Y se escribe como la suma de los Xi2 , donde Xi N (0, 1) y son independientes. Por lo
hecho anteriormente, se tiene que MXi2 (t) = (1 2t)1/2 . Ademas, sabemos que la f.g.m. de la suma
de variables independientes es el producto de las f.g.m., por lo cual
MY (t) = MX12 (t) MXn2 (t) = (1 2t)1/2 (1 2t)1/2 = (1 2t)n/2 .
e) Utilicemos la f.g.m. para calcular E(Y ) y var(Y ):
dMY (t) n
= (1 2t)n/21 (2) = n(1 2t)n/21 .
dt 2
Y derivando nuevamente:
d2 MY (t) n
= n( 1)(1 2t)n/22 (2) = n(n + 2)(1 2t)n/22 .
dt2 2
Por lo tanto:
dMY (t)
E(Y ) = =n
dt t=0
d2 MY (t)
2
E(Y ) = = n(n + 2)
dt2 t=0
var(Y ) = E(Y 2 ) E(Y )2 = n(n + 2) n2 = 2n.
Observacion: tambien es posible obtener el resultado calculando la esperanza y varianza de X 2 ,
con X N (0, 1), y luego aplicar linealidad de la esperanza y de la varianza en caso de variables
independientes.
3
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Vctor Carmi
MA3403-5 Probabilidades y Estadstica, Otono 2011 Alfredo Torrico
Control 2
23 de mayo de 2011
Tiempo: 3 horas
P1. Sea X variable aleatoria de Weibull con parametros > 0 y k > 0, es decir, su densidad esta dada
por
k x k1 (x/)k
fX (x) = e 1[0,) (x).
a) (1,5 ptos.) Muestre que FX (x) = [1 e(x/) ]1[0,) (x).
k
P2. a) (3,0 ptos.) Una persona dispara con arco y flecha a un blanco. Si la flecha llega a menos de
5cm del centro, se asignan 10 puntos; si esta a mas de 5cm y a menos de 15cm, se le asignan
5 puntos; y si esta a mas de 15cm y menos de 25cm, se le asignan 3 puntos. En otro caso,
no se asignan puntos. Calcule la cantidad esperada de puntos, si se sabe que la distancia de
la flecha al centro del blanco se distribuye uniformemente entre 0cm y 50cm.
b) (3,0 ptos.) Sean X N (, 2 ), Y N (, 2 ) variables aleatorias independientes. Muestre
que Z = X + Y N ( + , 2 + 2 ). Indicacion: calculeR la densidad de Z mediante
2
una propiedad conocida (sabiendo que una integral del tipo eA(yB) dy, con A y B
constantes, no depende del valor de B), o bien utilice la f.g.m. y sus propiedades (recordando
1 2
que si W es normal entonces su f.g.m. es etE(W )+ 2 t var(W ) ).
P3. a) En un banco llegan clientes a tasa de 3 por minuto. El valor esperado del tiempo que un
cliente tarda en una caja es de 2 minutos. Hay 4 cajas, que atienden de manera independiente.
1) (1,0 pto.) Cual es la probabilidad de que en los proximos 2 minutos lleguen exactamente
4 clientes?
2) (1,0 pto.) Cual es la tasa de atencion conjunta de las cajas?
3) (1,0 pto.) Suponga que surge una falla en el sistema computacional del banco, por lo
cual las cajas dejan de atender clientes. El tiempo que tarda el sistema en volver a
funcionar es una variable exponencial de parametro = 0,2. Cual es el valor esperado
de la cantidad de clientes que llegan al banco durante la falla del sistema?
b) Sean X e Y variables aleatorias con densidad conjunta dada por
(
1
2 2, x 1, y 1
fX,Y (x, y) = x y
0, en otro caso
Pauta Control 2
P1. a) Calculemos:
Z x
k z k1 (z/)k k x
k
FX (x) = P(X x) = e dz = e(z/) = 1 e(x/) ,
0 0
k
donde hemos usado que la derivada de e(z/) es exactamente el integrando. Lo anterior
vale para x 0, mientras que para x < 0 se tiene que FX (x) = 0, lo cual hace aparecer la
indicatriz buscada.
b) Utilizando la propiedad para calcular la esperanza de una funcion de una variable aleatoria,
tenemos que:
Z
k x k1 (x/)k
Mln(X) (t) = E(et ln(X) ) = E(X t ) = xt e dx.
0
Hacemos el cambio de variable y = (x/)k , con lo cual dy = (k/) (x/)k1 dx, obteniendo
Z Z
1/k t y
Mln(X) (t) = (y ) e dy = t
y (1+t/k)1 ey dy = t (1 + t/k).
0 0
c) Por lo hecho en el punto previo, sabemos que Mln(X) (t) = E(X t ). Por lo tanto para n N,
tenemos que el momento n-esimo de X corresponde a E(X n ) = Mln(X) (n) = n (1 + n/k).
La esperanza de X es entonces E(X) = (1 + 1/k), y la varianza es
lo cual vale para y 0. Derivando, obtenemos entonces fY (y) = ey 1[0,) (y), es decir,
(X/)k es una variable exponencial de parametro 1.
P2. a) Sea X la variable aleatoria que denota los puntos obtenidos, e Y la distancia de la flecha al
centro del blanco. X es discreta, con RX = {0, 3, 5, 10}, luego
X
E(X) = kpX (k) = 0 pX (0) + 3 pX (3) + 5 pX (5) + 10 pX (10).
kRX
La cantidad pX (10) corresponde a la probabilidad de que el puntaje sea 10, lo que equivale
a la probabilidad de que la flecha este a menos de 5cm del centro. Es decir, pX (10) = P(Y
1
[0, 5]) = 5/50, donde hemos usado que Y unif(0, 50). Aplicando lo mismo para los otros
posibles puntajes, se obtiene:
E(X) = 0 P(Y [25, 50]) + 3 P(Y [15, 25]) + 5 P(Y [5, 15]) + 10 P(Y [0, 5])
10 10 5 30 + 50 + 50 13
=0+3 +5 + 10 = = .
50 50 50 50 5
b) Hay dos formas de resolver este problema. La primera consiste en calcular explcitamente la
densidad de Z, utilizando el hecho que la densidad de la suma de variables independientes
es la convolucion de las densidades. Se tiene entonces que:
Z
fZ (z) = fX (x)fY (z x)dx
Z
(x )2 (z x )2
= cte exp exp dx
2 2 2 2
Z
y2 (z y )2
= cte exp 2 dx,
2 2 2
(z ( + ))2
0
fZ (z) = cte exp .
2( 2 + 2 )
2
La segunda forma consiste en utilizar la funcion generadora de momentos y sus propiedades.
Como X e Y son independientes, tenemos:
1 2 t2 1 2 2 1 2 + 2 )t2
MZ (t) = MX+Y (t) = MX (t) MY (t) = et+ 2 et+ 2 t
= e(+)t+ 2 ( .
P3. a) 1) Sabemos que la cantidad de clientes que llegan en 2 minutos es una variable de Poisson
de parametro = 3 2 = 6. Luego, la probabilidad buscada es:
64
P(Poiss(6) = 4) = e6 = 54e6 .
4!
2) Sabemos que el tiempo promedio que tarda un cliente en ser atendido, lo cual corre-
sponde a una variable exp() para cierto , es de 2 minutos. Como el valor esperado de
esta variable es 1/, se tiene que = 0,5, es decir, cada caja atiende a tasa de 0,5 clientes
por minuto. Por lo visto en clases, la suma de procesos de Poisson independientes es
un nuevo proceso de Poisson, cuya tasa es la suma de las tasas. En nuestro caso, son 4
cajas, por lo cual la tasa de atencion conjunta es 4 = 2 clientes por minuto.
3) Sea X la cantidad de clientes que llegan durante la falla del sistema, y sea S el tiempo
que dura la falla. Condicionando en el resultado de S, tenemos:
Z Z
E(X) = E(X|S = s)fS (s)ds = E(X|S = s) 0,2 e0,2s ds.
0
Al condicionar en el evento {S = s}, la duracion de la falla esta fija. Luego, dado que la
llegada de clientes es un proceso de Poisson con tasa 3, en el evento {S = s} se tiene que
X Poiss(3s). Por lo tanto, E(X|S = s) = E(Poiss(3s)) = 3s. Obtenemos entonces:
Z Z
0,2s 3 3
E(X) = 3s 0,2 e ds = 0,2 (0,2 s) e0,2s ds = = 15,
0 0,2 0 0,2
donde hemos usado que la integral vale 1 pues el integrando es la densidad de una
variable gamma de parametros = 0,2 y = 2.
b) 1) Se tiene que (U, V ) = g(X, Y ), donde g es la funcion g(x, y) = (xy, x/y). Notemos que
p p p
( U V , U/V ) = ( XY (X/Y ), XY /(X/Y )) = (X, Y ),
es decir, g 1 (u, v) = ( uv, u/v). Luego, el jacobiano de g 1 viene dado por:
p
" # "
v u v u
d uv d uv
#
2 uv 2 uv
Jg 1
(u, v) = du dv = 1/v u/v 2 = 2 u 2 v
.
d u/v d u/v 1 u
,
du dv 2 u/v 2 u/v 2 uv 2v v
Por lo tanto:
1
1 1 1
| det Jg (u, v)| =
= .
4v 4v 2v
Por el metodo del jacobiano, tenemos entonces que:
1 1 1
fU,V (u, v) = fX,Y (g 1 (u, v)) | det Jg 1 (u, v)| = 2p 2 = 2 ,
uv u/v 2v 2u v
3
p
lo cual vale cuando uv 1 y u/v 1, es decir, cuando v 1/u y u v (con
u, v > 0). Obtenemos entonces:
(
1
2 , 0 < 1/u v u
fU,V (u, v) = 2u v
0, en otro caso.
En resumen:
1
(
ln(u) 2v2 ,
v1
u2
, u1
fU (u) = fV (v) = 12 , 0<v<1
0, en otro caso,
0, en otro caso.
4
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Angel Pardo
MA3403-3 Probabilidades y Estadstica, Primavera 2011 Alfredo Torrico
Control 2
12 de diciembre de 2011
Tiempo: 3 horas
P1. a) (3,0 ptos.) Un estudiante debe llegar a su clase de las 8:30, para lo cual espera un autobus
en el paradero. El autobus que pasa a las 7:30 tarda 40 minutos en llegar a la facultad, pero
el autobus de las 7:40 tarda 50 minutos. Si el estudiante no alcanza el autobus de las 7:40,
debe tomar el colectivo de las 7:45, que en 35 minutos lo deja en la facultad. Si la hora
de llegada del estudiante al paradero se distribuye uniformemente entre las 7:25 y las 7:45,
cual es el valor esperado de la hora de llegada a su clase?
b) (3,0 ptos.) Se dispone de una urna con N bolitas numeradas de 1 a N . Se extraen bolitas
con resposicion de manera independiente hasta que haya salido cada bolita al menos una
vez. Sea X la variable que denota la cantidad total de extracciones realizadas, y sea Xk la
cantidad de extracciones desde la vez k 1 que aparece una bolita que no haba salido antes
(excluyendo esa extraccion) hasta la siguiente vez que aparece una bolita que no ha salido
antes (incluyendo esa extraccion), para k = 1, . . . , N . Deduzca la distribucion de cada Xk ,
y obtenga una expresion para E(X).
P2. Sea X variable aleatoria con distribucion chi-cuadrado con n grados de libertad, anotado X 2n ,
es decir, su densidad esta dada por
1
fX (x) = xn/21 ex/2 1(0,) (x),
2n/2 (n/2)
R
donde () = 0 ez z 1 dz es la funcion Gamma.
a) (1,5 ptos.) Muestre que la f.g.m. de X es MX (t) = (1 2t)n/2 para t < 1/2.
b) (1,5 ptos.) Calcule E(X) y var(X).
c) (1,5 ptos.) Si Y es una variable normal estandar, muestre que Y 2 21 . Utilice el hecho que
(1/2) = .
d ) (1,5 ptos.) Concluya que si X1 , . . . , Xn son normales estandar independientes, entonces X12 +
+ Xn2 tiene distribucion 2n . Indicacion: utilice las propiedades de la f.g.m.
P3. a) Sean X e Y independientes con distribucion normal estandar. Definimos U = X y V = X/Y .
1) (1,5 ptos.) Muestre que la funcion de densidad conjunta de U y V es
2 2 )/2
|u|eu (1+1/v
fU,V (u, v) = .
2v 2
2) (1,5 ptos.) Muestre que V tiene distribucion de Cauchy, es decir, su densidad es fV (v) =
1/[(1 + v 2 )].
b) La cantidad de llamadas telefonicas recibidas en una empresa durante t horas es una variable
Poisson(t). Se produce una falla en el sistema telefonico, durante la cual las llamadas
recibidas no pueden ser atendidas. La duracion de la falla es una variable exponencial de
parametro . Sea X la cantidad de llamadas no atendidas durante la falla.
1) (2,0 ptos.) Utilizando esperanzas condicionales, calcule E(X).
2) (1,0 ptos.) Para k = 0, 1, . . ., calcule P(X = k). Concluya que X + 1 es una variable
geometrica de parametro p = /( + ). Obtenga nuevamente E(X). Indicacion: utilice
la regla de probabilidades totales; para calcular la integral, construya la densidad de
una variable Gamma adecuada.
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Angel Pardo
MA3403-3 Probabilidades y Estadstica, Primavera 2011 Alfredo Torrico
Pauta Control 2
P1. a) Sea X la hora de llegada a la clase, medida en minutos pasadas las 8:00, y sea Y la hora
de llegada al paradero. Claramente X es una variable discreta que toma el valor 10 cuando
alcanza el autobus de las 7:30, o bien 30 cuando alcanza el autobus de las 7:40, o bien 20
cuando toma el colectivo. Luego:
X
E(X) = kP(X = k) = 10 P(X = 10) + 30 P(X = 30) + 20 P(X = 20).
kRX
Sabemos que X = 10 cuando alcanza el autobus de las 7:30, es decir, cuando la hora de
llegada al paradero es menor que 7:30, o sea, cuando Y < 7:30. Analogamente, X = 30
cuando 7:30 Y < 7:40, y tambien X = 20 cuando 7:40 Y . Teniendo en cuenta que Y es
uniforme en el intervalo entre las 7:25 y las 7:45, se obtiene:
b) Derivemos la f.g.m.:
dMX d n
(t) = (1 2t)n/2 = (1 2t)n/21 (2) = n(1 2t)n/21 ,
dt dt 2
d2 MX d n
(t) = n(1 2t)n/21 = n 1 (1 2t)n/22 (2) = n(n + 2)(1 2t)n/22 .
dt2 dt 2
Por lo tanto, usando la propiedad fundamental de la f.g.m., obtenemos:
dMX
E(X) = (0) = n(1 0)n/21 = n,
dt
d2 MX
var(X) = E(X 2 ) E(X)2 = (0) n2 = n(n + 2)(1 0)n/22 n2 = 2n.
dt2
donde hemos usado la simetra del integrando. Derivando lo anterior con respecto a y,
utilizando el TFC y la regla de la cadena, obtenemos la densidad de Y 2 :
2 2
1 1
fY 2 (y) = ez /2 = ey/2 y 1/2 .
2 z= y 2 y 2
Lo anterior vale para y > 0, mientras que para y 0 la distribucion acumulada vale 0 (pues
Y 2 0), y por lo tanto la densidad tambien es 0. Usando que (1/2) = , obtenemos
entonces:
1
fY 2 (y) = ey/2 y 1/21 1(0,) (y),
21/2 (1/2)
es decir, Y 2 21 .
d ) Por el tem anterior, cada Xk2 posee distribucion 21 , luego MX 2 (t) = (1 2t)1/2 . Como la
k
f.g.m. de la suma de variables independientes corresponde al producto de las f.g.m., se tiene
entonces que la f.g.m. de W = X12 + + Xn2 es
n
Y n
Y
MW (t) = MX 2 (t) = (1 2t)1/2 = (1 2t)n/2 .
k
k=1 k=1
P3. a) 1) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del cambio de
variables nos dice que
En nuestro caso es directo ver que g es su propia inversa, por lo cual g 1 (u, v) = (u, u/v)
y
1 1 0
Dg (u, v) =
1/v u/v 2
y luego |det(Dg 1 (u, v)| = |u|/v 2 . Como X e Y son normales estandar independi-
entes, su densidad conjunta es el producto de las densidades marginales, es decir,
2 2
(1/2)e(x +y )/2 . Reemplazando todo esto en la formula que entrega el teorema, obten-
emos: 2 2 2 2
|u| e(u +(u/v) )/2 |u|eu (1+1/v )/2
fU,V (u, v) = 2 = .
v 2 2v 2
2) Calculemos la densidad marginal de V :
2 2 )/2
|u|eu (1+1/v
Z Z Z
1 2 (1+1/v 2 )/2
fV (v) = fU,V (u, v)du = du = 2 ueu du,
2v 2 2v 2 0
2
donde p
la ultima igualdad se debe a la simetra en u. Hacemos el cambio de variable
w = u 1 + 1/v 2 y de lo anterior se obtiene
2
wew /2
Z Z
1 dw 1 2 /2 1
fV (v) = = wew dw = ,
v 2 (1 + v 2 ) (1 + v 2 )
p p
0 1 + 1/v 2 1 + 1/v 2 0
2 /2
donde la integral vale 1, pues corresponde a ew evaluado en 0 e . Luego, V es
una variable con distribucion de Cauchy.
b) 1) Sea T la duracion de la falla. Condicionando en los resultados de T , tenemos:
Z Z
E(X) = E(X|T = t)fT (t)dt = E(X|T = t)et dt,
0
donde hemos usado que T exp(). En el evento T = t, sabemos que X es una variable
de Poisson de parametro t, por lo cual su esperanza es exactamente t. Integrando por
partes, tenemos entonces:
Z Z
t t t
E(X) = te dt = te + e dt = (0 + 1/) = /.
0 0 0
donde hemos utilizado que (k + 1) = k!. La integral anterior vale 1 pues el integrando
corresponde a la densidad de una variable Gamma(k + 1, + ), por lo tanto:
k k
P(X = k) = = 1 .
+ + + +
1 +
E(X) = E(X + 1) 1 = 1= 1 = /.
p
3
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Francisco Castro
MA3403-3 Probabilidades y Estadstica, Otono 2012 Alfredo Torrico
Control 2
7 de mayo de 2012
Tiempo: 3 horas
P1. (a) (3,0 ptos.) El arancel mensual de una determinada carrera universitaria asciende a $60. Si
el ingreso per capita mensual de la familia de un estudiante es inferior a $50, se le asigna
100 % de beca; si el ingreso per capita esta entre $50 y $80, se le asigna 50 % de beca; y
si esta entre $80 y $100, se asigna un 25 %. En otro caso, no se asigna beca. Calcule el
valor esperado de la beca mensual asignada a un estudiante escogido al azar, suponiendo
que el ingreso per capita mensual de la familia se distribuye uniformemente en el intervalo
[$25, $175].
(b) (3,0 ptos.) Se tienen dos mazos identicos con n cartas cada uno. La persona A extrae kA
cartas al azar del primer mazo, y la persona B extrae, independiente de A, kB cartas al
azar del segundo mazo (sin reposicion en ambos casos). Muestre que el numero esperado
de cartas que aparecen simultaneamente entre las escogidas por A y por B es (kA kB )/n.
Indicacion: defina variables indicatrices adecuadas y use linealidad de la esperanza.
P2. (a) (3,0 ptos.) Sean X unif(0, 1), Y exp(1) variables independientes. Sean U = X + Y ,
V =X Y . Muestre que
( u/(v+1)
ue
(v+1)2
si 0 < u 1 + 1/v y 0 < v
fU,V (u, v) =
0 en otro caso.
(b) (3,0 ptos.) Se lanza n veces de manera independiente una moneda con probabilidad p de
cara, donde p es el resultado de la realizacion de otra variable aleatoria U con distribucion
unif(0, 1), independiente de los lanzamientos. Sea X la cantidad de caras que se obtienen.
1
Demuestre que para todo i = 0, . . . , n se tiene que pX (i) = n+1 . Indicacion: utilizando una
propiedad conocida, calcule P(X = i) condicionando en los posibles resultados de U ; utilice
sin demostrar el hecho que
Z 1
i!(n i)!
pi (1 p)ni dp = .
0 (n + 1)!
P3. Se dice que la variable aleatoria X tiene distribucion log-normal con parametros y 2 si
Y = ln(X) tiene distribucion N (, 2 ).
(a) (1,2 ptos.) Pruebe que la densidad de X es
1 (ln(x))2
fX (x) = e 22 1(0,) (x).
x 2
2 2
(b) (1,2 ptos.) Pruebe que para todo s R, E(X s ) = es+ s /2 . Obtenga la esperanza y
varianza de X. Indicacion: utilice la funcion generadora de momentos de una variable
N (, 2 ).
(c) (1,2 ptos.) Pruebe que la f.g.m. MX (t) no esta definida para t > 0.
(d) (1,2 ptos.) Sea U N (, 2 ), y sean R, 6= 0. Pruebe que V = +U tiene distribucion
N ( + , 2 2 ). Utilice esto para obtener la distribucion de aX b , donde a > 0 y b 6= 0.
(e) (1,2 ptos.) Sean X1 , X2 variables aleatorias independientes con distribucion log-normal de
parametros 1 , 12 y 2 , 22 , respectivamente. Cual es la distribucion de Z = X1 X2 ?
Ingeniera Matematica
FACULTAD DE CIENCIAS Roberto Cortez
FISICAS Y MATEMATICAS
UNIVERSIDAD DE CHILE
Francisco Castro
MA3403-3 Probabilidades y Estadstica, Otono 2012 Alfredo Torrico
Pauta Control 2
P1. (a) Sea X la variable aleatoria del monto de beca asignado. Esta solo toma los
valores 60, 30, 15 y 0, correspondientes al 100 %, 50 %, 25 % y 0 % de $60,
respectivamente. Luego, X es una variable discreta, por lo cual su esperanza se
calcula como
X
E(X) = kP(X = k)
kRX
= 60P(X = 60) + 30P(X = 30) + 15P(X = 15) + 0P(X = 0)
= 60P(25 Y < 50) + 30P(50 Y < 80) + 15P(80 Y < 100)
P2. (a) Podemos escribir (U, V ) = g(X, Y ), con g(x, y) = (x + y, x/y). Por el metodo
del jacobiano, la densidad conjunta de U y V viene dada por la formula
1
Calculemos el jacobiano de esta funcion:
" #
uv uv v u
1 v+1 (v+1)2
Jg (u, v) = u u
v+1 v v+1
u = 1 u ,
u v+1 v v+1 v+1 (v+1)2
y entonces
1
uv u u
| det Jg (u, v)| =
3
3
= .
(v + 1) (v + 1) (v + 1)2
Ademas, como X e Y son independientes, la densidad conjunta es el producto
de sus densidades marginales:
fX,Y (x, y) = fX (x)fY (y) = 1[0,1] (x)ey 1[0,) (y).
Utilizando todo lo anterior, tenemos que:
u
ue v+1 uv u
fU,V = 2
1[0,1] ( )1[0,) ( ).
(v + 1) v+1 v+1
La segunda indicatriz vale 1 para cualquier par de valores (u, v) mayores que 0.
uv
Para que la primera indicatriz valga 1 debe cumplirse que 0 v+1 1, lo cual
ocurre (para u, v > 0) si y solo si u 1 + 1/v. Por lo tanto:
( u/(v+1)
ue
(v+1)2
si 0 < u 1 + 1/v y 0 < v
fU,V (u, v) =
0 en otro caso.
donde hemos utilizado el hecho que fU (p) = 1[0,1] (p). Notemos que cuando
U = p, la variable X tiene distribucion bin(n, p), con lo cual se tiene P(X = i |
U = p) = ni pi (1 p)ni . Obtenemos:
Z 1
n n! i!(n i)! 1
pX (i) = pi (1 p)ni dp = = ,
i 0 i!(n i)! (n + 1)! n+1
como deseabamos.
P3. (a) Para calcular fX (x), partimos por FX (x) y despues derivamos:
Z ln(x)
1 (y)2
FX (x) = P(X x) = P(Y ln(x)) = e 22 dy,
2
donde hemos utilizado que Y = ln(X) tiene distribucion N (, 2 ). Derivando lo
anterior con respecto a x y aplicando el TFC y la regla de la cadena, obtenemos:
1 (ln(x))2 1
fX (x) = e 22 .
2 x
Lo anterior vale para x > 0, mientras que para x 0 se tiene que P(X x) = 0,
pues X = eY es una variable positiva; luego fX (x) = 0 para x 0. Juntando
todo esto, tenemos:
1 (ln(x))2
fX (x) = e 22 1(0,) (x).
x 2
2
(b) Recordemos que como Y = ln(X) tiene distribucion N (, 2 ), su f.g.m. es
2 2
MY (t) = et+ t /2 . Utilizando esto, se tiene que:
s 2 s2 /2
E(X s ) = E(eln(X ) ) = E(esY ) = MY (s) = es+ .
y al derivar se obtiene:
( v )2 2
1 1 1
(v[+])
fV (v) = e 2 2 = e 2 2 2 ,
2 2()
3
(e) Si anotamos Y1 = ln(X1 ), Y2 = ln(X2 ), por definicion de distribucion log-
normal sabemos que Y1 N (1 , 12 ) y que Y2 N (2 , 22 ); ademas Y1 e Y2
son independientes pues X1 y X2 lo son. Ademas, notemos que W = ln(Z) =
ln(X1 X2 ) = ln(X1 ) + ln(X2 ) = Y1 + Y2 , es decir, W es suma de dos normales
independientes. Por teorema visto en clases, se tiene entonces que W = ln(Z)
N (1 + 2 , 12 + 22 ). Es decir, Z tiene distribucion log-normal de parametros
1 + 2 y 12 + 22 .
4
Ingeniera Matematica
FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-3 Probabilidades y Estadstica, Primavera 2012 Alfredo Torrico
Control 2
8 de octubre de 2012
Tiempo: 3 horas
P1. (a) (3,0 ptos.) Una persona dispara con arco y flecha a un blanco. Si la flecha llega a menos de
5cm del centro, se asignan 10 puntos; si esta a mas de 5cm y a menos de 15cm, se le asignan
5 puntos; y si esta a mas de 15cm y menos de 25cm, se le asignan 3 puntos. En otro caso,
no se asignan puntos. Calcule la cantidad esperada de puntos que obtiene la persona, si se
sabe que la distancia de la flecha al centro del blanco se distribuye uniformemente entre
0cm y 50cm.
(b) Sean X e Y variables independientes con distribucion normal estandar. Sean U = X y
V = X/Y .
1) (1,5 ptos.) Muestre que
2 2
|u|eu (1+1/v )/2
fU,V (u, v) = .
2v 2
2) (1,5 ptos.) Muestre que V = X/Y tiene distribucion de Cauchy, es decir, su densidad
es
1
fV (v) = .
(1 + v 2 )
P2. Decimos que X es una variable aleatoria Gumbel de parametros R y > 0, anotado
X Gumbel(, ), si se tiene
(x)/
FX (x) = ee , x R.
(a) (1,5 ptos.) Muestre que MX (t) = et (1 t), donde la funcion esta dada por
Z
() = ez z 1 dz, > 0.
0
(b) (1,5 ptos.) Muestre que E(X) = 0 (1) y var(X) = 2 [00 (1) 0 (1)2 ].
(c) (1,5 ptos.) Dados R y > 0, sea Y = X + . Mueste que Y Gumbel( + , ).
(d) (1,5 ptos.) Sea Y = e(X)/ . Calcule fY . Que variable aleatoria conocida es Y ?
P3. Usted trabaja atendiendo un almacen. Los clientes llegan siguiendo un proceso de Poisson con
tasa de 0,5 clientes por minuto.
(a) (2,0 ptos.) Cual es la probabilidad de que en los proximos 4 minutos lleguen a lo mas 2
clientes?
(b) (2,0 ptos.) Sea T el instante en que llega el primer cliente, y S el tiempo que transcurre
desde T hasta que llega el siguiente cliente. Para 0 t s, muestre que P(T t, s <
T + S) = tes . Indicacion: usando una propiedad conocida, condicione en los posibles
resultados de T ; argumente por que T y S son independientes y utilice este hecho.
Suponga que en el instante 0 usted se ausenta del almacen y vuelve despues de s minutos. Al
volver observa que ha llegado exactamente 1 cliente. Queremos probar que, dado que llego un
solo cliente en [0, s], la variable T se distribuye uniformemente en dicho intervalo.
(c) (2,0 ptos.) Argumente que el evento en que llega un solo cliente en [0, s] corresponde al
evento {T s < T + S}. Para 0 t s, calcule P(T t | llega un solo cliente en [0, s]) y
concluya. Indicacion: utilice la parte anterior.
Ingeniera Matematica
FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-3 Probabilidades y Estadstica, Primavera 2012 Alfredo Torrico
Pauta Control 2
P1. (a) Sea X la variable aleatoria que denota los puntos obtenidos, e Y la distancia de la flecha
al centro del blanco. X es discreta, con RX = {0, 3, 5, 10}, luego
X
E(X) = kpX (k) = 0 pX (0) + 3 pX (3) + 5 pX (5) + 10 pX (10).
kRX
La cantidad pX (10) corresponde a la probabilidad de que el puntaje sea 10, lo que equivale
a la probabilidad de que la flecha este a menos de 5cm del centro. Es decir, pX (10) = P(Y
[0, 5]) = 5/50, donde hemos usado que Y unif(0, 50). Aplicando lo mismo para los otros
posibles puntajes, se obtiene:
E(X) = 0 P(Y [25, 50]) + 3 P(Y [15, 25]) + 5 P(Y [5, 15]) + 10 P(Y [0, 5])
10 10 5
=0+3 +5 + 10
50 50 50
30 + 50 + 50
=
50
13
= .
5
(b) 1) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del cambio de
variables (metodo del jacobiano) nos dice que
En nuestro caso es directo ver que g es su propia inversa, por lo cual g 1 (u, v) = (u, u/v)
y entonces
1 1 0
Jg (u, v) =
1/v u/v 2
y luego |det(Jg 1 (u, v))| = |u|/v 2 . Como X e Y son normales estandar indepen-
dientes, su densidad conjunta es el producto de las densidades marginales, es decir,
2 2
fX,Y (x, y) = (1/2)e(x +y )/2 . Reemplazando todo esto en la formula que entrega el
teorema, obtenemos:
2 2 2 )/2 2 2 )/2
|u|e(u +u /v |u|eu (1+1/v
fU,V (u, v) = = .
2v 2 2v 2
2) Calculemos la densidad marginal de V :
Z
fV (v) = fU,V (u, v)du
2 2
|u|eu (1+1/v )/2
Z
= du
2v 2
Z
1 2 2
= 2
2 ueu (1+1/v )/2 du,
2v 0
donde p
la ultima igualdad se debe a la simetra en u. Hacemos el cambio de variable
w = u 1 + 1/v 2 y de lo anterior se obtiene
2
wew /2
Z
1 dw
fV (v) =
v 2
p p
1 + 1/v 2 1 + 1/v 2
0
Z
1 2
= wew /2 dw
(1 + v 2 ) 0
1
= ,
(1 + v 2 )
2 /2
donde la ultima integral vale 1, pues corresponde a ew evaluado en 0 e . Luego,
V es una variable con distribucion de Cauchy.
(b) Derivemos MX :
dMX
(t) = et (1 t) et 0 (1 t).
dt
Derivando nuevamente:
d2 MX
(t) = 2 et (1 t) et 0 (1 t) et 0 (1 t) + 2 et 00 (1 t).
dt2
Recordemos que (n) = (n 1)! para n N \ {0}, en particular (1) = 1 (tambien puede
obtenerse evaluando la intergral que define ). Evaluando en t = 0 las derivadas anteriores,
obtenemos los momentos de X de orden 1 y 2:
dMX
E(X) = (0) = (1) 0 (1) = 0 (1),
dt
d2 MX
E(X 2 ) = (0) = 2 (1) 20 (1) + 2 00 (1) = 2 20 (1) + 2 00 (1).
dt2
2
Finalmente, obtenemos la varianza:
(c) Calculemos FY :
FY (y) = P(X + y)
= P(X (y )/)
= FX ((y )/)
y
( )/
= ee
(y[+])/()
= ee ,
FY (y) = P(e(X)/ y)
= P(X log y)
= 1 FX ( log y)
([ log y])/
= 1 ee
= 1 ey .
P3. (a) Llamemos Nt al proceso de Poisson que representa la llegada de los clientes, es decir, Nt
es la cantidad de clientes que han llegado al almacen hasta el tiempo t. La probabilidad
buscada corresponde a P(N4 {0, 1, 2}). Sabemos que Nt Poisson(t), luego N4 es una
variable Poisson de parametro 0,5 4 = 2. Entonces:
3
(b) Siguiendo la indicacion, tenemos:
Z
P(T t, s < T + S) = P(T t, s < T + S | T = x)fT (x)dx
Z
= P(x t, s < x + S | T = x)ex dx,
0
donde en el ultimo paso hemos utilizado que T exp(). Notemos que S y T son indepen-
dientes, pues corresponden a los tiempos que transcurren entre dos eventos consecutivos en
un proceso de Poisson (los cuales son independientes por definicion). Luego, la probabilidad
dentro de la integral no depende de la condicion T = x. Ademas, dicha probabilidad vale 0
si x > t, y vale P(s x < S) si x t. Usando que S tambien es una variable exponencial
de parametro , obtenemos lo buscado:
Z t
P(T t, s < T + S) = P(s x < S)ex dx
0
Z t
= e(sx) ex dx
0
Z t
= es dx
0
= tes .
(c) Que llegue un solo cliente en [0, s] significa que el primer cliente llego en el tiempo s o antes,
(lo cual corresponde al evento T s), y que el segundo cliente llego despues del tiempo s
(correspondiente al evento s < T + S, pues T + S es el instante en que llega el segundo
cliente). Tenemos entonces:
tes t
P(T t | llega un solo cliente en [0, s]) = s
= .
se s
Como funcion de t (s esta fijo), lo anterior corresponde exactamente a la funcion de distri-
bucion acumulada de una variable uniforme en el intervalo [0, s]. Luego, condicional en que
llegue un solo cliente en [0, s], la variable T tiene distribucion uniforme en [0, s].
4
Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-5 Probabilidades y Estadstica
Otoo 2013
Alfredo Torrico
Control 2
13 de mayo de 2013
Tiempo: 3 horas
P1. (a) (2,0 ptos.) Sean X unif(0, 1), Y exp(1) variables independientes. Sean U = X + Y ,
V =X Y . Muestre que
ueu/(v+1)
si 0 < u 1 + 1/v y 0 < v
(
(v+1)2
fU,V (u, v) =
0 en otro caso.
(b) En un banco llegan clientes siguiendo un proceso de Poisson con tasa = 3 clientes por
minuto. Adems, cada una de las 4 cajas disponibles atiende clientes siguiendo un proceso de
Poisson (independiente a la llegada de los clientes al banco y de las otras cajas), de manera
que el valor esperado del tiempo que un cliente tarda en una caja es de 2 minutos.
1) (1,0 pto.) Cul es la probabilidad de que en 2 minutos lleguen exactamente 4 clientes?
2) (1,0 pto.) Cul es la tasa de atencin conjunta de las cajas?
3) (2,0 ptos.) Suponga que surge una falla en el sistema computacional del banco, por
lo cual las cajas dejan de atender clientes. El tiempo que tarda el sistema en volver a
funcionar es una variable exponencial de parmetro = 0,2. Cul es el valor esperado
de la cantidad de clientes que llegan al banco durante la falla del sistema?
P2. Sea X variable aleatoria de Frchet de parmetros > 0 y s > 0, anotado X Frchet(, s). Es
decir, su densidad es
x (+1) (x/s)
fX (x) = e 1[0,) (x).
s s
(a) (1,5 ptos.) Muestre que FX (x) = e(x/s) 1[0,) (x). Muestre que la mediana de X es
(b) (2,0 ptos.) Muestre que la distribucin gamma es estable bajo sumas. Es decir: dadas X e
Y variables independientes tales que X gamma(, ) e Y gamma(, ), pruebe que
Z = X + Y tambin es una variable gamma. De qu parmetros? En el caso en que y
son nmeros naturales, argumente por qu este resultado era esperable.
(c) (2,0 ptos.) Sean X , Y variables aleatorias con densidad conjunta fX,Y (x, y) = 2(x + y)
cuando 0 < x < 1, 0 < y < x, y fX,Y (x, y) = 0 en otro caso. Calcule las densidades
marginales de X e Y . Son independientes? Explique.
Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Francisco Castro
MA3403-5 Probabilidades y Estadstica
Otoo 2013
Alfredo Torrico
Pauta control 2
P1. (a) Podemos escribir (U, V ) = g(X, Y ), con g(x, y) = (x + y, x/y). Por el mtodo del jacobiano,
la densidad conjunta de U y V viene dada por la frmula
Notemos que U y V son variables mayores que 0, pues X e Y lo son. Resolviendo el sistema
(u, v) = (x + y, x/y) para x e y , se llega a
uv u
(x, y) = ( , ) = g 1 (u, v).
v+1 v+1
Calculemos el jacobiano de esta funcin:
" #
uv uv v u
1 u v+1 v v+1 v+1 (v+1)2
Jg (u, v) = u u = 1 u ,
u v+1 v v+1 v+1 (v+1)2
y entonces
1
uv u u
| det Jg (u, v)| = 3
= .
(v + 1) (v + 1) (v + 1)2
3
La segunda indicatriz vale 1 para cualquier par de valores (u, v) mayores que 0. Para que la
primera indicatriz valga 1 debe cumplirse que 0 v+1
uv
1, lo cual ocurre (para u, v > 0) si
y slo si u 1 + 1/v . Por lo tanto:
ueu/(v+1)
si 0 < u 1 + 1/v y 0 < v
(
(v+1)2
fU,V (u, v) =
0 en otro caso.
(b) 1) Sabemos que la cantidad de clientes que llegan en 2 minutos es una variable de Poisson
de parmetro 2 = 6. Luego, la probabilidad buscada es:
64
P(Poiss(6) = 4) = e6 = 54e6 .
4!
2) Sabemos que el tiempo promedio que tarda un cliente en ser atendido, lo cual correspon-
de a una variable exp() para cierto , es de 2 minutos. Como el valor esperado de esta
variable es 1/ , se tiene que = 0,5, es decir, cada caja atiende a tasa de 0,5 clientes
por minuto. Por lo visto en clases, la suma de procesos de Poisson independientes es
un nuevo proceso de Poisson, cuya tasa es la suma de las tasas. En nuestro caso, son 4
cajas, por lo cual la tasa de atencin conjunta es 4 = 2 clientes por minuto.
3) Sea S el tiempo que dura la falla. Condicionando en el resultado de S , tenemos:
Z Z
E(X) = E(X|S = s)fS (s)ds = E(X|S = s)es ds.
0
Al condicionar en el evento {S = s}, la duracin de la falla est ja. Luego, dado que
la llegada de clientes es un proceso de Poisson con tasa , en el evento {S = s} se
tiene que X Poiss(s). Por lo tanto, E(X|S = s) = E(Poiss(s)) = s. Obtenemos
entonces: Z Z
E(X) = ses ds = (s)es ds = = 15,
0 0
donde hemos usado que la integral vale 1 pues el integrando es la densidad de una
variable gamma de parmetros y = 2.
(+1)
(a) Es directo ver que e(x/s) es la primitiva de s xs e(x/s) . Sabiendo que FX (x) =
P2.
1/2 = P(X m) = FX (m) = e(m/s) .
Despejando m, obtenemos:
m = s[ log(1/2)]1/ = s log(2)1/ .
donde en el ltimo paso hemos utilizado el hecho que P(U u) = u para u [0, 1].
Hemos obtenido entonces que FY coincide con la distribucin acumulada de X , es decir,
Y Frchet(, s).
(d) Usando el hecho que mn(a, b) c si y slo si a c y b c, tenemos para z > 0:
2
P3. (a) Sea X la cantidad de personas que se lleva su chaqueta. Supongamos que las personas estn
etiquetadas con los ndices {1, . . . , n}. Para un tal i, consideremos el evento Ei en que la
i-sima persona se lleva su propia chaqueta. Es directo que X = 1E1 + + 1En . Adems,
la cantidad de permutaciones de los ndices que dejan ja la i-sima coordenada es (n 1)!,
con lo cual se obtiene
(n 1)! 1
P(Ei ) = = .
n! n
Esto vale para todo i. Aplicando linealidad de la esperanza y recordando que para cualquier
evento E se tiene que E(1E ) = P(E), obtenemos:
1 1
E(X) = E(1E1 ) + + E(1En ) = P(E1 ) + + P(En ) = + + = 1.
n n
Es decir, MZ (t) coindide con la f.g.m. de una variable gamma de parmetros + y . Dado
que la f.g.m. caracteriza la distribucin de la variable, necesariamente Z gamma( + , ).
Cuando y son nmeros naturales, sabemos que X corresponde a la distribucin de la
suma de variables exponenciales independientes de parmetro ; dem para Y . Luego, al
hacer X + Y estamos sumando + variables exponenciales independientes, lo cual ya
sabemos que tiene ley gamma( + , ).
(c) Calculemos la marginal de X . Para x (0, 1), tenemos:
Z Z x
fX (x) = fX,Y (x, y)dy = 2(x + y)dy = 2x2 + x2 = 3x2 ,
0
mientras que para x / (0, 1) se tiene fX,Y (x, y) = 0, y , y entonces fX (x) = 0. Obtenemos
entonces que fX (x) = 3x2 1(0,1) (x). Calculemos la marginal de Y para y (0, 1):
Z Z 1
fY (y) = fX,Y (x, y)dx = 2(x + y)dx = (1 y 2 ) + 2y(1 y) = 1 + 2y 3y 2 .
y
Nuevamente, para y / (0, 1) la marginal vale 0, con lo cual obtenemos que fY (y) = [1 + 2y
3y 2 ]1(0,1) (y). Notemos que X e Y no son independientes, pues el producto de sus densidades
marginales es 3x2 [1+2y3y 2 ] para x, y (0, 1), lo cual no coincide con la densidad conjunta.
3
Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Mauricio Duarte
MA3403 Probabilidades y Estadstica
Primavera 2013
Joaqun Fontbona
Control 2
28 de octubre de 2013
Tiempo: 3 horas
P1. Sea X una variable Normal estndar, es decir, de media 0 y varianza 1. Considere una variable de Bernoulli
I, con parmetro 12 , es decir P(I = 0) = 12 = P(I = 1). Definamos otra variable Y mediante
I
X si I = 1,
Y =
X si I = 0.
(a) (1,5 ptos.) Son X e Y variables aleatorias independientes? Justifique rigurosamente su respuesta.
(b) (1,5 ptos.) Son I e Y variables aleatorias independientes? Justifique rigurosamente su respuesta.
(c) (1,5 ptos.) Calcule FY (y) y deduzca que Y N (0, 1).
(d) (1,5 ptos.) Muestre que Cov(X, Y ) = 0.
P2. Sea X una variable aleatoria con distribucin de Laplace de parmetros R y b > 0, es decir, su
densidad est dada por
1 |x|
fX (x) = e b x R.
2b
(a) (1,5 ptos.) Muestre que la funcin generadora de momentos de X es MX (t) = et /(1 b2 t2 ) para
|t| < 1/b.
(b) (1,5 ptos.) Calcule la esperanza y varianza de X.
(c) (1,5 ptos.) Suponiendo = 0, calcule la densidad de |X|. Qu variable conocida es |X|?
(d) (1,5 ptos.) Sean Y1 exp(1 ), Y2 exp(2 ) variables independientes. Pruebe que 1 Y1 2 Y2 tiene
distribucin de Laplace con parmetros = 0 y b = 1. Indicacin: obtenga primero las distribuciones
de 1 Y1 y 2 Y2 , y calcule la distribucin de su suma utilizando una propiedad adecuada.
P3. (a) Sean X e Y variables independientes con distribucin normal estndar. Sean U = X y V = X/Y .
1) (1,5 ptos.) Muestre que
2 2
|u|eu (1+1/v )/2
fU,V (u, v) = .
2v 2
2) (1,5 ptos.) Muestre que V = X/Y tiene distribucin de Cauchy, es decir, su densidad es
1
fV (v) = .
(1 + v 2 )
(b) Imagine que buses del Transantiago arriban a cierto paradero de acuerdo a un proceso de Poisson de
intensidad 10 [buses/hora]. Suponga que usted llega a esperar su bus a las 2pm.
1) (1,0 pto.) Cul es la cantidad esperada de buses que pasan en las prximas 2 horas?
2) (1,0 pto.) Si usted espera bus hasta las 3pm, cul es la probabilidad que an deba esperar media
hora ms antes de que un bus pase?
3) (1,0 pto.) Cada bus que pasa viene fuera de servicio con probabilidad p = 0,2, independiente del
resto. Dado t 0, si Nt denota la cantidad de buses en servicio que han pasado hasta el instante
t desde que usted llega, calcule la distribucin de Nt . Qu puede decir sobre el proceso (Nt )t0 ?
Indicacin: para calcular P(Nt = n), condicione en una variable aleatoria adecuada.
Cuadro 1: Resumen distribuciones
nombre parametros notacion tipo soporte distribucion esperanza varianza f.g.m.
pX (0) = 1 p
Bernoulli p 2 (0, 1) X Bernoulli(p) discreta {0, 1} p p(1 p) 1 p + pet
pX (1) = p
n k k
binomial
n 2 N , p 2 (0, 1) X bin(n, p) discreta {0, 1, . . . , n} pX (k) = p (1 p)n np np(1 p) (1 p + pet )n
k
1 1 1 p pet
geometrica discreta pX (k) = (1 p)k p
p p2
p 2 (0, 1) X geom(p) {1, 2, 3, . . .}
1 (1 p)et
k 1 k r r
r r(1 p) pet
binomial
discreta pX (k) = (1 p) p
p
r 2 N , p 2 (0, 1) X BN(r, p) {r, r + 1, . . .}
negativa r 1 p2 1 (1 p)et
r
k
pX (k) = e (et 1)
Poisson >0 discreta e
k!
X Poisson( ) {0, 1, 2, . . .}
x 1 1
exponencial >0 continua fX (x) = e [0,1) (x) 2
X exp( ) [0, 1)
t
8t <
1 (x )2
2 1 2 2
normal >0 ) continua R e 2 2 2 t
2 R, X N (, fX (x) = p et+ 2
2
x 1
e ( x)
gamma > 0, >0 continua fX (x) = [0,1) (x) 2
X gamma(, ) [0, 1)
() t
8t <
Ingeniera Matemtica
FACULTAD DE CIENCIAS FSICAS Y MATEMTICAS
Roberto Cortez
UNIVERSIDAD DE CHILE Mauricio Duarte
MA3403 Probabilidades y Estadstica
Primavera 2013
Joaqun Fontbona
Pauta Control 2
P1. (a) (1,5 ptos.) Recordemos que funciones de v.a. independientes son independientes. Si X e
Y fuesen independientes, tambin lo seran X 2 e Y 2 . Pero estas dos ltimas variables son
iguales, por lo que es imposible que sean independientes.
(b) (1,5 ptos.) Asumimos que X e I son independientes. Dado que la distribucin Normal con
media cero es simtrica, tenemos que
et
Z Z Z
1 |x| |y|
MX (t) = E(etX ) = etx fX (x)dx = etx e b dx = ety e b dy,
2b 2b
Por lo tanto, la primera integral converge cuando t > 1/b, y la segunda converge cuando
t < 1/b. Es decir, MX (t) est bien definida cuando |t| < 1/b. Para un tal t, se tiene entonces:
!
et 1 1 et
MX (t) = 1 1 = .
2b t+ b t b
1 b2 t2
donde la ltima igualdad se obtiene por la simetra del integrando. Derivando con respecto
y
a y, y aplicando el teorema fundamental del Clculo, se llega a que fY (y) = (1/b)e b .
Sabiendo que fY (y) = 0 para y < 0 (pues Y es no-negativa), obtenemos:
1 y
fY (y) = e b 1[0,) (y).
b
Es decir, Y = |X| tiene distribucin exponencial de parmetro 1/b.
(d) (1,5 ptos.) Calculemos las densidades de U = 1 Y1 y V = 2 Y2 :
u 1
FU (u) = P(U u) = P(1 Y1 u) = P(Y1 u/1 ) = 1 e 1 = 1 eu ,
lo cual vale para u 0. Derivando, se obtiene que fU (u) = eu 1[0,) . Similarmente para
V:
v
FV (v) = P(V v) = P(2 Y2 v) = P(Y2 v/2 ) = e 2 2 = ev ,
vlido para v 0. Derivando, se llega a fV (v) = ev 1(,0] (v). Sea Z = 1 Y1 2 Y2 = U +V .
Como U y V son independientes (pues Y1 y Y2 lo son), se tiene que la densidad de su suma
es la convolucin de sus densidades, es decir:
Z Z
fZ (z) = (fU fV )(z) = fU (z w)fV (w)dw = e(zw) 1[0,) (z w)ew 1(,0] (w)dw
Adems: (
z si z 0
z + 2 mn(0, z) =
z si z < 0.
Por lo tanto, z + 2 mn(0, z) = |z|. Con esto se obtiene que fZ (z) = (1/2)e|z| para todo
z R, concluyendo que Z = 1 Y1 2 Y2 es una variable de Laplace con parmetros = 0
y b = 1.
2
Una forma alternativa de probar lo pedido es la siguiente: de los clculos previos, es claro
que U y V tienen distribucin exponencial de parmetro 1, luego MU (t) = 1/(1 t) y
1
MV (t) = E(etV ) = E(e(t)(V ) ) = MV (t) = MU (t) = .
1+t
Como U y V son independientes, la f.g.m. de Z = U + V es el producto de las f.g.m.s, con
lo cual obtenemos
1 1 1
MZ (t) = = ,
1t 1+t 1 t2
la cual es la f.g.m. de una variable de Laplace con parmetros = 0 y b = 1. Como la
f.g.m. caracteriza la distribucin de una variable aleatoria, necesariamente Z posee dicha
distribucin.
P3. (a) 1) (1,5 ptos.) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del
cambio de variables (mtodo del jacobiano) nos dice que
En nuestro caso es directo ver que g es su propia inversa, por lo cual g 1 (u, v) = (u, u/v)
y entonces " #
1 1 0
Jg (u, v) =
1/v u/v 2
y luego |det(Jg 1 (u, v))| = |u|/v 2 . Como X e Y son normales estndar indepen-
dientes, su densidad conjunta es el producto de las densidades marginales, es decir,
2 2
fX,Y (x, y) = (1/2)e(x +y )/2 . Reemplazando todo esto en la frmula que entrega el
teorema, obtenemos:
2 2 2 )/2 2 2 )/2
|u|e(u +u /v |u|eu (1+1/v
fU,V (u, v) = = .
2v 2 2v 2
2) (1,5 ptos.) Calculemos la densidad marginal de V :
Z
fV (v) = fU,V (u, v)du
2 2
|u|eu (1+1/v )/2
Z
= du
2v 2
Z
1 2 (1+1/v 2 )/2
= 2 ueu du,
2v 2 0
Buscamos P(Nt = k|Bt = n), la probabilidad de que entre n buses que han pasado, una
cantidad n k hayan sido defectuosos. Como los buses son independientes en cuanto a
ser defectuosos o no, esta probabilidad equivale a un muestreo sin orden y sin reposicin
un subconjunto de buses de tamao n k entre n, con probabilidad de xito (ser
defectuoso) igual a p. Entonces
! !
n n nk
P(Nt = k|Bt = n) = pnk (1 p)k = p (1 p)k .
nk k
As
X
P(Nt = k) = P(Nt = k|Bt = n)P(Bt = n)
n=k
!
n nk (10t)n
(1 p)k e10t
X
= p
n=k
k n!
n! (10t)nk (10t)k
pnk (1 p)k e10t
X
=
n=k
k!(n k)! n!
(1 p)k (10t)k 10t X pnk
= e (10t)nk
k! n=k
(n k)!
(1 p)k (10t)k 10t X (10pt)n
= e
k! n=0
(n)!
(1 p)k (10t)k 10t 10pt
= e e
k!
(10(1 p)t)k 10(1p)t
= e .
k!
4
Como p = 0,8, tenemos que Nt Poisson(8t).
Es claro que Nt+s Nt depende exclusivamente de los buses que pasan entre tiempo t
y t + s, los cuales operan independientemente de Nt , luego Nt+s Nt es independiente
de Nt . Adems, repitiendo el argumento de antes,
X
P(Nt+s Nt = k) = P(Nt+s Nt = k|Bt+s Bt = n)P(Bt+s Bt = n)
n=k
!
n nk (10s)n
(1 p)k e10s
X
= p
n=k
k n!
(10(1 p)s)k 10(1p)s
= e ,
k!
es decir P(Nt+s Nt = k) = P(Ns = k).
Concluimos que Nt es un proceso de Poisson de intensidad 10p = 8.