PROBABILIDAD (4) Esperanza Matemática

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 20

PROBABILIDAD 4.

Esperanza Matemática

4. ESPERANZA MATEMÁTICA

EL VALOR ESPERADO DE UNA VARIABLE ALEATORIA

Definición Si x es una variable aleatoria discreta y f(x) es el valor de su distribución


de probabilidad, el valor esperado (esperanza matemática) de la variable
aleatoria x está dado por

𝐸(𝑥) = ∑∀𝑥 𝑥𝑓(𝑥) → discreta

Así mismo, si x es una variable aleatoria continua y f(x) es el valor de su densidad


de probabilidad, entonces su valor esperado es

𝐸(𝑥) = ∫∀𝑥 𝑥𝑓(𝑥)𝑑𝑥 → continua

EJEMPLO Ciertas mediciones codificadas del diámetro de avance de la cuerda de


un ajuste, tienen la densidad de probabilidad

4
𝑓(𝑥) = , 0<𝑥<1
𝜋(1 + 𝑥 2 )

Determinar el valor esperado de esta variable aleatoria.


1 1
4𝑥 4 𝑥
𝐸(𝑥) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 = ∫ 2
𝑑𝑥 = ∫ 𝑑𝑥
𝜋(1 + 𝑥 ) 𝜋 (1 + 𝑥 2 )
∀𝑥 0 0
1
4 2𝑥 2 2 |1
2 ln 2 ln 1 ln 4
= ∫ 𝑑𝑥 = ln|1 + 𝑥 0 = − = ≈ 0.4413
2𝜋 𝜋(1 + 𝑥 2 ) 𝜋 𝜋 𝜋 𝜋
0

M.C. Azucena Ríos 57


PROBABILIDAD 4. Esperanza Matemática
EJEMPLO Determinar el valor esperado de la variable aleatoria x, que tiene la
distribución de probabilidad
|𝑥 − 2|
𝑓(𝑥) = , 𝑥 = −1, 0, 1, 3
7
𝐸(𝑥)= ∑∀𝑥 𝑥𝑓(𝑥)

|−1−2| 3 3 2 1 1
𝑓(−1) = =7 → 𝐸(𝑥) = (−1) (7) + (0) (7) + (1) (7) + (3) (7)
7

2 3 1 3
𝑓(0) = 7 𝐸(𝑥) = − (7) + (7) + (7)
1
𝑓(1) = 7 𝐸(𝑥) = 1/7
1
𝑓(3) = 7

PROPIEDADES DEL VALOR ESPERADO

1. ∑∀𝑥 𝑔(𝑥)𝑓(𝑥), 𝑠𝑖 𝑥 𝑒𝑠 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎


𝐸[𝑔(𝑥)] =
∫ 𝑔(𝑥)𝑓(𝑥)𝑑𝑥 , 𝑠𝑖 𝑥 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎
∀𝑥

2. 𝐸(𝑎𝑥) = 𝑎 𝐸(𝑥), 𝑐𝑜𝑛 𝑎 = 𝑐𝑡𝑒.


3. 𝐸(𝑏) = 𝑏, 𝑐𝑜𝑛 𝑏 = 𝑐𝑡𝑒.
4. 𝐸(𝑎𝑥 + 𝑏) = 𝑎 𝐸(𝑥) + 𝑏
5. 𝐸(∑𝑛𝑖=1 𝑎𝑖 𝑥𝑖 ) = ∑𝑛𝑖=1 𝑎𝑖 𝐸(𝑥𝑖 )
6. 𝐸(∑𝑛𝑖=1 𝐶𝑖 𝑔𝑖 (𝑥)) = ∑𝑛𝑖=1 𝐶𝑖 𝐸(𝑔𝑖 (𝑥))

EJEMPLOS
1) Si x es el número de puntos obtenidos con un dado equilibrado, determinar
el valor esperado de la variable aleatoria 𝑔(𝑥) = 2𝑥 2 + 1.

M.C. Azucena Ríos 58


PROBABILIDAD 4. Esperanza Matemática
Si definiéramos el experimento como el lanzamiento del dado equilibrado,
entonces la variable aleatoria X mide el resultado del experimento, es decir,
los puntos obtenidos de modo que los posibles valores de la variable x serían
1, 2, …, 6.

Por otro lado, aunque no se proporciona la distribución de probabilidad, con


la información que se tiene, es fácil ver que se puede proponer la distribución:
1
𝑓(𝑥) = 𝑥 = 1, 2, … , 6
6

Ahora, usando las propiedades del valor esperado se tiene que:


𝐸(𝑔(𝑥)) = 𝐸(2𝑥 2 + 1) = 2𝐸(𝑥 2 ) + 1 =∗

Si se calcula por separado 𝐸(𝑥 2 ) se tiene que:


6 6
2) 2
1 1 2
1
𝐸(𝑥 = ∑ 𝑥 𝑓(𝑥) = ∑ 𝑥 = ∑ 𝑥 2 = (12 + 22 + ⋯ + 62 )
6 6 6
∀𝑥 𝑥=1 𝑥=1
1 1 91
= (1 + 4 + 9 + 16 + 25 + 36) = (91) =
6 6 6
Entonces
91 94
𝐸(𝑔(𝑥)) = 2 ( ) + 1 =
6 3

2) Si x tiene la densidad de probabilidad

𝑓(𝑥) = 𝑒 −𝑥 , 𝑥>0
3𝑥
determinar el valor esperado de la variable aleatoria 𝑔(𝑥) = 𝑒 4 .

3𝑥 3𝑥 +∞ 3𝑥 𝑏 −𝑥
𝐸(𝑔(𝑥)) = 𝐸 (𝑒 4 ) =∫ 𝑒 4 𝑓(𝑥)𝑑𝑥 = ∫ 𝑒 4 𝑒 −𝑥 𝑑𝑥 = lim ∫ 𝑒 4 𝑑𝑥
∀𝑥 0 𝑏→+∞ 0
−𝑥 𝑏 −𝑏
= lim −4 𝑒 4 ] = lim −4 [𝑒 4 − 1] = −4[0 − 1] = 4
𝑏→+∞ 0 𝑏→+∞

3) Si la densidad de probabilidad de x está dada por

𝑓(𝑥) = 2(1 − 𝑥), 0<𝑥<1


2
demostrar que 𝐸(𝑥 𝑟 ) = (𝑟+1)(𝑟+2) y utilizar este resultado para evaluar
𝐸[(2𝑥 + 1)2 ].

M.C. Azucena Ríos 59


PROBABILIDAD 4. Esperanza Matemática
1 1 1
𝑟) 𝑟 𝑟 𝑟+1
𝑥 𝑟+1 𝑥 𝑟+2
𝐸(𝑥 = ∫ 𝑥 2(1 − 𝑥)𝑑𝑥 = 2 ∫(𝑥 − 𝑥 )𝑑𝑥 = 2 [ − ]
𝑟+1 𝑟+2 0
0 0
𝑟+2−𝑟−1 2
= 2[ ]=
(𝑟 + 1)(𝑟 + 2) (𝑟 + 1)(𝑟 + 2)
2 2
→ 𝐸[(2𝑥 + 1)2 ] = 𝐸[4𝑥 2 + 4𝑥 + 1] = 4𝐸(𝑥 2 ) + 4𝐸(𝑥) + 1 = 4 [ ]+ 4[ ]+1
3(4) 2(3)
2 4 3 9
= + + = =3
3 3 3 3

TEOREMA Si X y Y son variables aleatorias discretas y 𝑓(𝑥, 𝑦) es el valor de su


distribución de probabilidad conjunta en (𝑥, 𝑦), el valor esperado de la variable
aleatoria 𝑔(𝑥, 𝑦) está dado por

𝐸[𝑔(𝑥, 𝑦)] = ∑ ∑ 𝑔(𝑥, 𝑦)𝑓(𝑥, 𝑦)


∀𝑥 ∀𝑦

Así mismo, si x y y son variables aleatorias continuas y 𝑓(𝑥, 𝑦) es el valor de su


densidad conjunta en (𝑥, 𝑦), el valor esperado de la variable aleatoria 𝑔(𝑥, 𝑦) esta
dado por

𝐸[𝑔(𝑥, 𝑦)] = ∫ ∫ 𝑔(𝑥, 𝑦)𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦


∀𝑥 ∀𝑦

EJEMPLO Si la densidad conjunta de x y y está dada por

2
𝑓(𝑥, 𝑦) = 7 (𝑥 + 2𝑦), 0 < 𝑥 < 1, 1 < 𝑦 < 2

𝑥
Obtener el valor esperado de 𝑔(𝑥, 𝑦) = 𝑦 3 .

1 2
𝑥 𝑥 𝑥 2
𝐸(𝑔(𝑥, 𝑦)) = 𝐸 ( 3 ) = ∬ 3 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ ∫ 3 (𝑥 + 2𝑦) 𝑑𝑦 𝑑𝑥
𝑦 𝑦 𝑦 7
∀(𝑥,𝑦) 0 1

1 2 1 𝑦=2 1
2 𝑥 2 2𝑥 2 −𝑥 2 2𝑥 2 −𝑥 2 2𝑥 −𝑥 2
= ∫ ∫ ( 3 + 2 ) 𝑑𝑦 𝑑𝑥 = ∫ [ 2 − ] 𝑑𝑥 = ∫ [( − )−( − 2𝑥)] 𝑑𝑥
7 𝑦 𝑦 7 2𝑦 𝑦 𝑦=1 7 8 2 2
0 1 0 0

1 1
2 3 2 1 𝑥2 2 1 1 5
= ∫ ( 𝑥 2 + 𝑥) 𝑑𝑥 = [ 𝑥 3 + ] = [( + ) − (0)] =
7 8 7 8 2 0 7 8 2 28
0

M.C. Azucena Ríos 60


PROBABILIDAD 4. Esperanza Matemática

EJEMPLO La distribución de probabilidad conjunta de x, y y z está dada por


1
𝑓(𝑥, 𝑦, 𝑧) = 54 𝑥𝑦𝑧
x = 1, 2
y = 1, 2, 3
z = 1, 2

determinar el valor esperado de la variable aleatoria 𝑥 + 𝑦 + 𝑧


1 2
𝑓(1, 1, 1) = 54 𝑓(2, 1, 1) = 54
2 4
𝑓(1, 1, 2) = 𝑓(2, 1, 2) =
54 54
2 4
𝑓(1, 2, 1) = 54 𝑓(2, 2, 1) = 54
4 8
𝑓(1, 2, 2) = 54 𝑓(2, 2, 2) = 54
3 6
𝑓(1, 3, 1) = 54 𝑓(2, 3, 1) = 54
6 12
𝑓(1, 3, 2) = 54 𝑓(2, 3, 2) = 54

1
𝐸[(𝑥 + 𝑦 + 𝑧)] = ∑ ∑ ∑(𝑥 + 𝑦 + 𝑧)𝑓(𝑥, 𝑦, 𝑧) = ∑ ∑ ∑(𝑥 + 𝑦 + 𝑧) 𝑥𝑦𝑧
54
∀𝑥 ∀𝑦 ∀𝑧 ∀𝑥 ∀𝑦 ∀𝑧
1
= [(3)(1) + (4)(2) + (4)(2) + (5)(4) + (5)(3) + (6)(6) + (4)(2) + (5)(4)
54
+ (5)(4) + (6)(8) + (6)(6) + (7)(12)]

1 306 17
= [3 + 8 + 8 + 20 + 15 + 36 + 8 + 20 + 20 + 48 + 36 + 84] = =
54 54 3

EJEMPLO La probabilidad de que el Sr. Juan Pérez venda parte de una propiedad
con ganancia de $3,000 es 3/20, la probabilidad de que su ganancia sea de $1,500
es 7/20, la probabilidad de que quede “tablas” es 7/20 y la probabilidad de que salga
perdiendo $1,500 es 3/20. ¿Cuál es su ganancia esperada?
x→ ganancia de la venta de la propiedad
X=3000, 1500, 0, -1500

3 7 7 3
𝐸(𝑥) = ∑ 𝑥𝑓(𝑥) = (3000) ( ) + (1500) ( ) + (0) ( ) + (−1500) ( )
20 20 20 20
∀𝑥
900 1050 450 1500
= + +0− = = 750
2 2 2 2
La ganancia esperada del Sr. Juan Pérez es $750

M.C. Azucena Ríos 61


PROBABILIDAD 4. Esperanza Matemática

MOMENTOS

Definición Si se tiene que x es una variable aleatoria discreta, entonces a la


expresión dada por

𝜇𝑟´ = 𝐸(𝑥 𝑟 ) = ∑ 𝑥 𝑟 𝑓(𝑥) 𝑝𝑎𝑟𝑎 𝑥 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎


∀𝑥

se llama r-ésimo momento con respecto al origen.


Análogamente, si x es una variable aleatoria continua, entonces el r-ésimo momento
con respecto al origen (momento central), está dado por

𝜇𝑟´ = 𝐸(𝑥 𝑟 ) = ∫ 𝑥 𝑟 𝑓(𝑥)𝑑𝑥 𝑝𝑎𝑟𝑎 𝑥 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎


∀𝑥

Por otro lado, el r-ésimo momento con respecto a la media de una variable
aleatoria x, denotada por 𝜇𝑟 , esta dado por

∑∀𝑥(𝑥 − 𝜇)𝑟 𝑓(𝑥), 𝑠𝑖 𝑥 𝑒𝑠 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎


𝜇𝑟 = 𝐸[(𝑥 − 𝜇)𝑟 ] =
∫ (𝑥 − 𝜇)𝑟 𝑓(𝑥)𝑑𝑥 , 𝑠𝑖 𝑥 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎
∀𝑥

Del mismo modo, se pueden definir los r-ésimos momentos muestrales con
respecto al origen y con respecto a la media, de la siguiente manera
∑𝑛𝑖=1 𝑥𝑖𝑟
𝑚𝑟′ = → 𝑟 − é𝑠𝑖𝑚𝑜 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙 𝑐𝑜𝑛 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑜 𝑎𝑙 𝑜𝑟𝑖𝑔𝑒𝑛
𝑛
∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )𝑟
𝑚𝑟 = 𝑟 − é𝑠𝑖𝑚𝑜 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙 𝑐𝑜𝑛 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑜 𝑎 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎
𝑛

Observación:

𝜇1´ = 𝐸(𝑥) = 𝜇 𝑒𝑠 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎 𝑥

𝜇2 = 𝑉(𝑥) = 𝐸[(𝑥 − 𝜇)2 ] = 𝜎 2 𝑒𝑠 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎 𝑥


∑𝑛
𝑖=1 𝑥𝑖
𝑚1′ = = 𝑥̅ 𝑒𝑠 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙
𝑛

∑𝑛
𝑖=1(𝑥𝑖 −𝑥̅ )
2
𝑚2 = = 𝜎̂ 2 𝑒𝑠 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑙
𝑛

M.C. Azucena Ríos 62


PROBABILIDAD 4. Esperanza Matemática

TEOREMA Sea x una variable aleatoria con media 𝜇 = 𝐸(𝑥) entonces

𝑉(𝑥) = 𝐸(𝑥 2 ) − [𝐸(𝑥)]2

𝑉(𝑥) = 𝐸[(𝑥 − 𝜇)2 ] = 𝐸[𝑥 2 − 2𝜇𝑥 + 𝜇 2 ] = 𝐸(𝑥 2 ) − 2𝜇𝐸(𝑥) + 𝜇 2 = 𝐸(𝑥 2 ) − 2𝜇𝜇 + 𝜇 2

= 𝐸(𝑥 2 ) − 2𝜇 2 + 𝜇 2 = 𝐸(𝑥 2 ) − 𝜇 2 = 𝐸(𝑥 2 ) − [𝐸(𝑥)]2

EJEMPLO Dadas las mediciones de diámetros de una cuerda, con densidad de


probabilidad
4
𝑓(𝑥) = 𝜋(1+𝑥 2) 0<𝑥<1

Determinar la desviación estándar de la variable aleatoria x


ln 4
𝜇 = 𝜇1´ = 𝐸(𝑥) = = 0.441
𝜋

𝜇2´ = 𝐸(𝑥 2 ) = ∫ 𝑥 2 𝑓(𝑥)𝑑𝑥 =


∀𝑥
1 1
4 4 𝑥2
= ∫ 𝑥2 𝑑𝑥 = ∫ 𝑑𝑥
𝜋(1 + 𝑥 2 ) 𝜋 (1 + 𝑥 2 )
0 0
1
4 1 4 4 𝜋 4
= ∫ [1 − 2
] 𝑑𝑥 = [𝑥 − tan−1 𝑥]10 = [1 − ] = − 1
𝜋 (1 + 𝑥 ) 𝜋 𝜋 4 𝜋
0
≈ 0.2732

𝜎 2 = 𝑉(𝑥) = 𝐸(𝑥 2 ) − [𝐸(𝑥)]2 = (0.2732) − (0.441)2 = 0.079

𝜎 = √0.079 = 0.28

TEOREMA Si denotamos por 𝜎 2 a la varianza de la variable aleatoria X entonces

𝑽(𝒂𝑿 + 𝒃) = 𝒂𝟐 𝑽(𝑿)

𝐸(𝑎𝑥 + 𝑏) = 𝑎𝐸(𝑥) + 𝑏 = 𝑎𝜇 + 𝑏

𝑣(𝑎𝑥 + 𝑏) = 𝐸[(𝑎𝑥 + 𝑏) − (𝑎𝜇 + 𝑏)]2 = 𝐸[(𝑎𝑥 + 𝑏 − 𝑎𝜇 − 𝑏)2 ] = 𝐸[(𝑎𝑥 − 𝑎𝜇)2 ]

= 𝐸[𝑎2 (𝑥 − 𝜇)2 ] = 𝑎2 𝐸[(𝑥 − 𝜇)2 ] = 𝑎2 𝜎 2

M.C. Azucena Ríos 63


PROBABILIDAD 4. Esperanza Matemática

PROPIEDADES DE LA VARIANZA
Corolarios: Propiedades de la varianza

1) 𝑉(𝑎𝑥) = 𝑎2 𝑉(𝑥)
2) 𝑉(𝑏) = 0
3) 𝑉[ ∑ 𝑥𝑖 ] ≠ ∑ 𝑉(𝑥𝑖 )

TEOREMA DE CHEBYSHEV
Si 𝜇 𝑦 𝜎 representan la media y la desviación estándar de la variable aleatoria X,
entonces, para una constante positiva k, se tiene que
1
𝑃(|𝑥 − 𝜇| ≤ 𝑘𝜎) > 1 −
𝑘2

𝜇 − 𝑘𝜎 𝜇 𝜇 + 𝑘𝜎

EJEMPLO Si la densidad de probabilidad de la variable aleatoria x, está dado por

𝑓(𝑥) = 630𝑥 4 (1 − 𝑥)4 0<𝑥<1

Determinar la probabilidad de que x tome un valor contenido en dos desviaciones


estándar de la media y compárela con el límite inferior proporcionado, por el teorema
de Chebyshev.

M.C. Azucena Ríos 64


PROBABILIDAD 4. Esperanza Matemática
1 1

𝜇 = 𝐸(𝑥) = ∫ 630𝑥 5 (1 − 𝑥)4 𝑑𝑥 = 630 ∫ 𝑥 5 (1 − 4𝑥 + 6𝑥 2 − 4𝑥 3 + 𝑥 4 ) 𝑑𝑥


0 0
1

= 630 ∫(𝑥 5 − 4𝑥 6 + 6𝑥 7 − 4𝑥 8 + 𝑥 9 ) 𝑑𝑥
0
1
𝑥 6 4𝑥 7 3𝑥 8 4𝑥 9 𝑥10
= 630 [ − + − + ]
6 7 4 9 10 0
210 − 720 + 945 − 560 + 126 630 1
= 630 [ ]= =
2∗2∗3∗3∗5∗7 2∗2∗3∗3∗5∗7 2
1

𝐸(𝑥 2 ) = 630 ∫ 𝑥 6 (1 − 4𝑥 + 6𝑥 2 − 4𝑥 3 + 𝑥 4 ) 𝑑𝑥
0
1

= 630 ∫(𝑥 6 − 4𝑥 7 + 6𝑥 8 − 4𝑥 9 + 𝑥10 ) 𝑑𝑥


0
1
𝑥 7 𝑥 8 2𝑥 9 2𝑥10 𝑥11
= 630 [ − + − + ]
7 2 3 5 11 0
330 − 1155 + 1540 − 924 + 210 3
= 630 [ ]=
2 ∗ 3 ∗ 5 ∗ 7 ∗ 11 11

3 1 12 − 11 1
𝜎 2 = 𝑉(𝑥) = 𝐸(𝑥 2 ) − [𝐸(𝑥)]2 = − = = → 𝜎 = 0.15
11 4 44 44

𝑃(|𝑥 − 𝜇| ≤ 2𝜎) = 𝑃(−2𝜎 ≤ 𝑥 − 𝜇 ≤ 2𝜎) = 𝑃(−2𝜎 + 𝜇 ≤ 𝑥 ≤ 2𝜎 + 𝜇)


1 1
= 𝑃 ( − 2(. 15) ≤ 𝑥 ≤ + 2(. 15)) = 𝑃(0.2 ≤ 𝑥 ≤ 0.8)
2 2
.8

= ∫ 630𝑥 4 (1 − 4𝑥 + 6𝑥 2 − 4𝑥 3 + 𝑥 4 )𝑑𝑥
.2
.8

= 630 ∫(𝑥 4 − 4𝑥 5 + 6𝑥 6 − 4𝑥 7 + 𝑥 8 ) 𝑑𝑥
.2
.8
𝑥 5 2𝑥 6 6𝑥 7 1𝑥 8 𝑥 9
= 630 [ − + − + ] = 630[1.56(10−3 ) − 3.12(10−5 )]
5 3 7 2 9 .2
= 630[1.53(10−3 )] = 0.963

Usando el teorema de Chebyshev

M.C. Azucena Ríos 65


PROBABILIDAD 4. Esperanza Matemática
1 1
𝑃(|𝑥 − 𝜇| ≤ 2𝜎) > 1 − 22 = 1 − 4 = 0.75

La probabilidad es cuando menos 0.75

M.C. Azucena Ríos 66


PROBABILIDAD 4. Esperanza Matemática
FUNCIONES GENERATRICES DE MOMENTOS

Definición La función generatriz de momentos de la variable aleatoria X, está


dada por

∑∀𝑥 𝑒 𝑡𝑥 𝑓(𝑥), 𝑠𝑖 𝑥 𝑒𝑠 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎


𝑀𝑥(𝑡) = 𝐸(𝑒 𝑡𝑥 ) =
∫ 𝑒 𝑡𝑥 𝑓(𝑥)𝑑𝑥 , 𝑠𝑖 𝑥 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎
∀𝑥

TEOREMA
𝑑 𝑟 𝑀𝑥(𝑡)
| = 𝜇𝑟´ → 𝑒𝑙 r-ésimo momento central
𝑑𝑡 𝑟 𝑡=0

= 𝐸(𝑥 𝑟 )
(𝑡𝑥)2 (𝑡𝑥)3 (𝑡𝑥)𝑟
Dem: Como 𝑒 𝑡𝑥 = 1 + 𝑡𝑥 + + + …+
2! 3! 𝑟!

𝑡2𝑥2 𝑡3𝑥3 𝑡𝑟𝑥𝑟


= 1 + 𝑡𝑥 + + + …+
2! 3! 𝑟!

𝑡2𝑥2 𝑡3𝑥3 𝑡𝑟𝑥𝑟


→ 𝑀𝑥(𝑡) = 𝐸(𝑒 𝑡𝑥 ) = 𝐸 [1 + 𝑡𝑥 + + + …+ +⋯]
2! 3! 𝑟!

𝑡2 𝑡3 𝑡𝑟
= 𝐸(1) + 𝐸(𝑥) + 2! 𝐸(𝑥 2 ) + 3! 𝐸(𝑥 3 ) + ⋯ + 𝑟! 𝐸(𝑥 𝑟 ) + ⋯

𝑑 𝑀𝑥(𝑡) 𝑡2 𝑡 𝑟−1 𝑑𝑀𝑥(𝑡)


= 𝐸(𝑥) + 𝑡 𝐸(𝑥 2 ) + 2! 𝐸(𝑥 3 ) + ⋯ + (𝑟−1)! 𝐸(𝑥 𝑟 ) + ⋯ → | = 𝐸(𝑥)
𝑑𝑡 𝑑𝑡 𝑡=0

𝑑2 𝑀𝑥(𝑡) 𝑡2 𝑡 𝑟−2 𝑑2 𝑀𝑥(𝑡)


= 𝐸(𝑥 2 ) + 𝑡 𝐸(𝑥 3 ) + 2! 𝐸(𝑥 3 ) … + (𝑟−2)! 𝐸(𝑥 𝑟 ) + ⋯ → | = 𝐸(𝑥 2 )
𝑑𝑡 2 𝑑𝑡 2 𝑡=0

𝑑3 𝑀𝑥(𝑡) 𝑡2 𝑡 𝑟−3 𝑑3 𝑀𝑥(𝑡)


= 𝐸(𝑥 3 ) + 𝑡 𝐸(𝑥 4 ) + 2! 𝐸(𝑥 5 ) … + (𝑟−3)! 𝐸(𝑥 𝑟 ) + ⋯ → | = 𝐸(𝑥 3 )
𝑑𝑡 3 𝑑𝑡 3 𝑡=0

Observamos entonces que el r-ésimo momento de la variable aleatoria x está


dado por

M.C. Azucena Ríos 67


PROBABILIDAD 4. Esperanza Matemática
𝑑𝑟 𝑀𝑥(𝑡)
| = 𝐸(𝑥 𝑟 )
𝑑𝑡 𝑟 𝑡=0

Donde:

𝐸(1) = 𝜇0´
𝐸(𝑥) = 𝜇1´
𝐸(𝑥 2 ) = 𝜇2´
𝐸(𝑥 3 ) = 𝜇3´
𝐸(𝑥 𝑟 ) = 𝜇𝑟´

PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS

Si a y b son constantes y 𝑀𝑥 (𝑡) es la generatriz de momentos de la variable


aleatoria x, entonces

1) 𝑴𝒙+𝒂 (𝒕) = 𝐸[𝑒 𝑡(𝑥+𝑎) ] = 𝐸[𝑒 𝑡𝑥+𝑡𝑎 ] = 𝐸[𝑒 𝑎𝑡 𝑒 𝑡𝑥 ] = 𝑒 𝑎𝑡 𝐸(𝑒 𝑡𝑥 ) = 𝒆𝒂𝒕 𝑴𝒙 (𝒕)

2) 𝑴𝒃𝒙 (𝒕) = 𝐸[𝑒 𝑡(𝑏𝑥) ] = 𝐸(𝑒 (𝑏𝑡)𝑥 ) = 𝑴𝒙 (𝒃𝒕)

𝑥+𝑎 𝑡 𝑎 𝑡 𝑎 𝑎 𝑡 𝒂
𝒕
3) 𝑴𝒙+𝒂 (𝒕) = 𝐸 [𝑒 𝑡( )
𝑏 ] = 𝐸 (𝑒 𝑏𝑥+𝑏𝑡 ) = 𝐸 [𝑒 𝑏𝑥 𝑒 𝑏𝑡 ] = 𝑒 𝑏𝑡 𝐸 [𝑒 (𝑏)𝑥 ] = 𝒆𝒃𝒕 𝑴𝒙 (𝒃)
𝒃

EJEMPLO Si X es una variable aleatoria discreta con distribución de probabilidad


dada por

1 3
𝑓(𝑥) = ( ) , 𝑥 = 0, 1, 2, 3
8 𝑥
Determinar la función generatriz de momentos y utilizarla para calcular media y
varianza.
3
𝑡𝑥 )
1 3 1 3 3 3 3
𝑀𝑥 (𝑡) = 𝐸(𝑒 = ∑ 𝑒 𝑓(𝑥) = ∑ 𝑒 𝑡𝑥 ( ) = [1 ( ) + 𝑒 𝑡 ( ) + 𝑒 2𝑡 ( ) + 𝑒 3𝑡 ( )]
𝑡𝑥
8 𝑥 8 0 1 2 3
∀𝑥 𝑥=0
1 3! 3! 3! 3! 1
= [ + 𝑒𝑡 + 𝑒 2𝑡 + 𝑒 3𝑡 ] = [1 + 3𝑒 𝑡 + 3𝑒 2𝑡 + 𝑒 3𝑡 ]
8 0! 3! 1! 2! 2! 1! 3! 0! 8
(1 + 𝑒 𝑡 )3
=
8

M.C. Azucena Ríos 68


PROBABILIDAD 4. Esperanza Matemática
𝑑𝑀(0) 3(1 + 𝑒 𝑡 )2 𝑡 12 3
𝐸(𝑥) = 𝜇1´ = 𝑀𝑥´ (0) = = 𝑒 | = =
𝑑𝑡 8 𝑡=0
8 2

3 3
𝐸(𝑥 2 ) = 𝜇2´ = 𝑀𝑥´´ (0) = [(1 + 𝑒 𝑡 )2 𝑒 𝑡 + 𝑒 𝑡 2(1 + 𝑒 𝑡 )𝑒 𝑡 ]𝑡=0 = (4 + 4) = 3
8 8

2)
3 2 9 3
𝑉(𝑥) = 𝐸(𝑥 − [𝐸(𝑥)]2 = 3−( ) = 3− =
2 4 4

Observación:

𝜇1´ = 𝜇

𝜇2´ = 𝑠𝑖𝑟𝑣𝑒 𝑝𝑎𝑟𝑎 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑟 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎

𝜇3´ = 𝑠𝑒𝑠𝑔𝑜

𝜇4´ = 𝑐𝑢𝑟𝑡𝑜𝑠𝑖𝑠

EJERCICIOS

1. Obtener 𝐸(𝑥) 𝑦 𝑉(𝑥) para una variable aleatoria con distribución

1
𝑓(𝑥) = , 𝑥 = −2, 2
2
2. Determinar 𝐸(𝑥) 𝑦 𝑉(𝑥) para una variable aleatoria de densidad
𝑥
𝑓(𝑥) = , 0<𝑥<2
2

3. Si la variable aleatoria x tiene media 𝜇 y varianza 𝜎 2 , demostrar que la


𝑥−𝜇
variable aleatoria 𝑧 = tiene 𝐸(𝑧) = 0 y 𝑉(𝑧) = 1.
𝜎

Nota*. Proceso de Estandarización.

2
4. Dada la función generatriz de momentos 𝑀𝑥 (𝑡) = 𝑒 3𝑡+8𝑡 de la variable
aleatoria X, determina la función generatriz de momentos de la variable
𝑥−3
aleatoria 𝑧 = y usarla para obtener 𝐸(𝑧) y 𝑉(𝑧).
4

M.C. Azucena Ríos 69


PROBABILIDAD 4. Esperanza Matemática
MOMENTOS DE UN PRODUCTO

Definición El r-ésimo y s-ésimo momento producto con respecto al origen de


´
las variables aleatorias X y Y, representado por 𝜇𝑟,𝑠 , es el valor esperado de 𝑥 𝑟 𝑦 𝑠 ,
y se obtiene mediante

∑∀𝑥 ∑∀𝑦 𝑥 𝑟 𝑦 𝑠 𝑓(𝑥, 𝑦) , 𝑠𝑖 𝑥, 𝑦 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎𝑠


´
𝜇𝑟,𝑠 = 𝐸[𝑥 𝑟 𝑦 𝑠 ] =

∫ ∫ 𝑥 𝑟 𝑦 𝑠 𝑓(𝑥, 𝑦)𝑑𝑦𝑑𝑥 , 𝑠𝑖 𝑥, 𝑦 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎𝑠


∀𝑥 ∀𝑦

Definición El r-ésimo y s-ésimo momento producto con respecto a las medias


de las variables aleatorias X y Y, representado por 𝜇𝑟,𝑠 , es el valor esperado de
(𝑥 − 𝜇𝑥 )𝑟 (𝑦 − 𝜇𝑦 )𝑠 , y se obtiene por

∑∀𝑥 ∑∀𝑦(𝑥 − 𝜇𝑥 )𝑟 (𝑦 − 𝜇𝑦 )𝑠 𝑓(𝑥, 𝑦) , 𝑠𝑖 𝑥, 𝑦 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎𝑠

´
𝜇𝑟,𝑠 = 𝐸[(𝑥 − 𝜇𝑥 )𝑟 (𝑦 − 𝜇𝑦 )𝑠 ] =
∫ ∫ (𝑥 − 𝜇𝑥 )𝑟 (𝑦 − 𝜇𝑦 )𝑠 𝑓(𝑥, 𝑦)𝑑𝑦𝑑𝑥 , 𝑠𝑖 𝑥, 𝑦 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎𝑠
∀𝑥 ∀𝑦

Nota*.
´
𝜇1,0 = 𝜇𝑥
´
𝜇0,1 = 𝜇𝑦

𝜇2,0 = 𝑉(𝑥)

𝜇0,2 = 𝑉(𝑦)

𝜇1,1 = 𝐸[(𝑥 − 𝜇𝑥 )(𝑦 − 𝜇𝑦 )] = 𝐶𝑜𝑣(𝑥, 𝑦)

M.C. Azucena Ríos 70


PROBABILIDAD 4. Esperanza Matemática
Definición La covarianza entre las variables aleatorias X y Y mide la relación o
asociación entre los valores de X y Y. También denotada por 𝜎𝑥𝑦 .

𝐶𝑜𝑣(𝑥, 𝑦) = 𝐸[(𝑥 − 𝜇𝑥 )(𝑦 − 𝜇𝑦 )]

Observación:

Si X → crece y Si X → crece y
o viceversa
Y → crece Y → decrece

➔ Cov(x, y) > 0 ➔ Cov(x, y) < 0

TEOREMA

𝐶𝑜𝑣(𝑥, 𝑦) = 𝐸(𝑥𝑦) − 𝐸(𝑥) 𝐸(𝑦)

EJEMPLO Determinar la covarianza de las dos variables aleatorias cuya densidad


conjunta está dada por:

𝑓(𝑥, 𝑦) = 2, 𝑥 > 0, 𝑦 > 0, 𝑥 + 𝑦 < 1

1 1−𝑦 1 1−𝑦 1
𝑥2
𝐸(𝑥𝑦) = ∫ ∫ 𝑥𝑦2𝑑𝑥𝑑𝑦 = 2 ∫ 𝑦 | 𝑑𝑦 = ∫ 𝑦 [(1 − 𝑦)2 ]𝑑𝑦
2 0
0 0 0 0
1 1 1
2
𝑦2 2 3 𝑦4
2 3
= ∫ 𝑦(1 − 2𝑦 + 𝑦 )𝑑𝑦 = ∫(𝑦 − 2𝑦 + 𝑦 )𝑑𝑦 = − 𝑦 + ⌋
2 3 4 0
0 0
1 2 1 6−8+3 1
= − + = =
2 3 4 12 12

1 1−𝑦 1 1 1
1−𝑦 −(1 − 𝑦)3 1
𝐸(𝑥) = ∫ ∫ 𝑥2𝑑𝑥𝑑𝑦 = ∫𝑥 2 |0 𝑑𝑦 = ∫ [(1 − 𝑦) 2 ]𝑑𝑦
= ⌋ =
3 0
3
0 0 0 0

M.C. Azucena Ríos 71


PROBABILIDAD 4. Esperanza Matemática
1 1−𝑦 1 1 1
1−𝑦
𝐸(𝑦) = ∫ ∫ 𝑦2𝑑𝑥𝑑𝑦 = ∫2𝑦𝑥|0 𝑑𝑦 = 2 ∫ 𝑦(1 − 𝑦)𝑑𝑦 = 2 ∫(𝑦 − 𝑦 2 )𝑑𝑦
0 0 0 0 0
2 3 1
𝑦 𝑦 2 1
= 2 [ − ]⌋ = 1 − =
2 3 0 3 3

1 1 1 1 1 3−4 1
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝐶𝑜𝑣(𝑥, 𝑦) = 𝐸(𝑥𝑦) − 𝐸(𝑥)𝐸(𝑦) = − ∗ = − = =−
12 3 3 12 9 36 36
𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑚𝑜𝑠 𝑞𝑢𝑒 𝐶𝑜𝑣(𝑥, 𝑦) < 0

A medida que una variable aleatoria aumenta, la otra disminuye, es decir, si


están relacionadas.

TEOREMA Si X y Y son independientes, entonces 𝐸(𝑥𝑦) = 𝐸(𝑥)𝐸(𝑦) y


𝐶𝑜𝑣(𝑥, 𝑦) = 0.

Observación Si X y Y son independientes → 𝐶𝑜𝑣(𝑥, 𝑦) = 0 pero no


necesariamente al revés.

TEOREMA En general, si se tienen X1, X2,…, Xn variables aleatorias


independientes, entonces

𝐸(𝑥1 𝑥2 … 𝑥𝑛 ) = 𝐸(𝑥1 )𝐸(𝑥2 ) … 𝐸(𝑥𝑛 )

Este teorema puede verse como que el esperado de un producto es el producto de


esperados, únicamente en el caso de variables aleatorias independientes.

MOMENTOS DE UNA COMBINACION LINEAL DE VARIABLES ALEATORIAS

TEOREMA Si X1, X2,…, Xn son variables aleatorias y la variable aleatoria Y está


definida como

𝑌 = 𝑎1 𝑋1 + 𝑎2 𝑋2 + ⋯ + 𝑎𝑛 𝑋𝑛 = ∑𝑛𝑖=1 𝑎𝑖 𝑋𝑖 → una combinación lineal de las x´s con 𝑎𝑖 = 𝑐𝑡𝑒

entonces

M.C. Azucena Ríos 71


PROBABILIDAD 4. Esperanza Matemática
𝐸(𝑌) = 𝐸(∑𝑛𝑖=1 𝑎𝑖 𝑋𝑖 ) = ∑𝑛𝑖=1 𝑎𝑖 𝐸(𝑋𝑖 ) y

𝑉(𝑌) = 𝑉(∑𝑛𝑖=1 𝑎𝑖 𝑋𝑖 ) = ∑𝑛𝑖=1 𝑎𝑖2 𝑉(𝑋𝑖 ) + 2 ∑ ∑𝑖<𝑗 𝑎𝑖 𝑎𝑗 𝑐𝑜𝑣(𝑋𝑖 , 𝑋𝑗 )

De donde, si las variables aleatorias X1, X2,…, Xn, son independientes, se tiene
que

𝑉(𝑌) = ∑𝑛𝑖=1 𝑎𝑖2 𝑉(𝑋𝑖 )

EJEMPLO Si las variables aleatorias X,Y y Z tienen medias 𝜇𝑥 = 2, 𝜇𝑦 = −3 ,


𝜇𝑧 = 4 y varianzas 𝜎𝑥2 = 1, 𝜎𝑦2 = 5 𝑦 𝜎𝑧2 = 2 con 𝑐𝑜𝑣(𝑥, 𝑦) = −2, 𝑐𝑜𝑣(𝑥, 𝑧) = −1 𝑦

𝑐𝑜𝑣(𝑦, 𝑧) = 1, determinar la media y varianza de la variable aleatoria 𝑤 definida por


𝑤 = 3𝑥 − 𝑦 + 2𝑧.

𝑥 → 𝜇𝑥 = 2, 𝜎𝑥2 = 1
𝑦 → 𝜇𝑦 = −3, 𝜎𝑦2 = 5
𝑧 → 𝜇𝑧 = 4, 𝜎𝑧2 = 2
𝑐𝑜𝑣(𝑥, 𝑦) = −2
𝑐𝑜𝑣(𝑥, 𝑧) = −1
𝑐𝑜𝑣(𝑦, 𝑧) = 1

𝐸(𝑤) = 𝐸(3𝑥 − 𝑦 + 2𝑧) = 3𝐸(𝑥) − 𝐸(𝑦) + 2𝐸(𝑧) = 3(2) − (−3) + 2(4) = 6 + 3 +


8=17

𝑉(𝑤) = 𝑉(3𝑥 − 𝑦 + 2𝑧)


= 9𝑉(𝑥) + 𝑉(𝑦) + 4𝑉(𝑧) + 2[−3𝑐𝑜𝑣(𝑥, 𝑦) + 6𝑐𝑜𝑣(𝑥, 𝑧) − 2𝑐𝑜𝑣(𝑦, 𝑧)]
= 9(1) + 5 + 4(2) + 2[−3(−2) + 6(−1) − 2(1)]
= 9 + 5 + 8 + 2(6 − 6 − 2) = 22 − 4 = 18

ESPERANZAS CONDICIONALES

Definición Si 𝑥 es una variable aleatoria y 𝑓(𝑥/𝑦) es el valor de la distribución o


densidad condicional de 𝑥, dada Y= 𝑦, entonces, la esperanza condicional de 𝑥
dada Y= 𝑦 está dada por

M.C. Azucena Ríos 72


PROBABILIDAD 4. Esperanza Matemática

∑ 𝑥𝑓(𝑥/𝑦) 𝑠𝑖 𝑠𝑜𝑛 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎𝑠


∀𝑥
𝜇𝑥/𝑦 = 𝐸(𝑥/𝑦) =
∫ 𝑥𝑓(𝑥/𝑦)𝑑𝑥 𝑠𝑖 𝑠𝑜𝑛 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎𝑠
{∀𝑥

y, la esperanza condicional de una 𝑔(𝑥) dada Y=y está dada por

∑ 𝑔(𝑥)𝑓(𝑥/ 𝑦) 𝑠𝑖 𝑥, 𝑦 𝑠𝑜𝑛 𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑎𝑠


∀𝑥
𝐸(𝑔(𝑥)|𝑦) =
∫ 𝑔(𝑥)𝑓(𝑥/ 𝑦)𝑑𝑥 𝑠𝑖 𝑥, 𝑦 𝑠𝑜𝑛 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎𝑠
{∀𝑥

Así mismo, de manera análoga, pueden definirse 𝐸(𝑦/𝑥) y 𝐸(𝑔(𝑦)/𝑥).

Se puede definir también la varianza condicional como


2
𝑉(x|y) = σ2(x|y) = E [((x − 𝜇(x|y) ) |y)] = E(x 2 |y) − [E(x|y)]2

EJEMPLO Si la función de densidad conjunta de dos variables aleatorias X y Y


está dada por

2
𝑓(𝑥, 𝑦) = (𝑥 + 2𝑦), 0 < 𝑥 < 1, 0<𝑦<1
3
Determinar la media y la varianza condicionales de X dado que Y=1/2.

Para calcular la media condicional, es decir, la esperanza condicional de x dado


1
y=2, se plantea como:

1 1
𝐸 (𝑥|𝑦 = 2) = ∫ 𝑥 𝑓 (𝑥|𝑦 = 2) 𝑑𝑥
∀𝑥

1
Sin embargo, notamos que se requiere la densidad condicional de x dado y= 2 y no
se tiene, pero se sabe que

𝑓(𝑥, 𝑦)
𝑓(𝑥|𝑦) =
𝑓(𝑦)

M.C. Azucena Ríos 73


PROBABILIDAD 4. Esperanza Matemática
Y observamos que para poder encontrar esta condicional, necesitamos ladensidad
marginal de y, que tampoco se tiene pero se puede encontrar a partir de la
conjunta de la siguiente forma:
1 1
2 2 𝑥2 2 1 1 + 4𝑦
𝑓(𝑦) = ∫ (𝑥 + 2𝑦)𝑑𝑥 = [ + 2𝑥𝑦] = [ + 2𝑦] =
3 3 2 0
3 2 3
0

Con esta marginal, podemos encontrar la condicional general

2
𝑓(𝑥, 𝑦) 3 (𝑥 + 2𝑦) 2(𝑥 + 2𝑦)
𝑓(𝑥|𝑦) = = =
𝑓(𝑦) 1 1 + 4𝑦
(1 + 4𝑦)
3
1
A partir de la condicional general, evaluamos en y=2 para obtener la densidad
1
condicional de x dado y=2

1
2 (𝑥 + 2 (2))
1 2(𝑥 + 1) 2
𝑓 (𝑥|𝑦 = 2) = = = (𝑥 + 1)
1 1+2 3
(1 + 4 (2))

1
Una vez encontrada la densidad condicional de x dado y= , ya se puede proceder
2
a calcular la esperanza condicional que nos interesa
1 1 1 1
1 1 2 2 2 𝑥3 𝑥2
𝐸 (𝑥|𝑦 = 2) = ∫ 𝑥 𝑓 (𝑥|𝑦 = 2) 𝑑𝑥 = ∫ 𝑥 (𝑥 + 1)𝑑𝑥 = ∫[𝑥 2 + 𝑥] 𝑑𝑥 = [ + ]
3 3 3 3 2 0
0 0 0
2 1 1 2 (2 + 3) 5
= [ + ]= =
3 3 2 3 6 9
Para calcular la varianza condicional, usaremos el teorema, por lo que se necesita
1 1 1
2 1 2
2 2 3 2]
2 𝑥4 𝑥3 2 3+4 7
𝐸 (𝑥 |𝑦 = 2) = ∫ 𝑥 (𝑥 + 1)𝑑𝑥 = ∫[𝑥 + 𝑥 𝑑𝑥 = [ + ] = [ ]=
3 3 3 4 3 0 3 12 18
0 0

Aplicando el teorema de la varianza, al concepto de varianza condicional, se tiene


que

1 1 2 7 25 13
σ2(x|y) = E (x 2 |y = 2) − [E (x|y = 2)] = − = = 0.08
18 81 162

M.C. Azucena Ríos 74


PROBABILIDAD 4. Esperanza Matemática

EJERCICIOS

1. Considérese la densidad trivariada

𝑓(𝑥, 𝑦, 𝑧) = (𝑥 + 𝑦)𝑒 −𝑧 , 0 < 𝑥 < 1, 0 < 𝑦 < 1, 𝑧 > 0

Determinar 𝐶𝑜𝑣(𝑥, 𝑧)

2. Si las variables aleatorias independientes 𝑥, 𝑦 y 𝑧 tienen medias 4, 9, 3 y


varianzas 3, 7, 5, respectivamente, determinar la media y la varianza de

a) 𝑢 = 2𝑥 − 3𝑦 + 4𝑧
b) 𝑣 = 𝑥 + 2𝑦 − 𝑧

3. Dada la distribución de probabilidad conjunta


𝑥 = 1,2,3
𝑥𝑦𝑧
𝑓(𝑥, 𝑦, 𝑧) = 108, 𝑦 = 1,2,3
𝑧 = 1,2
Obtener la esperanza condicional de la variable aleatoria 𝑔(𝑧) = 𝑧 2 , dadas
𝑥 = 1 𝑦 𝑦 = 2.

4. Si la función de densidad conjunta de 𝑥, 𝑦 está dada por

1
𝑓(𝑥, 𝑦) = 4 (2𝑥 + 𝑦), 0 < 𝑥 < 1, 0<𝑦<2
1
Determinar la media y la varianza condicionales de 𝑦 dado 𝑥 = 4

M.C. Azucena Ríos 75

También podría gustarte