Tema5 PDF
Tema5 PDF
Tema5 PDF
1. Introduccion
Segun se ha reflejado hasta el momento, el espacio muestral asociado a un experimento aleatorio
puede ser de dos tipos:
As, cada resultado del experimento tendra asociado un valor numerico y el espacio muestral
original se transforma en un espacio cuantitativo.
Incluso en espacios muestrales cuantitativos, puede que el interes se centre no en el resultado
concreto del experimento, sino en alguna caracterstica numerica como, por ejemplo, en el
lanzamiento de dos dados, la suma de los valores obtenidos.
De esta forma surge el concepto de variable aleatoria que, en terminos generales, puede
definirse como una funcion que asigna un valor real a cada elemento de un espacio muestral.
Al considerar una variable aleatoria sobre un espacio muestral, los conjuntos de interes es-
taran definidos en terminos de dicha variable. Por ejemplo, conjunto de resultados elementales,
tales que el valor de la variable este comprendido entre dos numeros reales a y b. Para po-
der calcular la probabilidad de conjuntos de este tipo, es preciso exigir que tal conjunto sea
un suceso. Este requerimiento implica que no toda funcion numerica de los resultados de un
experimento es una variable aleatoria, sino que esta debe satisfacer determinadas propiedades.
1. B Y.
2. B es -algebra.
Todo intervalo y, en particular, todo numero real ({a} = [a, a]), es un conjunto de Borel.
Teorema: Caracterizacion de B
B coincide con la -algebra generada por los intervalos del tipo (, x].
Analogamente, B es la -algebra generada por intervalos de cualquier tipo.
3. Variables aleatorias
El concepto de variable aleatoria surge de la necesidad de calcular probabilidades de conjuntos
de interes definidos en terminos de dicha variable.
As, si (, A, P) es el espacio de probabilidad asociado al experimento aleatorio en el que
se pretende analizar la caracterstica numerica de interes, esta vendra definida por una funcion
X : R.
Ahora bien, cada valor de X se corresponde con el subconjunto de puntos de que se aplica
en dicho valor esto es { / X() = x}, que notaremos por simplicidad {X = x}. Obvia-
mente el estudio probabilsticos de una variable aletoria conlleva el calculo de probabilidades
de dichos conjuntos as como de otros mas generales como
{ / X() x} = {X x},
{ / X() < x} = {X < x},
{ / X() x} = {X x},
{ / X() > x} = {X > x},
{ / x1 X() x2 } = {x1 X x2 },
...
{ / X() I} = {X I}, I Y,
{ / X() B} = {X B}, B B.
Para poder calcular la probabilidad de dichos conjuntos es necesario que los mismos sean
sucesos, esto es pertenezcan a la algebra de Borel del espacio probabilstico donde se define
la funcion que describe la caracterstica numerica de interes.
X 1 (B) = { / X() B} = { X B} A, B B.
O sea, toda funcion definida en un espacio de probabilidad que tome un numero finito de
valores, cada uno sobre un conjunto medible, es una variable aleatoria. Esto es obviamente
extensible a particiones no finitas numerables, ya que, en tal caso, la anti-imagen de B sera
una union, no necesariamente finita, pero numerable.
Al considerar A = P(), cualquier funcion real definida en (, A, P ) sera una variable aleato-
ria.
Veamos como se comprobara que X es una variable aleatoria en el caso de considerar otra
-algebra:
Por una parte
1 {2, 4, 6}
X:R X() =
0 {1, 3, 5}
X = I{2,4,6} = X es variable aleatoria si {2, 4, 6} A. Para ello bastara considerar una
-algebra que contenga a dicho conjunto. Sin embargo, si se considera por ejemplo la -algebra
A = {, , {1}, {2, 3, 4, 5, 6}}, entonces X no sera una variable aleatoria.
Tambien se podra haber razonado usando la definicion de variable aleatoria. As
0, 1
/B
{1, 3, 5} 0 B, 1/B
X 1 (B) =
{2, 4, 6} 0 / B, 1 B
0, 1 B
y de nuevo se llega a la conclusion de que basta exigir que {2, 4, 6} A (o, equivalentemente
{1, 3, 5} A).
Veamos como, aun en este caso tan simple, se puede simplificar el razonamiento usando la
caracterizacion de variable aleatoria. As
x<0
X 1 ((, x]) = {1, 3, 5} 0x<1
x1
Ejemplo 4:
Dos jugadores, A y B, lanzan cada uno un dado. Describir el espacio de probabilidad asociado
a este experimento y cada una de las siguientes variables:
1. Puntuacion obtenida por el jugador A.
2. Mayor puntuacion.
3. Ganancia del jugador A si se conviene que el que obtenga mayor puntuacion recibe una
moneda del contrario.
4. Ganancia del jugador A si se conviene que el que obtenga menor puntuacion paga al
contrario la diferencia de puntuacion.
1. X(i, j) = i; X : 1, 2, 3, 4, 5, 6.
i i>j
2. Y (i, j) = Y : 1, 2, 3, 4, 5, 6.
j ij
1 i>j
3. Z(i, j) = 0 i=j
1 i < j
4. U (i, j) = i j U = 5, 4, 3, 2, 1, 0, 1, 2, 3, 4, 5.
Ejemplo 5:
En el ejemplo anterior, especificar los sucesos:
La puntuacion obtenida por A es 2: {X = 2} = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)}.
La mayor puntuacion es 2: {Y 2} = {(1, 1), (1, 2), (2, 1), (2, 2)}.
Ejemplo
= {1, 2, 3, 4}, A = {, , {1, 2, 3}, {4}}
X : R
1 7 1
2 7 1
3 7 1
4 7 1
|X| : R
7 1
Definicion
Dada una variable aleatoria X sobre (, A, P ), se denomina distribucion de probabilidad de X
o probabilidad inducida por X a la funcion de conjunto
PX = P X 1 : B [0, 1]
Teorema
PX es una medida de probabilidad sobre (R, B).
Demostracion.-
AI: PX (B) 0, B B
AII: PX (R) = P (X 1 (R)) = P () = 1
AIII: {Bn } B mutuamente excluyentes {X 1 (Bn )} mutuamente excluyentes, entonces
! !! !
[ [ [ X
PX Bn = P X 1 Bn =P X 1 (Bn ) = PX (Bn )
n n n n
Por lo tanto, la variable aleatoria X transforma el espacio probabilstico original en un nuevo
espacio probabilstico (R, B, PX )
X : (, A, P ) = (R, B, PX )
y el interes se centra exclusivamente en el estudio de este nuevo espacio, esto es, en el estudio
de PX .
Esta es la caracterstica esencial de las variables aleatorias, que transforman un espacio
probabilstico arbitrario en un espacio de probabilidad numerico.
P () = 0 0, 1
/B
1
P ({1, 3, 5}) = 2 0 B, 1
/B
PX (B) = P (X 1 (B)) =
1
P ({2, 4, 6}) = 0
/ B, 1 B
2
P () = 1 0, 1 B
Definicion
Dada una variable aleatoria X definida sobre un espacio de probabilidad (, A, P ) con distri-
bucion de probabilidad PX , se denomina funcion de distribucion de la variable a
FX : R [0, 1]
x 7 FX (x) = PX ((, x]) = P {X x}
Teorema
La funcion de distribucion de una variable aleatoria X satisface
1) Es monotona no decreciente
2) Es continua a la derecha
Demostracion
1) x1 < x2 = (, x1 ] (, x2 ] = (usando la monotona de PX ) FX (x1 ) = PX ((, x1 ])
PX ((, x2 ]) = FX (x2 ).
2) La demostracion rigurosa de esta propiedad exige trabajar con sucesiones de conjuntos y
usaremos (aunque no se ha probado) la continuidad de una medida de probabilidad, es decir,
que si {An }nN es una sucesion de conjuntos tal que limAn = A, entonces limP (An ) = P (A).
Puesto que FX es monotona, x0 R, lim+ FX (x) y este lmite puede obtenerse por
xx0
sucesiones monotonas decrecientes a x0 . Por tanto, hemos de probar que
En efecto
\
{(, xn ]} (, xn ] = (, x0 ]
n
y, por tanto,
3) Analogamente, considerando xn + = (, xn ] R y xn = (, xn ]
Notemos que la demostracion de estas propiedades se basa exclusivamente en el hecho de
que PX es una medida de probabilidad.
Por tanto, cualquier medida de probabilidad P sobre (R, B) define una funcion de punto
FP : R [0, 1] no decreciente, continua a la derecha y tal que lim FP (x) = 1 y lim
x+ x
FP (x) = 0. Dicha funcion se define por FP (x) = P ((, x]).
Sin embargo, lo realmente importante en Calculo de Probabilidades es que el recproco de
este resultado es tambien cierto. Esto es, toda funcion F : R R no decreciente, continua
a la derecha y tal que lim F (x) = 1 y lim F (x) = 0, determina una unica medida de
x+ x
probabilidad PF sobre (R, B) tal que PF ((, x]) = F (x).
Teorema de Correspondencia
Si P es una medida de probabilidad sobre (R, B), FP : R R definida como FP (x) =
P ((, x]) es no decreciente, continua a la derecha y verifica lim FP (x) = 1 y lim
x+ x
FP (x) = 0.
Existe, por tanto, una correspondencia biunvoca entre las medidas de probabilidad en (R, B)
y las funciones de punto sobre R verificando tales propiedades. Segun esta correspondencia, a
la distribucion de probabilidad de una variable aleatoria X, PX , le corresponde su funcion de
distribucion, esto es, FPX = FX y a la funcion de distribucion FX le corresponde PX , ya que
PX ((, x])) = F (x).
Por tanto, la funcion de distribucion de una variable aleatoria determina completamente su
distribucion de probabilidad.
Teorema
Toda funcion F : R R verificando 1), 2) y 3) es la funcion de distribucion de alguna variable
aleatoria definida sobre algun espacio de probabilidad.
Demostracion
En efecto, por el Teorema de Correspondencia, existe una unica medida de probabilidad PF
sobre (R, B) que satisface PF ((, x]) = F (x), x R.
Asi, si definimos X : (R, B, PF ) (R, B) como X(x) = x, la distribucion de probabilidad
PX de dicha variable aleatoria coincide con PF y, por tanto, su funcion de distribucion FX (x) =
PX ((, x]) = PF ((, x]) = F (x), x R.
Demostracion:
La existencia de los lmites esta garantizada por ser FX monotona y por la continuidad a
la derecha, es claro que lim+ FX (y) = FX (x).
yx
Veamos ahora que lim FX (y) = P ({X < x}). Ya que el lmite existe, puede tomarse por
yx
sucesiones crecientes
2. Los unicos puntos de discontinuidad de FX son de salto y la longitud del salto en cualquier
punto x R es
P (X = x) = FX (x) FX (x )
Demostracion:
Esto es debido a la continuidad a la derecha, no decrecimiento y existencia de lmite a la
izquierda. Ademas, el salto es
3. x es un punto de continuidad de FX P (X = x) = 0.
Demostracion:
D = {x R / FX (x) > FX (x )}
P (X x) = FX (x)
P (X < x) = FX (x )
P (X = x) = FX (x) FX (x )
P (X > x) = 1 FX (x)
P (X x) = 1 FX (x )
P (X x) = 1 FX (x )
P (a X b) = P (X b) P (X < a) = FX (b) FX (a )
P () = 0 x<0
FX (x) = P ({1, 3, 5}) = 1/2 0x<1
P () = 1 x1
P (X EX ) = 1
x
/ EX , P (X = x) = 0
pX : EX [0, 1]
xn 7 PX (xn ) = P (X = xn ) = PX ({xn })
Es no negativa, pX (x) 0, x EX .
X
La suma de sus valores es la unidad, pX (x) = 1
xEX
con
1 x0
(x) =
0 x<0
Por tanto, la funcion de distribucion de una variable aleatoria discreta es una funcion de
salto cuyos puntos de salto son aquellos numeros reales xn tales que P ({X = xn }) > 0 y dicha
probabilidad es la longitud del salto.
El crecimiento a saltos de la funcion de distribucion caracteriza a las variables discretas:
Demostracion:
=) Si FX solo crece a saltos, ya que lim FX (x) = 1 y lim FX (x) = 0, la suma de las
x+ x
longitudes de todos los saltos debe ser uno.
Sea D el conjunto de puntos de salto. Puesto que D es numerable
X
P (X D) = P (X = x) = 1.
xD
Demostracion P
Dada {pn ; n 1} con pn 0, n 1 y pn = 1, se define
0 x < x1
0 x<0
F (x) = X , o bien F (x) = X
p n x i x < xi+1
pn ix<i+1
ni ni
Esta funcion es, evidentemente, no decreciente, continua a la derecha y con lmites cero y
uno en y +, respectivamente. Por tanto, por la aplicacion del Teorema de Correspondencia,
existe una variable aleatoria con tal funcion como funcion de distribucion y, ademas, por las
caractersticas mostradas por ella, dicha variable es de tipo discreto.
EJEMPLOS
Ejemplo 1
Un jugador recibe una moneda si en el lanzamiento de un dado sale un numero par; en
caso contrario, pierde una moneda. Calcular la funcion masa de probabilidad y la funcion de
distribucion de la variable aleatoria que describe la ganancia.
Funcion masa de probabilidad
P (X = 1) = PX (1) = P (X 1 ({1})) = P ({2, 4, 6}) = 1/2
P (X = 1) = 1/2
Funcion de distribucion
FX : R R
0 x < 1
x
7 P ({X x}) = 1/2 1 x < 1
1 x1
Ejemplo 2
Se introducen al azar tres bolas en dos urnas U1 y U2 . Sea N el numero de bolas en la
primera urna, especificar su funcion masa de probabilidad y su funcion de distribucion.
Sean B1 , B2 y B3 las tres bolas; las distintas colocaciones, todas equiprobables son:
Cada disposicion puede identificarse con una ordenacion de las dos urnas
= {U1 U1 U1 , U1 U1 U2 , U1 U2 U1 , U2 U1 U1 , U1 U2 U2 , U2 U1 U2 , U2 U2 U1 , U2 U2 U2 }
N: R
U1 U1 U1 7 3
U1 U1 U2 7 2
U1 U2 U1 7 2
U2 U1 U1 7 2
U1 U2 U2 7 1
U2 U1 U2 7 1
U2 U2 U1 7 1
U2 U2 U2 7 0
Funcion masa de probabilidad
P (N = 0) = 1/8
P (N = 1) = 3/8
P (N = 2) = 3/8
P (N = 3) = 1/8
Funcion de distribucion
0 x<0
1/8 0x<1
FN (x) = 4/8 1x<2
7/8 2x<3
1 x3
Distribucion de probabilidad
3
X
PN (B) = P (N B) = P (N = i)
i=0
iB
Ejemplo 3
Un juego consiste en lanzar una modeda cuatro veces y contar el numero de rachas de
resultados iguales. El jugador recibe una moneda por cada racha pero tiene que pagar una
moneda por participar en el juego. Dar la distribucion de probabilidad del beneficio del jugador.
Distribucion de probabilidad
3
X
PX (B) = P (X B) = P (X = i)
i=0
iB
Observemos que PX PN (del ejemplo anterior). Por tanto, las dos variables aleatorias, aunque
referidas a espacios de probabilidad distintos, tienen la misma distribucion.
Si, en el ejemplo anterior, un jugador recibe una moneda por cada bola que haya en la
primera urna, N es su beneficio. Por tanto, los dos juegos seran equivalentes, en el sentido de
que el jugador puede ganar las mismas cantidades con las mismas probabilidades.
En tales casos, no es posible asignar una probabilidad positiva a cada uno de los valores
de la variable de forma que la suma de esas probabilidades sea la unidad como ocurre en el
caso discreto. As, el tratamiento probabilstico de este tipo de variables es diferente al de las
variables discretas.
Aunque la clase de variables de este tipo es mas amplia, vamos a estudiar ahora un tipo
particular, las denominadas variables absolutamente continuas, a las que es usual llamar
simplemente de tipo continuo o continuas.
Definicion
Una variable aleatoria X : (, A, P ) (R, B, PX ) es continua si su funcion de distribucion
es continua en todo R y derivable, y con derivada continua, salvo en a lo sumo un conjunto
numerable de puntos. Esto es equivalente a que fX : R R no negativa e integrable tal que
Z x
FX (x) = fX (t)dt, x R
Propiedades
0
2. Si x0 es un punto de continuidad de fX , FX es derivable en x0 y FX (x0 ) = fX (x0 ).
x R, PX ({x}) = P (X = x) = FX (x+ ) FX (x ) = 0,
Rb
P (X < b) = P (X b) = FX (b) = fX (x) dx
Rb
P (a < X b) = FX (b) FX (a) = a fX (x) dx
De nuevo esa probabilidad coincide con P (a X < b), P (a < X < b) y P (a X
b).
Para conjuntos de Borel mas generales esta integral debe entenderse en el sentido de
Lebesgue (mas general que la integral de Riemann y que escapa a los contenidos de este
curso)
Teorema Z +
Si f : R R es no negativa, integrable y tal que f (t)dt = 1, f es la funcion de densidad
de alguna variable aleatoria de tipo continuo.
Demostracion
Definimos F : R R como Z x
F (x) = f (t)dt
F es no decreciente, continua (y, por tanto, continua a la derecha) y F () = 0 y F (+) = 1.
Entonces F es la funcion de distribucion de alguna variable aleatoria, la cual, evidentemente,
es de tipo continuo con funcion de densidad f .
EJEMPLOS
Ejemplo 1
Sea X una variable aleatoria con funcion de distribucion
0 x<0
F (x) = x 0x<1
1 x1
F es derivable en R {0, 1} y
0 x<0
0
F (x) = 1 0<x<1
0 x>1
Ejemplo 2
Comprobar que la siguiente funcion es funcion de densidad. Calcular su funcion de distri-
bucion y, si X es una variable aleatoria con dicha distribucion, calcular P ({0.3 < X 1.5}).
0
x0
x 0<x1
f (x) =
2x 1x<2
0 x2
0 x<0
Z x
x2
t dt = 0x<1
2
0
F (x) = Z 1 Z x
x2
t dt + (2 t) dt = 2x 1 1x<2
0 1 2
1 x2
Definicion
Una variable aleatoria X : (, A, P ) (R, B, PX ) se dice que es mixta si DX R
numerable y hX : R R no negativa e integrable tal que
X Z x
x R, FX (x) = P ({X x}) = P ({X = xj }) + hX (t) dt.
xj DX
xj x
Z +
Notemos que en este tipo de variables, hX no es una funcion de densidad ya que hX (t) dt 6=
1.
Ejemplo
Supongase que en un sistema electrico, el voltaje X es una variable aleatoria continua con
funcion de densidad
0 x0
fX (x) = 1
x0
(1 + x)2
As,
0
x0
FX (x) = x
x0
1+x
El voltaje de este sistema se mide con un voltmetro que registra el valor real de X si X 3,
pero si X > 3 el voltmetro registra siempre el valor 3. Se define Y como el valor registrado por
el voltmetro. Entonces la distribucion de Y es mixta: +
Z +
1 1 1
P ({Y = 3}) = P ({X 3}) = 2
dx = = >0
3 (1 + x) 1+x 3 4
De lo anterior se deduce que P ({0 < Y < 3}) = 3/4
0 y0
y
FY (y) = FX (y) = 0y<3
1+y
1 y3
Por tanto, Y 1 (B) A y, puesto que esta definida sobre un espacio de probabilidad es una
variable aleatoria.
B B, PY (B) = PX (g 1 (B))
Demostracion
Pero en la practica trabajaremos con variables discretas o continuas, o sea, con funciones masa
de probabilidad o funciones de densidad. Nos interesa, por tanto, especificar las formulas de
cambio de variable para tales casos.
Demostracion
EJEMPLOS
Ejemplo 1
Sea X una variable aleatoria discreta con funcion masa de probabilidad
e x
P {X = x} = , x = 0, 1, 2 . . . ( > 0)
x!
(coleccion numerable de numeros no negativos de suma la unidad).
Calcular la distribucion (funcion masa de probabilidad) de Y = X 2 .
g(x)=x2
EX = {0, 1, 2, . . .} g(EX ) = {0, 1, 4, . . .}
2 e y
y g(EX ) P {Y = y} = P {X = y} = P {X = y} =
y!
Ejemplo 2
Sea X una variable aleatoria discreta con funcion masa de probabilidad P {X = 2} = 1/5,
P {X = 1} = 1/6, P {X = 0} = 1/5, P {X = 1} = 1/15, P {X = 2} = 11/30. Calcular la
funcion masa de probabilidad de Y = X 2 + 3.
g(x)=x2 +3
EX = {2, 1, 0, 1, 2} g(EX ) = {7, 4, 3}
P {Y = 3} = P {X 2 + 3 = 3} = P {X 2 = 0} = P {X = 0} = 1/5
P {Y = 4} = P {X 2 + 3 = 4} = P {X 2 = 1} = P {X = 1} + P {X = 1} = 7/30
P {Y = 7} = P {X 2 + 3 = 7} = P {X 2 = 4} = P {X = 2} + P {X = 2} = 17/30
Y = g(X) toma valores en el conjunto {0, 1} y es, por tanto, una variable aleatoria discreta
con P {Y = 0} = P {X < 0} = 1/2 y P {Y = 1} = P {X 0} = 1/2.
Y = g(X) toma valores en el conjunto (1, 0) {1} y es una variable de tipo mixto con
P {Y = 1} = P {X 0} = 1/2 y
1/2 y (1, 0)
hy (y) =
0 y/ (1, 0)
Aqu analizaremos el caso de transformaciones que convierten una variable continua en dis-
creta y el caso de transformaciones biunvocas de variables continuas (que transforman variables
continuas en continuas).
Demostracion
P {Y = y} = P {g(X) = y} = P {X g 1 (y)} = g1 (y) fX (x) dx
R
Ejemplo
Sea X una variable aleatoria continua con funcion de densidad
1 2
f (x) = ex /2 , x R
2
y sea Y una variable aleatoria definida como
1 X>0
Y = 1/2 X=0
1 X<0
As, P {Y = 1} = P {Y = 1} = 1/2.
EJEMPLOS
Ejemplo 1
Sea X una variable aleatoria continua con funcion de densidad
0 x<0
f (x) =
ex x0
Calcular la funcion de densidad de Y = X 2 .
Consideramos la funcion
g : R+ R
x 7 x2
dg 1 (y)
y = g(x) = x2 x = g 1 (y) = y, dy
= 1
2 y
y, por tanto,
0 y<0
fY (y) = e y 21 y y0
donde
y y
Z
ex = ex 0 = 1 e y
P [X y] =
0
De aqu se deduce tambien que
0 y<0
fY (y) = e y 21 y y0
Ejemplo 2
Sea X una variable aleatoria continua con funcion de densidad
1/2 x (1, 1)
f (x) =
0 x/ (1, 1)
X (1, 1) pero g : (1, 1) R con g(x) = |x| no esta en las condiciones del Teorema de
cambio de variable continuo.
Observamos que Y [0, 1), pero cada valor de Y tiene dos antiimagenes X = Y . Calculemos
la funcion de distribucion de Y
0 y<0
FY (y) = P [|X| y] 0y<1
1 y1
Z y
1
con P [|X| y] = P [y X y] = FX (y) FX (y) = dx = y
y 2
[y, y] [1, 1] .
Entonces
0 y<0
FY (y) = y 0y<1
1 y1
de donde
0 y/ (0, 1)
fY (y) =
1 y (0, 1)
Entonces, en realidad, lo que se hace es aplicar la formula de Cambio de Variable a cada una
de las antiimagenes y despues, sumar.
dx
1) Y = |X| X = Y = 1 > 0 (estamos considerando solo las antiimagenes positivas)
dy
1 0 y/ (0, 1)
fY (y) =
fX (y)|1| y (0, 1)
dx
2) Y = |X| X = Y = 1 < 0 (estamos considerando solo las antiimagenes negativas)
dy
2 0 y/ (0, 1)
fY (y) =
fX (y)| 1| y (0, 1)
Este resultado es cierto en general y constituye una extension del Teorema de Cambio de
Variable que hemos estudiado para el caso continuo.
Ejemplo
Sea X una variable aleatoria con funcion de densidad f (x) = ex , x > 0 ( > 0). Calcular
la funcion de densidad de Y = (X 1/)2 .
y = g(x) = (x 1/)2
Si 0 < y < 1/2 , la funcion g tiene dos imagenes inversas, cada una de ellas derivable y
estrictamente monotona:
1 dg 1 (y) 1
g11 (y) = + y con 1 = >0
dy 2 y
1 dg21 (y) 1
g21 (y) = y con = <0
dy 2 y
As
1 1 1 1
fY (y) = fX + y + fX y =
2 y 2 y
1 1 1 1
fX + y + fX y , 0<y< 2
2 y
Si y > 1/2 , la funcion g tiene una imagen inversa, derivable y estrictamente monotona
1 1 dg11 (y) 1
g (y) = + y con = >0
dy 2 y
As
1 1 1 1 1
fY (y) = fX + y = fX + y , y> 2
2 y 2 y
Por tanto,
0 y<0
1
1 1 1
fY (y) = fX
+ y + fX
y 2 y 0<y< 2
( dos antiimagenes)
1
fX 1 1
+ y 2y y> ( una antiimagen)
2
0 y<0
1y
fY (y) =
2 y
e + e1+ y 0<y< 1
2
1 y 1
e y>
2 y 2
Notemos que si la variable toma un numero finito de valores, la suma que define la esperanza
tiene un numero finito de sumandos y es siempre absolutamente convergente. Por tanto, la
esperanza de una variable aleatoria con un numero finito de valores siempre existe.
Por el contrario, si EX es infinito, es necesario imponer la condicion de convergencia absoluta
de la serie ya que, en caso contrario, distintas reordenaciones de los sumandos podran dar
distintos valores de la esperanza.
EJEMPLOS
Ejemplo 1.- Sea X una variable aleatoria con valores en {0, 1, 2} y funcion masa de probabi-
lidad
P[X = 0] = 1/4
P[X = 1] = 1/4
P[X = 2] = 1/2
1 1 1 5
EX = 0 +1 +2 =
4 4 2 4
Observese que la media no es el valor central, que sera 1, sino un valor comprendido entre
los valores extremos, que no tiene por que ser un valor de la variable (centro de gravedad).
Ejemplo 2.- Sea X una variable aleatoria con funcion masa de probabilidad P[X = n] =
1
, n = 1, 2, . . .
n(n + 1)
X 1 X 1
|n| = n = ,
n=1
n(n + 1) n=1
n(n + 1)
luego no existe la esperanza de X.
Z 5 Z 5 Z 5
x
|x|f (x)dx = xf (x)dx = dx = 3
1 1 1 4
Por tanto, EX = 3.
Z x
xex
Z Z Z
x x x x e
|x|e = xe = xe = [u = x, dv = e dx] = +
0 0 0 0
0
ex
1 1
= 0 2 = 2 =
0
1
Por tanto, EX = .
Ejemplo 5.- Sea X una variable aleatoria con funcion de densidad
1
f (x) = xR
(1 + x2 )
+ + +
|x| 2 ln(1 + x2 )
Z Z Z
1 2 x
|x|f (x)dx = 2
dx = dx = =
1+x 0 1 + x2 2 0
luego @EX.
Z 3 Z 3 Z 3
1 1 1 2(1 + x) 2
|x| = x = dx =
0 (1 + x)2 0 (1 + x) 2 2 0 (1 + x)2 (1 + x)2
Z 3
3
1h 3 i 1 1 1 1
= ln(1 + x)2 0 2
dx = ln 16 + = ln 4 + 1 = ln 4 3/4 <
2 0 (1 + x) 2 1+x 0
4
As,
Z 3
1 1
EX = 3 + x = ln 4.
4 0 (1 + x)2
Teorema
Sea X una variable aleatoria y g : (R, B) (R, B) una funcion medible.
a) Si X es discreta
X
E[g(X)] |g(x)|P[X = x] <
xEX
X
E[g(X)] = g(x)P[X = x]
xEX
Corolario
EX E|X|
3. X 0 y EX = 0 P (X = 0) = 1
) Es evidente.
) Si X es continua con funcion de densidad fX , se debe verificar que fX (x) = 0, x < 0 y,
por tanto Z +
E[X] = xfX (x) dx.
0
|EX| E|X| M
Z M
CONTINUA: |x| > M fX (x) = 0 y, por tanto fX (x) dx = 1
M
Z Z M Z
|x|fX (x)dx = |x|fX (x) dx M fX (x)dx = M <
M
|EX| E|X| M
7. Linealidad para funciones de una misma variable: Sean h1 (X), . . . , hn (X) v. a. tales que
E[hi (X)], i = 1, . . . , n. Entonces
DISCRETA
X X X
|a1 h1 (x)+ +an hn (x)|P[X = x] |a1 ||h1 (x)|P[X = x]+ + |an ||hn (x)|P[X = x] <
xEX xEX xEX
X X X
(a1 h1 (x)+ +an hn (x))P[X = x] = a1 h1 (x)P[X = x]+ +an hn (x)P[X = x] =
xEX xEX xEX
CONTINUA: Analoga
8. Conservacion del orden: Sea X una v. a. y h y g funciones medibles tales que h(X) g(X),
entonces si E[h(X)] y E[g(X)], entonces E[h(X)] E[g(X).
Dem.- (g h)(X) 0 = E[(g h)(X)] 0
En particular,
m1 = EX, m2 = EX 2 , m3 = EX 3 , . . .
X X X
|x|s P[X = x] = |x|s P[X = x] + |x|s P[X = x]
x x/|x|1 x/|x|>1
X X
P[X = x] + |x|t P[X = x]
x/|x|1 x/|x|>1
t
P[|X| 1] + E|X| <
Z
CONTINUA E|X| s
|x|s fX (x)dx <
Z Z Z
s s
|x| fX (x)dx = |x| fX (x)dx + |x|s fX (x)dx
x x/|x|1 x/|x|>1
Z Z
fX (x)dx + |x|t fX (x)dx
x/|x|1 x/|x|>1
t
P[|X| 1] + E|X| <
Corolario
mk = EX k = mj = EX j j k
k = E[(X m1 )k ] = j = E[(X m1 )j ] j k
Demostracion:
mk E|X|k = E|X|j j k ( mj j k)
k E|X m1 |k = E|X m1 |j j k ( j j k)
k
X k
2) Si k = mk = kn mn1
n=0
n
Demostracion:
" k #
X k
1) k = E[(X m1 )k ] = E (1)n X kn mn1
n=0
n
Dado que existe la esperanza de cada sumando (por el corolario), todos funciones de X,
existen la esperanza de la suma y se tiene, por la linealidad, la expresion para k .
" k #
X k
2) mk = EX k = E[((X m1 ) + m1 )k ] = E (X m1 )kn mn1
n=0
n
y se tiene la propiedad mediante un razonamiento similar a 1.
E[h(X)]
> 0 P[h(X) ]
Demostracion:
DISCRETA
X X X
E[h(X)] = h(x)P[X = x] = h(x)P[X = x] + h(x)P[X = x]
x x/h(x) x/h(x)<
X X
h(x)P[X = x] P[X = x] = P[h(X) ]
x/h(x) x/h(x)
CONTINUA
Z Z Z
E[h(X)] = h(x)fX (x)dx = h(x)fX (x)dx + h(x)fX (x)dx
{x/h(x)} {x/h(x)<}
Z Z
h(x)fX (x)dx fX (x)dx = P[h(X) ]
{x/h(x)} {x/h(x)}
Desigualdad de Chebychev
VarX
Si EX 2 = k > 0 P[|X EX| k]
k2
VarX
P[|X EX| < k] 1
k2
1
P[|X EX| k VarX] 2
k
1
P[|X EX| < k VarX] 1 2
k
Ejemplo.- Si X es una variable aleatoria con media cero y varianza uno, encontrar un intervalo
en el que este contenida la variable con probabilidad mayor o igual que
1) 0.99
2) 1/3
1
P[|X| < k] 1
k2
1) 1 1/k 2 = 0,99 k =p 10 P[10 p < X < 10] 0,99
p
2
2) 1 1/k = 1/3 k = 3/2 P[ 3/2 < X < 3/2] 1/3
Entonces, toda variable con media cero y varianza uno toma valores entre -10 y 10 con proba-
bilidad mayor o igual que 0.99, sea cual sea su distribucion.
Definicion
Sea X una variable aleatoria tal que E[etX ] t (t0 , t1 ), (t0 , t1 R+ ). Se define su funcion
generatriz de momentos como MX : (t0 , t1 ) R+ dada por
Ejemplo 1.- Sea X una variable aleatoria con funcion masa de probabilidad
6
P[X = x] = , x = 1, 2, . . .
2 x2
tX
X
tx 6 X6 X etx
tx
E e = e P[X = x] = e 2 2 = 2
x=1 x=1
x x=1 x2
etx
Notemos que t > 0, y, por tanto, la serie diverge, t > 0 y @ la f.g.m..
x2 x
Ejemplo 2.- Sea X una variable aleatoria con funcion masa de probabilidad
e x
P[X = x] = , x = 0, 1, 2, . . . ( > 0)
x!
e x (et )x
= e ee = e(e 1) , t R
X t t
X
E etX = etx = e
x=0
x! x=0
x!
MX : R R+
t 7 e(e 1)
t
1 x(t1/2)
Z Z
tx 1 x/2
E etX =
e e dx = e dx =
0 2 2 0
t > 1/2 (@E[etX ])
x(t1/2) +
1 e
= =
2 t 1/2 0 1 1 = 1 t < 1/2
2 1/2t 12t
Entonces
MX : (, 1/2) R+
1
t 7
1 2t
Teorema de Unicidad
La f. g. m. de una variable aleatoria, si existe, determina de forma unica la distribucion
de la variable.
dMX (t) 2 dMX (t)
= = EX = 2
dt (1 2t)2 dt t=0
d2 MX (t) d2 MX (t)
8(1 2t) 8
= = = EX 2 = 8 VarX = 4
dt2 (1 2t)4 (1 2t)3 dt2 t=0
El recproco del resultado anterior no es cierto; esto es, puede que existan todos los momentos
de una variable aleatoria y no exista la f.g.m. como probamos en el siguiente ejemplo.
Ejemplo 5 (Existencia de momentos no implica la existencia de f. g. m.)
Sea X una variable aleatoria con funcion de densidad
1 1/
fX (x) = ex , x>0 ( > 1)
()
Z
1 1/
EX k
xk ex dx <
0 ()
1/
Dicha integral, haciendo el cambio y = x x = y dx = y 1 dy, queda
Z Z
1 1 ( + k)
y k ey y 1 dy = ey y k+1 dy = < k N
0 () () 0 ()
Por otra parte
Z
MX (t) etx fX (x)dx < t (t0 , t1 )
0
Z Z
tx 1 1/1 )
e fX (x)dx = ex(tx dx
0 () 0
Puesto que
1
1 < 0 = x1/1 0 = t x1/1 t
x+ x+
Entonces, si t > 0 y s (0, t), x0 tal que x > x0 t x1/1 > s y, por tanto,
1/1 )
ex(tx > esx y
Z Z Z
x(tx1/1 ) x(tx1/1 )
e dx e dx > esx dx =
0 x0 x0
Medidas de posicion.
Medidas de dispersion.
Medidas de forma.
MEDIANA MeX
MeX es un valor real tal que P[X MeX ] 1/2 y P[X MeX ] 1/2 o, equivalentemente,
FX (M e
X ) 1/2 FX (M eX ).
FX (MeX ) = 1/2
0
Tambien en este caso todos los puntos de [M, M ] son medianas.
Como principal ventaja respecto de la media, ademas de que siempre existe, debemos indicar
que la mediana es menos sensible a cambios en valores de la variable con masa de probabilidad
pequena
P[X = 0] = 1/4, P[X = 1] = 1/2, P[X = 2] = 1/5, P[X = 3] = 1/20, MeX = 1
P[Y = 0] = 1/4, P[Y = 1] = 1/2, P[Y = 2] = 1/5, P[Y = 1000] = 1/20, MeY = 1
MODA
Es un numero real que maximiza la funcion masa de probabilidad (valor mas probable) en el
caso de variables discretas, o la funcion de densidad, para variables continuas.
La moda puede no ser unica. Por ejemplo
P[X = 0] = 1/3, P[X = 1] = 1/3, P[X = 2] = 1/6, P[X = 3] = 1/6 y son modas el 0
y el 1.
1/3 0<x<1
fX (x) = y son modas todos los valores del intervalo (1, 2)
2/3 1<x<2
PERCENTILES xq
Son medidas de posicion que generalizan a la mediana.
Se define el cuantil o percentil de orden q (0 q 1) como un valor xq tal que P[X xq ] q
y P[X xq ] 1 q o, equivalentemente,
FX (x
q ) q FX (xq ).
As, un cuantil de orden q divide a la distribucion en dos partes, quedando a la izquierda una
masa de probabilidad q y a la derecha una masa de probabilidad 1 q.
Para distribuciones continuas, se cumple
FX (xq ) = q
Si q = 1/2, entonces xq = M eX
Siempre existe un cuantil de cualquier orden, aunque no tiene por que ser unico (igual
que la mediana)
Medidas de dispersion
Las medidas de posicion por s solas no son suficiente para dar una descripcion adecuada de
la distribucion de una variable aleatoria ya que no reflejan la dispersion de los valores de la
variable respecto de ellas.
P[X = 1] = 1/4, P[X = 0] = 1/2, P[X = 1] = 1/4 EX = 0, M eX = 0
P[Y = 100] = 1/4, P[Y = 0] = 1/2, P[Y = 100] = 1/4 EY = 0, M eY = 0
Para dar un indicador de la representatividad de las medidas de posicion (entendiendose por
ello la menor o mayor desviacion de la distribucion respecto de ellas) se definen las medidas de
dispersion.
VARIANZA
Es el momento centrado de orden dos
2) Var(aX + b) = a2 VarX, a, b R
3) VarX < E[(X c)2 ], c 6= EX. Esto indica que si se mide la dispersion de una variable
por la desviacion cuadratica media alrededor de un punto c arbitario, esta es mnima si
c = EX.
E[(X c)2 ] = E[(X EX + EX c)2 = VarX + (EX c)2 + 2 E[(X EX)] [EX c]
=0
Luego,
E[(X c)2 ] = VarX + (EX c)2 , c R
y queda probado el resultado.
Hay que indicar que la varianza de una variable se mide en unidades cuadradas, por lo que es
comun usar como medida de dispersion su raz cuadrada o DESVIACION TIPICA, expresada
en la misma unidad de medida que la variable.
La varianza, y por tanto la desviacion tpica, es muy influenciable por valores extremos.
Tal y como ocurra para la esperanza, la varianza de cualquier distribucion se puede hacer
arbitrariamente grande colocando una masa de probabilidad positiva, aunque sea pequena,
suficientemente lejos del centrode los datos.
TIPIFICACION: Dada una variable aleatoria X siempre se puede obtener otra, Z, a partir de
ella, con media cero y varianza uno,
X E[X]
Z=
V arX
E|X M eX |
Su uso queda justificado por la siguiente propiedad
Ejemplo
2 5
EX = 100 y X = 25 CVX = 100 = 0,05
2 4
EY = 30 y Y = 16 CVY = 30 = 0,13
2
X > Y2 y, sin embargo, CVX < CVY
O sea, la distribucion de X tiene una menor dispersion relativa que la de X aunque la dispersion
absoluta sea mayor.
Medidas de forma
Para describir una distribucion son tambien interesantes ciertas medidas de forma, que
proporcionan indicadores de la simetra de la funcion masa de probabilidad o de la funcion de
densidad de una variable aleatoria y del apuntamiento (aplastamiento) de dichas funciones.
SIMETRIA
Definicion.- Una variable aleatoria (distribucion) es simetrica alrededor de un punto R
si
x R P[X x] = P[X + x]
o equivalentemente, las variables aleatorias X y X tienen la misma distribucion.
P[X = x] = P[X = + x] x R.
fX ( x) = fX ( + x) x R.
Demostracion
=] En el caso continuo, la definicion de simetra equivale a FX ( +x) = 1FX ( x), x R
y derivando se obtiene la condicion anterior.
Rt Rt
=] fX ( x) = fX ( + x) x R = t R fX ( x)dx = fX ( + x)dx
Z t Z t Z +
y =x
fX ( x)dx = = fX (y)dy = fX (y)dy = 1 FX ( t)
dy = dx + t
Z t Z +t
y =+x
fX ( + x)dx = = fX (y)dy = FX ( + t)
dy = dx
Dem.- Por la definicion de simetra E[(X )2k+1 ] = E[( X)2k+1 ] y ya que E[(
X)2k+1 ] = E[(X )2k+1 ] se tiene la propiedad.
3
X 3
X
En general:
3
Distribuciones simetricas 3
=0
X
3
Distribuciones asimetricas a la derecha 3
>0
X
3
Distribuciones asimetricas a la izquierda 3
<0
X
CURTOSIS (APUNTAMIENTO)
Para distribuciones unimodales, moderadamente asimetricas y campaniformes, Fisher dio
una medida del apuntamiento de la distribucion que indica mayor o menor concentracion de la
variable respecto de su media.
Esta medida se define en relacion a una distribucion patron, la distribucion normal (campana
de Gauss), mediante el siguiente coeficiente
Coeficiente de curtosis de Fisher
4
4
3
X
que vale cero para la distribucion patron.
4
4
3=0 DISTRIBUCION MESOCURTICA
X
4
4
3 > 0 DISTRIBUCION LEPTOCURTICA (Mas apuntada (menos
X
aplastada) que la normal Mas concentracion)
4
4
3 < 0 DISTRIBUCION PLATICURTICA (Menos apuntada (mas aplastada)
X
que la normal Menos concentracion)
4
X 4
3
X
Ejemplo
P[X = 1] = 1/4, P[X = 0] = 1/2, P[X = 1] = 1/4
EX = 0
EX 2 = 1/2 VarX = 1/2
4 = 1/2
4 1/2
4
3= 3 = 1 < 0 Platicurtica (menos apuntada que la normal)
X (1/2)2
EX = 0
EX 2 = 2/5 VarX = 2/5
4 = 2/5
4 2/5
4
3= 3 = 5/2 3 = 0.5 < 0 Platicurtica, pero menos que la anterior.
X (2/5)2