Probabilidad

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 134

APUNTES PARA EL CURSO DE

PROBABILIDAD

Agosto – Diciembre 2011

DAVID RUELAS RODRÍGUEZ


APUNTES PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011
Programa de clases

Estos apuntes fueron revisados y ajustados para cubrir por completo el temario del curso
de Probabilidad del Departamento de Estadística del Instituto Tecnológico Autónomo
de México (ITAM) para el semestre Agosto – Diciembre 2011.

El documento no es un libro de texto, sino una síntesis de las principales definiciones,


teorema, conceptos y métodos de la Probabilidad. Sin embargo, esta compilación puede
tenerse como referencia en el estudio de otras materias que dependen fundamentalmente
de la Probabilidad; por ejemplo, Estadística, Econometría, Procesos Estocásticos y
Finanzas.

Cada sección fue escrita con la finalidad de revisar rápidamente la teoría y dedicar la
mayor parte del tiempo de clase a: (i) la demostración y análisis de los principales
resultados; y (ii) a la resolución de ejercicios que ejemplifican la aplicación de la
Probabilidad. Los apuntes de la Sección 1 sobre Fundamentos de Probabilidad son más
largos que los demás pues incluyen detalles sobre la Teoría de Conjuntos y teoremas
sobre sumas y series que son útiles en el cálculo de probabilidades y el estudio de las
variables aleatorias.

Al inicio del documento se incorporó un índice para facilitar la búsqueda de algún tema
en particular. Al final del documento se presenta como anexo el Material de Apoyo
para el Curso de Probabilidad repartido durante las clases de este semestre, incluyendo
las preguntas de los 148 ejercicios revisados en clase.

Esta es la tercera versión de estos apuntes completos. En esta versión se corrigieron


algunos errores detectados en los apuntes correspondientes al semestre Enero – Mayo
2010, y algunos textos fueron reescritos en busca de mayor claridad y simpleza. Sé que
todavía pueden existir errores y que algunos textos pueden ser mejorados, así que
cualquier comentario es bienvenido al correo electrónico [email protected].

Agradezco la participación de mis alumnos de este semestre que con sus preguntas y
comentarios contribuyen a la mejora de estos apuntes.

David Ruelas Rodríguez

Diciembre 2011

DAVID RUELAS RODRÍGUEZ ii


APUNTES PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011
Programa de clases

Índice

1. Fundamentos de Probabilidad ............................................................................. 1-1


1.1. Fenómenos aleatorios e incertidumbre .......................................................... 1-1
1.2. Espacios muestrales y eventos ....................................................................... 1-2
1.2.1. Nociones sobre Teoría de Conjuntos ................................................. 1-2
Definiciones y representación de conjuntos ...................................... 1-2
Conjuntos numéricos ......................................................................... 1-4
Operaciones con conjuntos................................................................ 1-6
1.2.2. Espacios muestrales y eventos ......................................................... 1-10
1.3. Enfoques de la probabilidad ........................................................................ 1-11
1.3.1. Probabilidad Clásica ........................................................................ 1-12
1.3.2. Probabilidad Frecuentista ................................................................ 1-12
1.3.3. Probabilidad Subjetiva ..................................................................... 1-13
1.4. Desarrollo axiomático de la probabilidad.................................................... 1-13
1.4.1. Técnicas de conteo y cálculo de probabilidades .............................. 1-13
Técnicas de conteo ........................................................................... 1-14
Sumas y Productos ........................................................................... 1-18
Sumas útiles en Probabilidad .......................................................... 1-19
1.4.2. Axiomas de Probabilidad ................................................................. 1-23
1.5. Probabilidad condicional e independencia .................................................. 1-25
1.5.1. Probabilidad Condicional ................................................................ 1-25
Probabilidad Conjunta y Probabilidad Marginal ........................... 1-27
Regla de la Multiplicación............................................................... 1-27
1.5.2. Independencia estadística ................................................................ 1-28
1.5.3. Regla de Probabilidades Totales y Teorema de Bayes .................... 1-30

2. Variables Aleatorias.............................................................................................. 2-1


2.1. Definición y propiedades de variables aleatorias discretas y
absolutamente continuas ................................................................................ 2-1
2.2. Funciones de masa, densidad y distribución acumulada ............................... 2-2
2.2.1. Función de masa de probabilidad (f.m.p.) ......................................... 2-2
2.2.2. Función de densidad de probabilidad (f.d.p.) .................................... 2-5
2.2.3. Función de distribución acumulada (f.d.a.) ....................................... 2-7
2.3. Características numéricas de las variables aleatorias .................................... 2-9
2.3.1. Esperanza, varianza y momentos de variables aleatorias .................. 2-9
2.3.2. Propiedades del valor esperado y la varianza .................................. 2-14
2.3.3. Medidas poblacionales..................................................................... 2-15
Medidas de tendencia central .......................................................... 2-15
Medidas de localización .................................................................. 2-17
Medidas de dispersión ..................................................................... 2-19
Medidas de simetría y forma ........................................................... 2-21

DAVID RUELAS RODRÍGUEZ iii


APUNTES PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011
Programa de clases

2.4. Función Generadora de Momentos ............................................................. 2-23


2.5. Desigualdades de Chebyshev y de Jensen ................................................... 2-24
2.6. Distribución de una Transformación de una Variable Aleatoria ................. 2-27
2.6.1. Distribución de Transformaciones de Variables Aleatorias
Discretas .......................................................................................... 2-27
2.6.2. Distribución de Transformaciones de Variables Aleatorias
Continuas ......................................................................................... 2-28
Método de la f.d.a. ........................................................................... 2-28
Método de la transformación monótona.......................................... 2-28
Método de la f.g.m. .......................................................................... 2-28

3. Distribuciones Importantes .................................................................................. 3-1


3.1. Distribuciones Bernoulli y Binomial ............................................................. 3-1
3.1.1. Distribución Bernoulli ....................................................................... 3-1
3.1.2. Distribución Binomial ....................................................................... 3-2
3.2. Distribución Poisson ...................................................................................... 3-3
3.3. Distribución Uniforme Continua ................................................................... 3-5
3.4. Distribuciones Gamma, Exponencial y Ji Cuadrada ..................................... 3-7
3.4.1. Distribución Gamma .......................................................................... 3-7
3.4.2. Distribución Exponencial. Exp   Gamma1,   .......................... 3-9
3.4.3. Distribución Ji Cuadrada.  2    Gamma2 ,2 ........................... 3-10
3.5. Distribución Normal .................................................................................... 3-11

4. Distribuciones Multivariadas ............................................................................... 4-1


4.1. Funciones de probabilidad conjunta y marginales ........................................ 4-1
4.2. Funciones de probabilidad condicionales ...................................................... 4-4
4.3. Variables aleatorias independientes............................................................... 4-5
4.4. Valor esperado de una transformación de variables aleatorias...................... 4-7
4.5. Momentos conjuntos, covarianza y coeficiente de correlación ..................... 4-7
4.6. Propiedades de Esperanza, Varianza y Covarianza ..................................... 4-11
4.7. Función generadora de momentos conjunta ................................................ 4-13
4.8. Distribución de transformaciones de variables aleatorias ........................... 4-14
4.8.1. Distribución de transformaciones de variables aleatorias
discretas ........................................................................................... 4-14
4.8.2. Distribución de transformaciones de variables aleatorias
continuas .......................................................................................... 4-14
Método de la función de distribución acumulada ........................... 4-14
Método de la función generadora de momentos.............................. 4-14
Teorema de cambio de variable para funciones vectoriales ........... 4-15
4.8.3. Distribución de suma de variables aleatorias independientes.......... 4-16

DAVID RUELAS RODRÍGUEZ iv


APUNTES PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011
Programa de clases

5. Distribución Normal Multivariada ..................................................................... 5-1


5.1. Funciones de densidad conjunta, marginales y condicionales de la
Distribución Normal Bivariada ..................................................................... 5-1
5.2. Función generadora de momentos de la Distribución Normal Bivariada ..... 5-2
5.3. Independencia de variables aleatorias con Distribución Normal
Bivariada........................................................................................................ 5-4
5.4. Combinaciones lineales de variables aleatorias con Distribución
Normal Bivariada .......................................................................................... 5-4
5.5. Distribución Normal Multivariada ................................................................ 5-5

Anexo: Material de Apoyo para el Curso de Probabilidad

DAVID RUELAS RODRÍGUEZ v


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

1. Fundamentos de Probabilidad
1.1. Fenómenos aleatorios e incertidumbre
Figura 1.1

FENÓMENOS ALEATORIOS

Características

• Resultado cierto
Fenómeno • La Estadística
determinístico • Mismas causas o estudia los
antecedentes conducen fenómenos
a los mismos aleatorios
resultados o efectos
Tipos de • Está orientada a
fenómenos modelar la
• Resultado incierto variabilidad
Fenómeno
aleatorio • Mismas causas o • Permite
antecedentes no cuantificar la
necesariamente incertidumbre
conducen a los mismos
Aleatorio significa al azar, resultados o efectos
es decir, que su resultado
es variable y desconocido
previamente (v.gr., juegos
de azar)

Figura 1.2

PROBABILIDAD, INFERENCIA ESTADÍSTICA Y ECONOMETRÍA


Inferencia Estadística Econometría
Probabilidad (Estadística Matemática, (Regresión, Pronóstico de
Muestreo) Negocios, Series de Tiempo)
Tipo de cambio Dólar / Euro
• Si compro un boleto de • Proceso inductivo (de lo particular a lo Dólares por Euro (USD/EUR)
general) que permite obtener
“Melate”, ¿qué tan factible es conclusiones sobre la población a partir 1.6
que gane el premio principal?, del estudio de una muestra
¿es más fácil ganar el • Siempre existe posibilidad de error y se 1.5
“Melate” o la “Lotería”? mide en términos de probabilidad
1.4
• Si entro en una rifa, ¿es
importante saber cuántos 1.3
boletos están a la venta?
Observado Pronóstico
1.2
• Si hoy llueve, ¿qué tan seguro Inferencia
jun-11

jul-11

sep-11

oct-11
feb-11

mar-11

abr-11

may-11

ago-11

Muestra Población
es que mañana también estadística
llueva?
Fuente: www.banxico.org.mx
Muestreo
• Si la Bolsa Mexicana de
• ¿Cuál es el pronóstico para el
Valores (BMV) cierra hoy a la
tipo de cambio Dólar / Euro?
alza, ¿es fácil que también
• ¿De qué tamaño debe ser una ¿Qué intervalos garantizan
mañana lo haga?
muestra para determinar el cierto nivel de confianza?
• ¿Cuánta mercancía debo tener porcentaje de la población que • Con base en un conjunto de
en el almacén para evitar está a favor del Partido A? precios y cantidades
demanda insatisfecha en mi
• ¿Cómo se estima el ingreso observadas, ¿cuál es la función
empresa?
promedio de la población? de demanda estimada?

La Estadística es la rama de las Matemáticas que permite modelar la variabilidad y


cuantificar la incertidumbre inherente a los fenómenos aleatorios

DAVID RUELAS RODRÍGUEZ 1-1


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Figura 1.3

PROBABILIDAD

• La Probabilidad es una
ciencia formal
• La probabilidad es una
medida numérica del
grado de certidumbre o
• La Probabilidad nace Probabilidad incertidumbre respecto a
como consecuencia la ocurrencia de un evento
La Probabilidad es la
de la inquietud de futuro
rama de las Matemáticas
modelar los juegos de
y de la Estadística que se • Existen distintos enfoques
azar en el siglo XVII
encarga del estudio para establecer esta
• Sus precursores formal de las reglas de la medida
fueron Blaise Pascal incertidumbre que
(1623 – 1662) y Pierre permiten modelar • Muchos fenómenos
Fermat (1601 – 1665) fenómenos aleatorios económicos, financieros,
sociales, biológicos, etc.,
presentan un
comportamiento
probabilístico similar al
presentado en los juegos
de azar

1.2. Espacios muestrales y eventos

1.2.1. Nociones sobre Teoría de Conjuntos

DEFINICIONES Y REPRESENTACIÓN DE CONJUNTOS

Def. Conjunto. Es una colección o agrupación de elementos.

Notación de conjuntos. Usualmente los conjuntos se denotan mediante letras


mayúsculas y sus elementos mediante letras minúsculas. Por ejemplo: A = {a1, a2, a3}.

Pertenencia. Un elemento x puede:


 Pertenecer a un conjunto, denotado por x  A; o
 No pertenecer a un conjunto, denotado por x  A.

Def. Conjunto Universo (). Es el conjunto que contiene a todos los elementos.

Def. Conjunto Vacío (). Es el conjunto que no contiene elementos.

DAVID RUELAS RODRÍGUEZ 1-2


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Def. Subconjunto. Es un conjunto cuyos elementos corresponden a los de otro


conjunto. B  A denota que B es un subconjunto de A. Formalmente la relación de
contención se establece de la siguiente manera:

BAxBxA

Por ejemplo, si C es el conjunto de las letras del alfabeto y D es el conjunto de las


vocales, entonces D  C, es decir, todos los elementos de D están contenidos en C.

Def. Cardinalidad. Es el número de elementos que integran un conjunto o la medida de


un conjunto. Si A es un conjunto, #A o |A| denotan su cardinalidad. Por ejemplo, si C es
el conjunto de las letras del alfabeto (en español y sin letras dobles) y D es el conjunto
de las vocales, entonces #C = 27 y #D = 5.

Proposición

i) Si B  A entonces #B  #A
ii) # = 0

Representación de conjuntos. Los conjuntos pueden expresarse analíticamente:


 Por extensión, si se escriben cada uno de los elementos del conjunto.
 Por comprensión, si se establece una regla que permite identificar a todos los
elementos del conjunto.

La representación gráfica de los conjuntos puede hacerse mediante Diagramas de Venn


o Diagramas de Venn-Euler. Por ejemplo, si  es el conjunto de los números enteros
( = Z), A el conjunto de los dígitos y B el conjunto de los dígitos mayores a 6:

Tabla 1.1

Conjunto Descripción Representación Representación por


por extensión comprensión
A Dígitos A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} A = {x   | 0  x  9}
B Dígitos mayores a 6 B = {7, 8, 9} B = {x  A | x > 6}

Figura 1.4
=Z

B 0
7 8 1 2
9 3 4
5 6
A

Observe cómo #A = 10 y #B = 3. Además, como B  A, entonces #B  #A.

DAVID RUELAS RODRÍGUEZ 1-3


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

CONJUNTOS NUMÉRICOS

Def. Números Naturales (N).

N = {1, 2, 3,...}

 Los números naturales se utilizan para contar o enumerar.


 La cardinalidad de N es infinito numerable.

Def. Números Enteros (Z).

Z = {..., –3, –2, –1, 0, 1, 2, 3,...}

 Los números enteros incluyen a los números naturales (N  Z), a sus negativos y al
cero.
 La cardinalidad de Z también es infinito numerable (#N = #Z) ya que es posible
establecer una relación uno a uno entre los elementos de Z y los de N, como se
muestra a continuación:

Figura 1.5
Z = { 0, 1, – 1, 2, –2, 3, – 3, ... }

N = { 1, 2, 3, 4, 5, 6, 7, ... }

Def. Números Racionales (Q).

m 
Q =  : m, n  Z, n  0
n 

 Los números racionales son todas las fracciones con expansión decimal finita o
20
infinita periódica. Por ejemplo,  1.818181...  1. 81  Q.
11
 Los racionales incluyen a los enteros y a los naturales (N  Z  Q).
 Sorprendentemente, la cardinalidad de Q también es infinito numerable. El
matemático ruso Georg Cantor (1845 – 1918) ideó la forma de establecer una
relación uno a uno entre los elementos de Q y los de N, como se muestra en la
siguiente figura. Los números con un recuadro punteado no hay que enumerarlos
pues están repetidos. Para incluir al cero y los negativos simplemente hay que iniciar
la enumeración por el cero y luego contar doble cada número (el positivo y el
negativo).

DAVID RUELAS RODRÍGUEZ 1-4


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Figura 1.6
m
n
1 2 3 4 5 
1 1 2 3 4 5

1 1 1 1 1

1 2 3 4 5
2 
2 2 2 2 2

1 2 3 4 5
3 
3 3 3 3 3

1 2 3 4 5
4 
4 4 4 4 4

1 2 3 4 5
5 
5 5 5 5 5











Si a los números racionales se agregan los Números Irracionales (I), es decir, aquellos
cuya expansión decimal es infinita y no periódica (v.gr., , e, 2 ), se obtienen los
Números Reales (R).

Figura 1.7

Q I R

N Z

No es posible establecer una relación uno a uno entre los elementos de N y los de I o los
de R (Teorema de Cantor), de modo que la cardinalidad de I y de R es infinito no
numerable, es decir, un infinito mucho mayor que el infinito numerable (#R >> #N).

Desde el punto de vista matemático, los Números Reales forman un campo ordenado
completo con características técnicas muy sofisticadas1. Desde el punto de vista
probabilístico basta considerar de manera inicial que sobre R es posible:
 Hablar de límites y continuidad (en el sentido del Cálculo Diferencial e Integral); y
 Definir medidas (v.gr., tiempo, longitud, peso, probabilidad).

1
Por ser un campo, R es un conjunto con dos operaciones (adición y multiplicación), que satisfacen axiomas de asociatividad,
conmutatividad, elemento neutro, elemento inverso y distributividad de la multiplicación sobre la adición. Como R es campo
ordenado, es posible establecer una relación de orden (<) y cuenta con un valor absoluto (|  |). Adicionalmente, como R es un
campo completo, satisface el postulado Arquimedeano (todos sus elementos están acotados inferiormente por el recíproco de un
número natural) y el axioma del supremo (cada subconjunto cuenta con una mínima cota superior).

DAVID RUELAS RODRÍGUEZ 1-5


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

OPERACIONES CON CONJUNTOS

Def. Igualdad de conjuntos. Dos conjuntos son iguales si contienen los mismos
elementos. Formalmente:

A=BAByBA

Def. Conjunto Complemento. El conjunto complemento de A, denotado por Ac, es el


conjunto de los elementos de  que no están en A. Formalmente:

x  Ac  x  A

Figura 1.8

A

Ac

Teorema

i) A 
c c
A
ii) c  

Es importante señalar que los Diagramas de Venn son un buen punto de partida para
demostrar resultados de la Teoría de Conjuntos, sin embargo, no constituyen
demostraciones formales.

Def. Unión de Conjuntos (). La unión de los conjuntos A y B, denotada por AB, es
el conjunto formado por todos los elementos de A más todos los elementos de B.
Formalmente:

x  AB  x  A ó x  B

Figura 1.9

A B

AB

DAVID RUELAS RODRÍGUEZ 1-6


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Def. Intersección de Conjuntos (). La intersección de los conjuntos A y B, denotada


por AB o AB, es el conjunto formado por todos los elementos comunes de A y B.
Formalmente:

x  AB  x  A y x  B

Figura 1.10

A B

AB

Def. Diferencia de 2 conjuntos. La diferencia de los conjuntos A menos B, denotada


por A  B , es el conjunto formado por los elementos de A que no están en B.
Formalmente:

xA–BxAyxB

Figura 1.11

A B

A–B

Teorema.

A – B = ABc

Def. Conjuntos Mutuamente Excluyentes (m.e.). Se dice que A y B son mutuamente


excluyentes si no tienen elementos comunes. Formalmente:

A y B son mutuamente excluyentes  AB = 

Figura 1.12

A B

DAVID RUELAS RODRÍGUEZ 1-7


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Def. Conjuntos Exhaustivos. Se dice que A y B son conjuntos exhaustivos si sus


elementos abarcan por completo el conjunto universo. Formalmente:

A y B son exhaustivos  AB = 

Figura 1.13

A B 

Teorema.

i) A y Ac son mutuamente excluyentes, i.e., AAc = 


ii) A y Ac son exhaustivos, i.e., AAc = 

Ejercicios E1 y E2 .

PROPIEDADES DE LAS OPERACIONES CON CONJUNTOS

Propiedades de conmutatividad, asociatividad y distributividad de  y .

i) AB = BA (conmutatividad de la unión)


ii) AB = BA (conmutatividad de la intersección)
iii) A(BC) = (AB)C (asociatividad de la unión)
iv) A(BC) = (AB)C (asociatividad de la intersección)
v) A(BC) = (AB)(AC) (distributividad de la unión sobre la intersección)
vi) A(BC) = (AB) (AC) (distributividad de la intersección sobre la unión)

Propiedades de la unión e intersección con  y .

i) A = 
ii) A = A
iii) A = A
iv) A = 

DAVID RUELAS RODRÍGUEZ 1-8


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Propiedades de la unión e intersección con subconjuntos.

i) B  A  AB = A
ii) B  A  AB = B

Leyes de De Morgan. Son propiedades de la unión e intersección de complementos,


propuestas por el matemático inglés August De Morgan (1806 – 1871).

i)  A  B c  Ac  B c

ii)  A  B c  Ac  B c

Gráficamente, la primera Ley de De Morgan se puede verificar como se muestra a


continuación. Note que estos gráficos no constituyen una demostración formal.

Figura 1.14
 
A B A B

Ac
AB Bc
(AB)c Ac  Bc

(AB)c = Ac  Bc

La unión e intersección de conjuntos se puede generalizar. Si A1, A2,…, An, n  N, son n


conjuntos (pudiendo incluso ser n = ), entonces:
n
 A1  A2    An   Ai denota la unión de todos los conjuntos; y
i 1
n
 A1  A2    An   Ai denota la intersección de todos los conjuntos.
i 1

Leyes de De Morgan (para n conjuntos).


c
 n  n
i)   Ai    Aic
 i 1  i 1

c
 n  n
ii)   Ai    Aic
 i 1  i 1

Ejercicios E3 , E4 , E5 y E6 .

DAVID RUELAS RODRÍGUEZ 1-9


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

1.2.2. Espacios muestrales y eventos.

Def. Experimento Aleatorio (EA). Es un proceso mediante el cual se obtiene una


observación o un dato, y cuyo resultado no puede predecirse antes de su realización y,
por lo tanto, está sujeto al azar.

Por ejemplo, son experimentos aleatorios:


 El lanzamiento de un volado.
 El giro de una ruleta.
 El desarrollo de una partida de Bingo, Yak o Keno.
 El número de palabras contenidas en 5 páginas elegidas al azar en un diccionario.

Def. Espacio Muestral (). Es el conjunto integrado por todos los posibles resultados
de un experimento aleatorio o de un fenómeno aleatorio. A sus elementos se les denota
por 1, 2,…, y se denominan puntos del espacio muestral.

Def. Evento. Es un subconjunto del espacio muestral. Se dice que un evento ocurre si
al realizar el experimento aleatorio se observa cualquiera de sus elementos.

Por ejemplo, si se considera el experimento aleatorio en el que se lanza un dado honesto


con caras numeradas del 1 al 6, entonces el espacio muestral es
 = {1, 2, 3, 4, 5, 6}
Si además se definen
A = Evento en que el resultado es par; y
B = Evento en que el resultado es 6,
entonces
A = {2, 4, 6}  
B = {6}  .

Def. Espacio de Eventos (A ). Es la clase de todos los eventos asociados a un


experimento aleatorio.

Matemáticamente, el espacio de eventos es un sigma álgebra (-algebra) o Campo de


Borel, y cumple con las siguientes propiedades.

Propiedades del espacio de eventos.

i)   A , es decir, siempre incluye al vacío (evento imposible);


ii) A  A  Ac  A , es decir, los complementos están incluidos; y

iii) A1, A2,…  A   A  A , es decir, las uniones numerables están incluidas.
i
i 1

DAVID RUELAS RODRÍGUEZ 1-10


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

De i) y ii) se infiere que el propio espacio muestral  esta incluido en el espacio de


eventos A (evento seguro), y aplicando las Leyes de De Morgan con las propiedades ii)
y iii) se puede concluir que también las intersecciones numerables están incluidas en A
.

Por ejemplo, si una urna contiene 3 bolas numeradas del 1 al 3 y se considera el


experimento aleatorio en que se elige una bola al azar y se registra su numero, entonces
 = {1, 2, 3},
y A incluye:
 {1} {1, 2} {1, 2, 3} = 
{2} {1, 3}
{3} {2, 3}

A es el conjunto potencia de , es decir, el conjunto que incluye a todos los posibles


subconjuntos de .

De acuerdo con la cardinalidad de , los espacios muestrales se clasifican en discretos o


continuos:
 Espacio muestral discreto:  finito o infinito numerable; y
 Espacio muestral continuo:  infinito no numerable.

Ejercicios E7 , E8 y E9 .

1.3. Enfoques de la probabilidad


Concepto de probabilidad.

La probabilidad es una medida numérica del grado de certidumbre o incertidumbre


respecto a la ocurrencia de un evento definido dentro de un espacio muestral.

Existen distintos enfoques para establecer esta medida:


 Probabilidad Clásica.
 Probabilidad Frecuentista.
 Probabilidad Subjetiva.

DAVID RUELAS RODRÍGUEZ 1-11


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

1.3.1. Probabilidad Clásica


Figura 1.15

ENFOQUE CLÁSICO DE LA PROBABILIDAD

Características Definición de probabilidad

• No requiere del Bajo el enfoque clásico, la probabilidad #A y # pueden ser


desarrollo de ningún del evento A se define como: incluso medidas, por
experimento aleatorio ejempo, longitud en R,
Casos favorables #A área en R2, etc.
• Se define con base en P(A) = =
Casos totales #
el razonamiento
lógico, antes de
efectuar el Observación:
experimento • Como A  , la cardinalidad del
• Se utiliza para calcular evento A es un entero positivo
0 ≤ #A ≤ #
probabilidades menor o igual a la cardinalidad del
asociadas a espacios espacio muestral:
equiprobables, es 0 #A #
decir, aquellos en los • Dividiendo entre # > 0: ≤ ≤
que cada punto del # # #
espacio muestral tiene
la misma posibilidad • Y por definición de probabilidad
0 ≤ P(A) ≤ 1
de ser observado bajo el enfoque clásico:

Ejercicios E10 y E11 .

1.3.2. Probabilidad Frecuentista


Figura 1.16

ENFOQUE FRECUENTISTA DE LA PROBABILIDAD


Características Definición de probabilidad

• Bajo el enfoque Si un experimento se repite n veces


frecuentista la y el evento A ocurre n(A) veces,
probabilidad es la entonces la probabilidad del evento
frecuencia relativa A bajo el enfoque frecuentista se
límite de un evento define como:
• Es adecuada para lim n(A)
modelar fenómenos en P(A) = n 
∞ n
los que existe
regularidad estadística, Observación:
es decir, que los
resultados tienen la n(A)
• es la frecuencia relativa
misma posibilidad de n
ser observados al de la n-ésima repetición
repetir sucesivamente
un experimento bajo
las mismas • n(A) cuenta el número de veces
condiciones que ocurre A al realizar n 0 ≤ n(A) ≤ n
repeticiones, entonces:
• El cálculo de
probabilidades bajo • Dividiendo entre n y tomando el lim 0 lim n(A) lim n
este enfoque requiere n ∞ ≤ n ≤ n
límite cuando n  ∞: n ∞ n ∞n
que el experimento
aleatorio pueda
repetirse en • Y por definición de probabilidad
condiciones similares 0 ≤ P(A) ≤ 1
bajo el enfoque frecuentista:

Ejercicio E12 .

DAVID RUELAS RODRÍGUEZ 1-12


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

1.3.3. Probabilidad Subjetiva.


Figura 1.17

ENFOQUE SUBJETIVO DE LA PROBABILIDAD

Características de la probabilidad bajo el enfoque subjetivo

• La probabilidad del evento A se basa en el grado de


credibilidad sobre la ocurrencia de dicho evento y de
forma que 0 ≤ P(A) ≤ 1
• Refleja el sentimiento de una persona respecto a la
confianza sobre la veracidad de una proposición
(subjetiva)
• Se asigna a eventos que ocurren una sola vez (v.gr., éxito
en la perforación de un pozo petrolero, sismos de gran
intensidad, huracanes)
• Se relaciona con la Estadística Bayesiana
• Por ejemplo: Alguien puede creer que un dado está
cargado y afirmar que P(Obtener 6) = 0.33

1.4. Desarrollo axiomático de la probabilidad.

1.4.1. Técnicas de conteo y cálculo de probabilidades.

La Combinatoria o Cálculo Combinatorio es el conjunto de técnicas matemáticas que


permiten contar de manera eficiente.

Def. Muestreo: Es el procedimiento para elegir los elementos de una muestra a partir de
una población.

Hay dos tipos de muestreo:


 Sin reemplazo o sin repetición: Se elige el elemento, se observan sus características
y se aparta de la población. Cada elemento puede ser elegido a lo más una vez.
 Con reemplazo o con repetición: Se elige el elemento, se observan sus
características y se incorpora nuevamente a la población. Cada elemento puede ser
elegido más de una vez.

DAVID RUELAS RODRÍGUEZ 1-13


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

TÉCNICAS DE CONTEO

Diagramas de árbol: Gráfico que muestra todos los posibles resultados en un


experimento aleatorio y que facilita el conteo de los elementos del espacio muestral y de
los eventos.

Ejercicio E13 .

Regla de la Multiplicación (Conteo)

Si un experimento puede descomponerse en r partes y la i-ésima parte se puede hacer de


ni formas, i = 1, 2,…, r, entonces el experimento se puede realizar de n1 n2  n r formas.

Ejercicio E14 .

Regla de la Suma (Conteo)

En ocasiones es necesario descomponer el experimento en partes que no pueden ocurrir


simultáneamente (m.e.); en este caso sus posibilidades deben sumarse.

Ejercicios E15 y E16 .

Def. Factoriales

Si n  Z+, entonces n! = n(n – 1)!, donde 0! = 1

Relación de Condición
recurrencia inicial

Como el factorial de n depende del factorial de n – 1, se dice que los factoriales se


definen a través de un relación de recurrencia o relación recursiva. Este tipo de
relaciones requieren de una condición inicial (0! = 1 en el caso de los factoriales).

Observación: n = 4  4! = 4  3!
= 4  3  2!
= 4  3  2  1!
= 4  3  2  1  0! , y como 0! = 1
= 1234

DAVID RUELAS RODRÍGUEZ 1-14


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Entonces, alternativamente los factoriales se pueden definir de la siguiente manera:

Si n  Z+, entonces n! = 1  2  3  (n – 1)(n)

Comúnmente los factoriales se pueden obtener fácilmente en las calculadoras a través


del botón x! .

EXCEL. Factoriales. La función =FACT(n) calcula n!

Ejercicios E17 y E18 .

Def. Permutaciones (ordenaciones sin repetición)

n!
Si n, r  Z+, y r ≤ n, entonces n P r  Pn, r  
n  r !

Las permutaciones de n en r, P(n, r), indican el número de arreglos ordenados de


tamaño r que se puden formar a partir de n objetos distintos elegidos sin remplazo (sin
que los objetos se puedan repetir en un mismo arreglo).

Por ejemplo, si se quiere determinar el número de formas posibles de elegir el cuadro de


honor (primero, segundo y tercer lugares) en un salón de 20 alumnos, ese número es:

Cuadro 1o 2o 3o
de honor:
Posibilidades: (20) (19) (18) = 6,840

20! 20! 20 19 18 17!


O bien: P20,3     20 1918  6,840 .
20  3! 17! 17!

Comúnmente las permutaciones se pueden obtener fácilmente en las calculadoras a


través de la tecla nPr .

EXCEL. Permutaciones. La función =PERMUTACIONES(n, r) calcula P(n, r).

Note cómo las permutaciones de n en n es simplemente n! :

n! n!
Pn, n     n!
n  n ! 0!

Ejercicio E19 .

DAVID RUELAS RODRÍGUEZ 1-15


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Def. Combinaciones

n n!
Si n, r  Z+, y r ≤ n, entonces n C r  C n, r     
 r  r! n  r !

n
Las combinaciones de n en r,   , es el número de subconjuntos (sin orden y sin
r
repetición) de tamaño r que se pueden formar a partir de un conjunto de n objetos
distintos.

Por ejemplo, si Ana (A), Beatriz (B), Carlos (C) y Daniel (D) integran un equipo de su
clase de Probabilidad y dos de ellos deben exponer los resultados de un trabajo, ¿de
cuántas formas se puede elegir a los integrantes de la pareja que expondrá?

Este problema se traduce en contar cuántos subconjuntos de tamaño 2 se pueden generar


 4 4! 4  3  2!
a partir de un conjunto de tamaño 4. Este número es     6.
 2  2!4  2! 2 1 2!

Si el equipo de tamaño 4 es: {A, B, C, D}

Las 6 posibles parejas son: {A, B}, {A, C}, {A, D},
{B, C}, {B, D}, y
{C, D}

Si en este ejemplo sólo uno de los integrantes del equipo debiera exponer los resultados
 4 4! 4  3!
del trabajo es evidente que existen sólo      4 posibilidades: {A},
 1  1!4  1! 3!
{B}, {C} o {D}.

Comúnmente las combinaciones se pueden obtener fácilmente en las calculadoras a


través de la tecla nCr .

n
EXCEL. Combinaciones. La función =COMBINAT(n, r) calcula   .
r

Proposición

n  n 
i)       n
 1   n  1
n n
ii)       1
0 n

DAVID RUELAS RODRÍGUEZ 1-16


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

n n! n!
Observación:     1 es decir, sólo hay un subconjunto de
 0  0!n  0! n!
tamaño 0 (el vacío, ).
n n! n!
    1 es decir, sólo hay un subconjunto de
 n  n!n  n ! n!0!
tamaño n (el universo, ).

Diferencia entre las Combinaciones y las Permutaciones.

Para ilustrar la diferencia entre las combinaciones y la permutaciones, suponga que una
urna contiene 3 pelotas con las letras “a”, “m” y “o”, y considere el experimento
aleatorio en que extraen de la urna 2 pelotas al azar y sin reemplazo. Las permutaciones
y las combinaciones asociadas a este experimento aleatorio se muestran a continuación.

Figura 1.18

Extracción de 2 pelotas
sin reemplazo
m
a o

Permutaciones ( a , m )
(con orden): ( a , o )
(m, a ) 3! 3! 3  2 1!
P3,2      6 permutaciones
(m, o ) 3  2! 1! 1!
( o , a )
( o , m )

Combinaciones { a , m}
 3 3! 3! 3  2!
(sin orden): { a , o }       3 combinaciones
 2  2!3  2 ! 2!1! 2!
{m , o }

Note cómo si r  1, entonces:


1 n n! 1  n!  1
r! 1   1         Pn, r   Pn, r 
r!  r  r!n  r ! r!  n  r ! r!

Es decir, en general, las permutaciones son mayores a las combinaciones, y la relación


entre ambos conceptos es la siguiente:

n 1
   Pn, r   Pn, r 
 r  r!

Ejercicios E20 y E21 .

DAVID RUELAS RODRÍGUEZ 1-17


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

SUMAS Y PRODUCTOS

Notación: Si x1, x2,…, xn representan n números reales, entonces:


n
 x1  x 2    x n   xi denota su suma; y
i 1
n
 x1 x 2  x n   xi denota su producto.
i 1

Los operadores  y  se denominan sumatoria y productoria, respectivamente.

Los valores por debajo y por arriba de la sumatoria determinan el inicio y el fin de la
suma y se denominan índice o contador.  xi   xi significa que la suma se debe
i
realizar sobre todos los posibles valores del índice i.

Ejercicio E22 . Solución: a) 20; b) 325; c) 791.028; d) 1,847.1; e) 7,052.5; f) 39.0625

Importante

Si x1, x2,…, xn y y1, y2,…, yn son conjuntos de números reales, en general, se puede
afirmar que:
i) x y  x y
i
i i
i
i
i
i

2
 
ii) i x   i xi 
2
i

Propiedades de la suma

Si x1, x2,…, xn y y1, y2,…, yn son conjuntos de números reales y c una constante,
entonces:
n
i)  c  nc
i 1

n n
ii)  cxi  c xi
i 1 i 1

n n n
iii)   x i  y i    xi   y i
i 1 i 1 i 1

Ejercicios E23 y E24 .

DAVID RUELAS RODRÍGUEZ 1-18


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

SUMAS ÚTILES EN PROBABILIDAD

Sumas de naturales
n
nn  1
i) i  1 2  n 
i 1 2
(Suma Gaussiana)

n
nn  12n  1
ii) i
i 1
2
 12  2 2    n 2 
6
(Suma de cuadrados)

Estas fórmulas se pueden demostrar por inducción matemática sobre n, que es el


número de sumandos de cada suma. La Suma Gaussiana recibe su nombre en honor al
matemático alemán Kart Friedrich Gauss (1777 – 1855).

Series Geométricas

1
i) r
k 0
k
 1 r  r2  
1 r
si r  1 (Serie geométrica)

n
1  x n 1
ii) 
k 0
x  1 x  x  x 
k 2

1 x
n
si x ≠ 1 (Serie geométrica truncada)

La serie geométrica truncada se puede demostrar fácilmente multiplicando 1 – x por


1  x  x 2    x n . La serie geométrica es la expansión de la Serie de Taylor de la
1
función f  x   para x  1 , evaluada en r y con centro en cero.
1 x

Serie de Taylor

Si f es una función de clase C  (es decir, que tiene infinitas derivadas continuas) y a una

f k  a  x  a 
k
constante, entonces f  x    es su Serie de Taylor con centro en a.
k 0 k!

Si a = 0, la Serie de Taylor se denomina Serie de Maclaurin.

Corolario. Serie de Maclaurin de ex. (Serie de Taylor de f(x) = ex con a = 0)



xk x2 x3
ex    1 x   
k 0 k! 2! 3!

DAVID RUELAS RODRÍGUEZ 1-19


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

1 1
Note cómo e  e1  1  1      2.718281...
2! 3!

Ejercicio E25 .

Teorema Binomial o Binomio de Newton

Si x, y  R entonces para n = 1, 2,…

x  y n     x k y nk


n n
k 0k  

La demostración de este teorema se puede realizar mediante argumentos combinatorios.


El Binomio de Newton permite calcular productos notables:

Binomio al cuadrado (n = 2). Cuadrado del primero más el doble del primero por el
segundo, más cuadrado del segundo.

2
 2  2  2  2
 x  y 2     x k y 2 k    x 0 y 20    x1 y 21    x 2 y 2 2  y 2  2 xy  x 2
k 0  k  0 1  2
 x  2 xy  y
2 2

Binomio al cubo (n = 3). Cubo del primero, más triplo del primero al cuadrado por el
segundo, más triplo del primero por el segundo al cuadrado, más cubo del último.

3
 3  3  3  3  3
x  y 3     x k y 3k    x 0 y 30    x1 y 31    x 2 y 3 2    x 3 y 33
k 0  k  0 1  2  3
 y  3 xy  3x y  x  x  3x y  3 xy  y
3 2 2 3 3 2 2 3

Una forma fácil de calcular los coeficientes binomiales que aparecen en el Binomio de
Newton es a través del Triángulo de Pascal, como se muestra a continuación.

DAVID RUELAS RODRÍGUEZ 1-20


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Figura 1.19

Suma de Coeficientes
Triángulo de Pascal Coeficientes Binomiales Binomiales

0
n=0 1   1 = 20
0
 1   1
n=1 1 1     2 = 21
 0   1
 2  2  2
n=2 1 2 1  0   1   2  4 = 22
     
 3   3  3   3
n=3 1 3 3 1         8 = 23
 0   1  2   3
 4  4  4  4  4
n=4 1 4 6 4 1           16 = 24
 0 1  2  3  4
  5  5 5  5 5
5
n=5 1 5 10 10 5 1             32 = 25
 0   1   2   3  4   5

...

...
...

...

Corolario
n
n
  k   2 n

k 0  

n
n
Demostración. El Teorema Binomial, x  y      x k y n  k , se establece para todo
n

k 0  k 
n
 n  k nk
x, y  R. Tomando en particular x = y = 1 se obtiene 1  1    1 1 , y por lo
n

k 0  k 
n
n
tanto   k   2 n
.
k 0  

Ejercicio E26 .

El corolario anterior permite demostrar el siguiente teorema, que establece que si el


espacio muestral  es finito y tiene n elementos, entonces el espacio de eventos A tiene
2n elementos.

Teorema

# = n  1  #A = 2n

DAVID RUELAS RODRÍGUEZ 1-21


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

La generalización del Coeficiente Binomial se denomina Coeficiente Multinomial y


permite contar el número de posibles divisiones de n objetos en r distintos grupos de
tamaños n1, n2,…, nr.

Def. Coeficiente Multinomial

 n  n!
Si n1  n 2    nr  n , ni  0, r  1, entonces   
 n1 , n2 ,  , n r  n1!n 2 ! nr !

El Coeficiente Multinomial se define de esta manera ya que para dividir los n objetos en
los r grupos distintos se puede aplicar la regla de la multiplicación (de conteo)
procediendo de la siguiente manera:
 Tomar el número de formas de elegir los n1 elementos del grupo 1 a partir de los n
n
elementos totales,   .
 n1 
 Multiplicar el resultado anterior por el número de formas de elegir a los n2 elementos
 n  n1 
del grupo 2 a partir de los n – n1 elementos restantes,   .
 n2 
 n  n1    ni 1 
 Continuar multiplicando por factores de la forma   hasta i = r,
 ni 
como se muestra a continuación.

 n   n  n  n1  n  n1  n2   n  n1    nr 1 
        
 n1 , n2 ,, nr   n1  n2  n3   nr 

n!

n  n1 !

n  n1  n2 !

n  n1    nr 1 !
n1!n  n1 ! n2 !n  n1  n2 ! n3 !n  n1  n2  n3 ! nr !n  n1  n2    nr !

donde n1  n2    nr  n
n! n!
 
n1 !n 2 !n3 ! n r !0! n1 !n 2 ! n r !

Ejercicio E27 .

DAVID RUELAS RODRÍGUEZ 1-22


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

1.4.2. Axiomas de Probabilidad.

Axiomas de Probabilidad (función de probabilidad)

P : A  [0, 1] se denomina función de probabilidad y satisface los siguientes axiomas:


i) P(A)  0 para todo A  A
ii) P() = 1
iii) Si A1, A2,…, es una sucesión de eventos m.e. en A (Ai  Aj =  para toda i  j),
  
entonces P  Ai    P Ai 
 i 1  i 1

El axioma iii) se denomina aditividad infinita y se puede demostrar que también es


válido para un número finito de eventos.

Teorema. Aditividad finita

 n  n
Si A1, A2,…, An, n  1, son eventos m.e. en A , entonces P  Ai    P Ai 
 i 1  i 1

Def. Espacio de Probabilidad

Es la tripleta (, A, P)

El espacio de probabilidad es un concepto sintético que asume la existencia de un


espacio muestral , un espacio de eventos A, y una función de probabilidad P.

A partir de los axiomas de probabilidad es posible demostrar las siguientes propiedades


que satisface cualquier función de probabilidad P. Estas propiedades son de gran
utilidad en el cálculo de probabilidades.

Teorema. Propiedades de la probabilidad

Si (, A, P) es un espacio de probabilidad con A y B eventos en A , entonces:


i) P(Ac) = 1 – P(A)
ii) P() = 0
iii) Si B  A entonces P(A – B) = P(A) – P(B)
iv) P(AB) = P(A) + P(B) – P(AB)

Ejercicio E28 .

DAVID RUELAS RODRÍGUEZ 1-23


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

La propiedad i) es de gran utilidad en el cálculo de probabilidad, pues en muchos casos


es más fácil calcular la probabilidad del evento complemento (v.gr., el problema del
cumpleaños).

En relación a la propiedad ii), es importante resaltar lo siguiente:

P(A) = 0 no implica A = 

Contraejemplo: Considere el experimento aleatorio en que se elige al azar un número


real. En este caso  = R de modo que # = #R es infinito no numerable. Sean x*  R
un número fijo y A el evento en que el número elegido es x*, de modo que #A = 1.
#A
Entonces, bajo el enfoque clásico de la probabilidad, P A   0 (constante entre
#
infinito), sin embargo A = {x*}  .

En relación a la propiedad iii) es de gran utilidad el siguiente corolario, que permite


calcular la probabilidad de la diferencia de dos eventos arbitrarios.

Corolario

P(A – B) = P(A) – P(AB) para todo A y B eventos en A

Demostración. Observe cómo para todo A y B eventos en A , A – B = A – (AB) y


además AB  A, entonces considerando la propiedad iii) del teorema anterior, tenemos
que P(A – B) = P(A – (AB)) = P(A) – P(AB).

Por último, en relación a la propiedad iv), la fórmula para el cálculo de la probabilidad


de la unión de conjuntos P(AB) = P(A) + P(B) – P(AB) se puede generalizar a través
de la fórmula de inclusión-exlusión.

Teorema. Fórmula de inclusión-exclusión.

Si A1, A2,…, An son eventos en A , entonces:


 n  n
P  Ai    P Ai    P Ai A j    PAi A j Ak    1 P A1 A2  An 
n 1

 i 1  i 1 i<j i<j<k

Intersecciones Intersecciones de Intersección de


binarias tres eventos todos los eventos

La demostración de este resultado se puede realizar:


 Por inducción sobre el número de eventos n; o
 Mediante argumentos combinatorios, mostrando cómo cada lado de la igualdad
incluye los mismos puntos del espacio muestral.

DAVID RUELAS RODRÍGUEZ 1-24


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

En particular, considerando la fórmula de inclusión-exclusión para n = 3 se obtiene la


siguiente expresión:

P A1  A2  A3   P A1   P A2   P A3   P A1 A2   P A1 A3   P A2 A3   P A1 A2 A3 

Este resultado se puede demostrar a partir de la propiedad iv) y mediante la asociatividad


de conjuntos.

Ejercicios E29 , E30 y E31 .

1.5. Probabilidad condicional e independencia

1.5.1. Probabilidad Condicional

Def. Probabilidad Condicional

Si A, B  A , la probabilidad condicional de A dado B, denotada por P(A|B), se define


P A  B 
por P A B   si P(B) > 0; y no se define si P(B) = 0.
P B 

Si P(B) > 0 (o bien P(B)  0), la probabilidad condicional P(A|B) considera que el
evento B ya ocurrió, de modo que ahora P(B) representa el 100% (como si se redefiniera
el espacio muestral) y el cálculo de la probabilidad de A queda restringido a P(AB)
como se muestra en la siguiente figura.

Figura 1.20

A 

B AB

La ocurrencia del evento B puede afectar las circunstancias del fenómeno aleatorio y,
posiblemente, afectar la probabilidad del evento A. El evento A se denomina evento de
interés y al evento B se le llama evento condicionante.

Def. Eventos Favorables y Eventos Desfavorables

i) Si P(A|B) > P(A)  B es favorable a A.


ii) Si P(A|B) < P(A)  B es desfavorable a A.

DAVID RUELAS RODRÍGUEZ 1-25


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Es decir, un evento condicionante es favorable (o desfavorable) al evento de interés si


aumenta (o disminuye) su probabilidad de ocurrencia. Si B no es favorable ni
desfavorable a A entonces A y B son eventos independientes. Por su importancia, este
último concepto se estudiará con detalle más adelante.

A partir de las definiciones anteriores se puede demostrar que si el evento B es favorable


al evento A, entonces también A es favorable a B. Y en forma análoga, si B es
desfavorable a A, entonces también A es desfavorable a B.

Proposición

i) P(A|B) > P(A)  P(B|A) > P(B)


ii) P(A|B) < P(A)  P(B|A) < P(B)

Ejercicios E32 y E33 .

Teorema. Axiomas de Probabilidad de la Probabilidad Condicional

Si (, A, P) es un espacio de probabilidad con P(B) > 0 para B  A entonces P(  |B)


satisface los mismos axiomas que P(  ), es decir:
i) P(A|B)  0 para todo A  A
ii) P(|B) = 1
iii) Si A1, A2,…, es una sucesión de eventos m.e. en A (Ai  Aj =  para toda i  j),
  
entonces P  Ai B    P  Ai B 
 i 1  i 1

Como la Probabilidad Condicional satisface los Axiomas de Probabilidad, la


Probabilidad Condicional posee las mismas propiedades que la Probabilidad No
Condicional o Probabilidad Incondicional.

Proposición. Propiedades de la Probabilidad Condicional

Si (, A, P) es un espacio de probabilidad con A, B y C eventos en A , y P(C) > 0,


entonces:
i) P(Ac|C) = 1 – P(A|C)
ii) P(|C) = 0
iii) P(AB|C) = P(A|C) + P(B|C) – P(AB|C)

DAVID RUELAS RODRÍGUEZ 1-26


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

PROBABILIDAD CONJUNTA Y PROBABILIDAD MARGINAL

Def. Distribución de frecuencias absolutas. Es una tabla que resume los conteos de la
ocurrencia de uno o varios eventos.

Con base en el enfoque frecuentista de la Probabilidad, es posible calcular


probabilidades a partir de la distribución de frecuencias absolutas dividiendo entre el
número total de observaciones. A estas frecuencias relativas también se les denomina
probabilidades empíricas.

Al considerar distribuciones de frecuencias relativas (probabilidades empíricas) que


involucran más de un evento se denomina
 Probabilidades conjuntas, a las probabilidades de las intersecciones; y
 Probabilidades marginales (ubicadas en los márgenes), a las probabilidades que
involucran sólo a un evento, libre de los demás eventos.

Ejercicio E34 .

REGLA DE LA MULTIPLICACIÓN

Proposición. Regla de la Multiplicación (Probabilidad)

Si P(B) > 0, P(AB) = P(B) P(A|B)

La Regla de la Multiplicación es útil para calcular probabilidades de intersecciones.

P A  B 
Demostración. Por definición de probabilidad condicional, P A B   ya que
P B 
P(B) > 0. Entonces despejando P(AB) se obtiene que P(AB) = P(B) P(A|B).

La Regla de la Multiplicación se puede generalizar a n eventos como se muestra en el


siguiente Teorema.

Teorema. Regla de la Multiplicación (caso generalizado)

Si A1, A2,…, An  A , n  2, y P A1 A2  A j   0 para j = 1, 2,…, n – 1, entonces:

P  A1 A2  An   P A1 P  A2 A1 P A3 A1 A2  P  An A1 A2  An 1 

DAVID RUELAS RODRÍGUEZ 1-27


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Diagramas de árbol con probabilidades y Regla de la Multiplicación.

En ocasiones es útil para el cálculo de probabilidades considerar diagramas de árbol


agregando probabilidades en cada una de sus ramas:
 Las probabilidades de las primeras ramas son probabilidades incondicionales.
 Las probabilidades de la ramas internas son condicionales ya que consideran lo
ocurrido previamente.

El caso generalizado de la Regla de la Multiplicación muestra cómo para calcular la


probabilidad de toda una rama de un diagrama de árbol (probabilidad de una
intersección) basta multiplicar todas las probabilidades involucradas en esa rama.

Ejercicios E35 y E36 .

1.5.2. Independencia estadística

Def. Eventos Independientes (ind.)

Sean A, B  A . Se dice que A y B son eventos independientes si cualquiera de las


siguientes condiciones se cumple:
i) P(A|B) = P(A), si P(B) > 0
ii) P(B|A) = P(B), si P(A) > 0
iii) P(AB) = P(A) P(B)

De acuerdo con la definición anterior, A y B son eventos independientes si la ocurrencia


de uno no influye en la probabilidad del otro. Esto es evidente en las condiciones i) y
ii). La condición iii) es equivalente a las dos anteriores. A continuación se demuestra
cómo i) implica iii).

Demostración. De la Regla de la Multiplicación sabemos que P(AB) = P(B) P(A|B)


pero como A y B son independientes P(A|B) = P(A), y entonces P(AB) = P(A) P(B).

Intuitivamente es posible hacer hipótesis acerca de la independencia de eventos, sin


embargo, para demostrar la independencia de eventos es necesario verificar que se
cumpla cualquiera de las condiciones de la definición. Frecuentemente la independencia
se verifica mediante la definición iii) pues establece que “la probabilidad de la
intersección es igual al producto de las probabilidades” o que “la probabilidad conjunta
es igual al producto de las probabilidades marginales”.

Se dice que A y B son eventos dependientes si no son independientes.

Ejercicios E37 y E38 .

DAVID RUELAS RODRÍGUEZ 1-28


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Importante. Eventos independientes y eventos mutuamente excluyentes son conceptos


muy distintos; sin embargo, se pueden relacionar a través de la siguiente proposición.

Proposición

Si A y B son eventos mutuamente excluyentes tales que P(A) > 0 y P(B) > 0 entonces no
pueden ser independientes.

Note cómo el simple hecho de saber que A y B son m.e. hace que sepamos que si ocurre
B entonces no puede ocurrir A y viceversa; entonces, A y B no son independientes.

Ejercicio E39 .

Teorema

Si A y B son eventos independientes, entonces también lo son:


i) A y Bc
ii) Ac y B
iii) Ac y Bc

Def. Eventos Completamente Independientes

Se dice que A1, A2,…, An  A ., son eventos completamente independientes sí y sólo sí:
PAi  A j   P Ai PA j  para toda i  j (independencia dos a dos)

P Ai  A j  Ak   P Ai P A j P Ak  para toda i  j, i  k y j  k (ind. tres a tres)


 n  n
P  Ai    P Ai 
 i i  i 1

Importante. Independencia dos a dos no implica independencia completa.

Ejercicios E40 y E41 .

DAVID RUELAS RODRÍGUEZ 1-29


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

1.5.3. Regla de Probabilidades Totales y Teorema de Bayes

Def. Partición

Se dice que B1, B2,…, Bn forman una partición de  si:


i) Bi  Bj =  para toda i  j (eventos m.e.); y
n
ii) B i   (eventos exhaustivos)
i 1

Gráficamente una partición se puede representar mediante Diagramas de Venn como se


muestra a continuación.

Figura 1.21
Para n = 4 Para n general Para n = 2, B1 = B  B2 = Bc
 B1 B2 B3 Bn  B Bc 
B3
B1

B4
B2

Proposición

B y B c forman una partición de 

Proposición. (ver Figura 1.22)

Si B1, B2,…, Bn  A forman una partición de  y A es un evento inmerso en la


partición, entonces B1A, B2A,…, BnA son eventos m.e.

DAVID RUELAS RODRÍGUEZ 1-30


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Teorema. Regla de Probabilidades Totales (RPT)

Si B1, B2,…, Bn  A forman una partición de  y P(Bi) > 0, i = 1, 2,…, n; entonces para
A  A , P A   P A Bi PBi 
n

i 1

Figura 1.22
RPT para n general RPT para B y Bc

B1 B2 B3 … Bn  B Bc 

A A

AB ABc

La RPT permite calcular la probabilidad de un evento A inmerso en una partición B1,


B2,…, Bn, condicionando sobre cada elemento de la partición.

Corolario. RPT para B y Bc.


P A  P A B PB   P A B c P B c 
Demostración. Como B y Bc forman una partición de , A = (AB)  (ABc), donde
AB y ABc son m.e., entonces por aditividad finita P(A) = P(AB) + P(ABc).
Finalmente, aplicando la Regla de la Multiplicación para la calcular probabilidad de la

intersección en cada sumando se obtiene P A  P A B PB   P A B c P B c .  
La demostración de la RPT para el caso generalizado se puede realizar siguiendo este
mismo razonamiento.

Al considerar diagramas de árbol con probabilidades en sus ramas, la RPT es el


fundamento probabilístico que permite calcular la probabilidad de un evento de interés
sumando los productos de las probabilidades de las ramas que conducen a la ocurrencia
del evento.

Ejercicios E42 y E43 .

DAVID RUELAS RODRÍGUEZ 1-31


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 1

Teorema de Bayes (TB)

Si B1, B2,…, Bn  A forman una partición de  y P(Bi) > 0, i = 1, 2,…, n; entonces para


A  A con P(A) > 0, P B j A  n
P A B j PB j 
  
para j = 1, 2,…, n.
 PA Bi PBi 
i 1

Figura 1.23
TB para j = 2 TB para B y Bc

B1 B2 B3 … Bn  B Bc 

A A

A diferencia de la RPT, el Teorema de Bayes permite calcular la probabilidad


condicional de uno de los eventos de la partición condicionando en el evento inmerso en
la partición.

Note cómo en el Teorema de Bayes:


 El denominador es la RPT; y
 El numerador siempre aparece como un sumando del denominador.

Corolario. Teorema de Bayes para B y Bc.

PA B PB 
P B A 
    si P(A) > 0
P A B PB   P A B c P B c

P B  A
Demostración. Por definición de probabilidad condicional P B A  para
P  A
P(A) > 0. Aplicando conmutatividad y Regla de la Multiplicación en el numerador se
obtiene P(BA) = P(AB) = P(A|B) P(B). Por su parte, como B y Bc forman una
partición de  en el denominador se obtiene P A  P A B PB   P A B c P B c al   
aplicar la RPT. Finalmente sustituyendo numerador y denominador se obtiene el
PA B PB 
resultado deseado, es decir, P B A 

P A B PB   P A B c PB c 
.

Ejercicios E44 , E45 y E46 .

DAVID RUELAS RODRÍGUEZ 1-32


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

2. Variables Aleatorias

2.1. Definición y propiedades de variables aleatorias discretas y


absolutamente continuas.
Def. Variable Aleatoria (v.a.)

Se dice que X es una variable aleatoria si X:   R, es decir, una función cuyo dominio
es el espacio muestral y su contradominio la recta real.

Figura 2.1

 X

1 5
3
2 4 R
– 0 +

La imagen o rango de la función X se denomina soporte de la variable aleatoria X.

Ejercicio E47 .

Clasificación de las variables aleatorias. Con base en su soporte, las variables


aleatorias se clasifican en discretas y continuas.
 Variables aleatorias discretas. Se asocian a un espacio muestral discreto, su soporte
es finito o infinito numerable y provienen de un proceso de conteo.
 Variables aleatorias continuas. Se asocian a un espacio muestral continuo, su
soporte es infinito no numerable y provienen de un proceso de medición.

Son ejemplos de variables aleatorias discretas: el número de éxitos al realizar varias


repeticiones de un experimento, el número de autobuses que llegan a una central, el
número de llamadas telefónicas que recibe una operadora, etc.

Son ejemplos de variables aleatorias continuas: la distancia diaria que recorre un coche
elegido al azar, la temperatura promedio de un día, el volumen de lluvia que cae durante
una tormenta, la duración de una llamada telefónica, el monto que debe pagar
diariamente una aseguradora a sus asegurados, etc.

Ejercicio E48 .

DAVID RUELAS RODRÍGUEZ 2-1


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

2.2. Funciones de masa, densidad y distribución de probabilidad.


2.2.1. Función de masa de probabilidad (f.m.p.)

Def. Función de masa de probabilidad (f.m.p.)

Si X es variable aleatoria discreta con soporte {x1, x2,…}, se dice que la función fX(),
fX : R  [0, 1], es la función de masa de probabilidad de X si:
 P X  x   0 si x  x1 , x2 ,
i) f X  x    ;y
0 en otro caso (e.o.c.)
ii)  f x   1
x
X

Por ejemplo, si se lanzan 2 volados con una moneda honesta y X es el número de


águilas, entonces X  {0, 1, 2}, el espacio muestral asociado a este experimento
aleatorio se muestra en la figura 2.2.

Figura 2.2

Volado 1 Volado 2  P() X = X()

f X 0   P X  0  P S , S  
1 1 1
2 A (A, A) 4 2
A
4
1

f X 1  PX  1  P  A, S   S , A 


2 1 1 1 1 1
2
S (A, S) 4 1  
4 4 2
1 1
A (S, A) 1
f X 2   PX  2  P  A, A 
1
2 4 1
2 S 4
1 1
2
S (S, S) 4 0

Consecuentemente, la función de masa de probabilidad de la variable aleatoria X es


 14 si x  0, 2

f X  x    12 si x  1
0 e.o.c.

y su gráfica se muestra a continuación.

Figura 2.3

y
1

1
fX(x)
2
1
4
0
-1 0 1 2 x

DAVID RUELAS RODRÍGUEZ 2-2


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Al conjunto de probabilidades asociadas a la variable aleatoria X se le llama


distribución de probabilidades o distribución de la variable aleatoria X.

Una forma común de representar la distribución de probabilidades de una variable


aleatoria discreta es a través de la representación tabular de su f.m.p., es decir, una
tabla que muestra las parejas (x, fX(x)) para cada valor del soporte de la variable aleatoria
X. Note cómo la representación tabular omite el “cero en otro caso”.

Importante. Para el caso discreto el contradominio de la f.m.p. es [0, 1], ya que fX(x) es
una probabilidad.

Proposición. Cálculo de probabilidades vía f.m.p.

Si X es variable aleatoria discreta y A  R, entonces P X  A   f X  x 


xA

Corolario. En particular:

Si X es variable aleatoria discreta Pa  X  b    f x  X


x : a  x b 

Ejercicio E49 .

Def. Función Indicadora

1 si x  A
La función indicadora del conjunto A se define por I A  x   
0 si x  A

1 si x  0,1,, 9
Por ejemplo, si A es el conjunto de los dígitos, entonces I A  x    ,
0 e.o.c.
de modo que IA(5) = 1 pero IA(10) = 0, IA(1.5) = 0 y IA(–1) = 0.

Una notación alternativa de las funciones indicadoras es 1(x  A) = IA(x).

Las funciones indicadoras ayudan a simplificar la notación de las funciones utilizadas en


Probabilidad ya que los distintos casos convierten en sumandos y el “cero en otro caso”
queda implícito. Por ejemplo, considerando nuevamente el lanzamiento de 2 volados
con una moneda honesta, si X es el número de águilas obtenidas, entonces:
 14 si x  0, 2

f X  x    12 si x  1 se expresaría como f X  x   I 0, 2  x   I 1  x  .
1 1
0 e.o.c. 4 2

DAVID RUELAS RODRÍGUEZ 2-3


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Propiedades de la Función Indicadora

i) I A  x   1  I Ac  x 
ii) I A1  A2  An  x   I A1  x I A2  x  I An  x 
iii) 
I A1  A2  An  x   max I A1  x , I A2  x ,, I An x  
iv) I A2  x   I A x  (idempotencia)

Ejercicios E50 , E51 y E52 .

Def. Modelos Paramétricos

Un modelo paramétrico es una función de masa de probabilidad que involucra


constantes llamadas parámetros y cuyos valores determinan por completo el
comportamiento probabilístico de un fenómeno aleatorio (distribución de probabilidad).

Al conjunto de valores posibles de los parámetros se le denomina espacio paramétrico.

Por ejemplo, un modelo paramétrico utilizado frecuentemente en Probabilidad es la


Distribución Geométrica. Se dice que X tiene una Distribución Geométrica si

f X  x   p1  p  I 1, 2,  x  , 0 < p < 1


x 1
X ~ Ge(p) 

Parámetro Espacio
paramétrico

Aplicaciones. Si un experimento aleatorio (i) puede ser éxito con probabilidad p o


fracaso con probabilidad 1 – p, (ii) el resultado de cada experimento es independiente de
los demás; y (iii) X es el número de experimentos necesarios hasta obtener el primer
éxito, entonces X tiene una Distribución Geométrica con parámetro p. Este modelo
paramétrico puede ser utilizado para modelar el número de lanzamientos de un dado
necesarios hasta obtener un 6 (en este caso p  16 ), el número de hijos que tendrá una
pareja que decide tener hijos hasta tener una niña (en este caso el parámetro p es la
probabilidad de tener una niña en cierta población), etc.

Ejercicio E53 .

DAVID RUELAS RODRÍGUEZ 2-4


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

2.2.2. Función de densidad de probabilidad (f.d.p.)

Def. Función de densidad de probabilidad (f.d.p.)

Si X es variable aleatoria continua, se dice que la función fX(), fX : R  [0, ), es la


función de densidad de probabilidad de X si:
i) f X  x   0 para toda x  R; y

ii)  f X x dx  1


Figura 2.4

y z

2 fY(y)
0.6 fX(x)

0.4
Área = 1 1 Área = 1
0.2

0.0 0
-1 0 1 2 3 4 5 x -0.5 0 0.5 1 y

La principal diferencia entre las variables aleatorias discretas y continuas es que en el


caso discreto se consideran sumas de masas de probabilidad y en el caso continuo se
consideran áreas bajo la curva, ya que el soporte de las variables aleatorias continuas
es denso (propiedad de los números reales). En la figura 2.4 se observa cómo el área
bajo la curva de cada f.d.p. es igual a 1 (correspondiente al 100% del espacio muestral).

Importante. Para el caso continuo el contradominio de la f.d.p. es [0, ) (y no [0, 1]


como en el caso discreto) ya que fX(x) no es una probabilidad (de hecho ni siquiera es
relevante). Por ejemplo, en el caso de la f.d.p. de la variable aleatoria Y de la figura 2.4,
fY(y) > 1 para 0 < y < 0.5.

En el caso continuo lo relevante para el cálculo de probabilidades no es el valor que


toma la f.d.p. sino el área bajo la curva.

Proposición. Cálculo de probabilidades vía f.d.p.

Si X es variable aleatoria continua y A  R, entonces PX  A   f X  x dx


A

DAVID RUELAS RODRÍGUEZ 2-5


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Corolario. En particular:

Si X es variable aleatoria continua Pa  X  b   f X  x dx


b

Figura 2.5

fX(x)

Área = P [a ≤ X ≤ b]

0.0
-1 0 1a 2 3
b 4 5 x

Proposición

Si X es variable aleatoria continua entonces:


i) P  X  a   0
ii) P X  a   P X  a 

Demostración. Para el caso i) si X es variable aleatoria continua con f.d.p. fX(x) y h > 0
entonces Pa  X  a  h  
ah
f X  x dx , de modo que para h suficientemente pequeña
a

se obtiene que P X  a   lim Pa  X  a  h  lim 


ah
f X  x dx   f X  x dx  0 . Para
a

h 0 h 0 a a

el caso ii) cómo X es variable aleatoria continua {X  a} = {X < a}  {X = a}, en donde


{X < a} y {X = a} son eventos m.e., entonces considerando el resultado demostrado en
el caso i) se tiene que P X  a   P X  a   P X  a   P X  a   0  P X  a  .

Proposición. Generalización del caso ii) de la proposición anterior.

Si X es variable aleatoria continua entonces para a  b:


Pa  X  b   Pa  X  b  Pa  X  b  Pa  X  b

Ejercicios E54 , E55 y E56 .

DAVID RUELAS RODRÍGUEZ 2-6


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

2.2.3. Función de distribución acumulada (f.d.a.)

Def. Función de distribución acumulada (f.d.a.)

Se dice que la función FX(), FX : R  [0, 1] es la función de distribución acumulada de


la variable aleatoria X si FX  x   P X  x  para toda x  R.

La f.d.a. tiene la misma definición para variables aleatorias discretas o continuas.


La figura 2.6 contrasta la relación que hay entre la f.m.p. y su correspondiente f.d.a.
(caso discreto) y la relación que hay entre la f.d.p. y su correspondiente f.d.a. (caso
continuo).

Figura 2.6

Caso discreto Caso continuo

w w
1
0.6
fY(y) fZ (z)
0.2
0.1 0.1

Área = 0.5
0 0.0
-3 -2 -1 0 1 2 3 4 y -1 0 1 2 3 4 z

w w
1 FY(y) 1 FZ (z)
0.9

0.6
0.5
0.3 FZ(1) = P[Z ≤ 1] = 0.5
0.2
0 0
-3 -2 -1 0 1 2 3 4 y -1 0 1 2 3 4 z

Proposición

i) Si W es variable aleatoria discreta con soporte {w1, w2,…} entonces


FW w  PW  w   fW ( wi ) para toda w  R (función escalonada)
wi : wi  w
ii) Si Z es variable aleatoria continua entonces
FZ z   PZ  z    f Z t dt para toda z  R (función continua)
z



DAVID RUELAS RODRÍGUEZ 2-7


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Note cómo el cálculo de la f.d.a. en el caso continuo requiere un cambio de notación


en la variable del integrando para evitar ambigüedad. Este cambio es válido ya que en
cualquier integral definida la variable del integrando es una variable muda.

Caracterización de la f.d.a.

Se dice que la función FX(), FX : R  [0, 1] es la función de distribución acumulada de


la variable aleatoria X si y sólo si:
i) lim FX  x   0 y lim FX  x   1 ;
x   x 

ii) FX() es no decreciente, es decir, a < b  FX a   FX b  ; y


iii) FX() es continua por la derecha, es decir, lim FX  x  h   FX  x  para h > 0.
h 0

En la figura 2.6 se puede apreciar cómo tanto FY(y) (caso discreto) como FZ(z) (caso
continuo) satisfacen las 3 condiciones que caracterizan a cualquier f.d.a.

Notación. Por practicidad, se considerarán las siguientes simplificaciones en la notación


que involucre límites:
 Límites al infinito: lim FX  x   FX   .
x 

 Límites por la derecha: lim FX a  h   lim FX  x   FX a   para h > 0.


h 0 xa

 Límites por la izquierda: lim FX a  h   lim FX  x   FX a   para h > 0.


h 0 xa

Ejercicios E57 , E58 y E59 .

Proposición

i) Si W es variable aleatoria discreta con a < b, Pa  W  b  FW b   FW a   


ii) Si Z es variable aleatoria continua con a < b, Pa  Z  b   FZ b   FZ a 

Construcción de la f.m.p. (caso discreto) y de la f.d.p. (caso continuo) vía f.d.a.

i) Si W es variable aleatoria discreta entonces fW w  FW w  FW w   


ii) Si Z es variable aleatoria continua entonces f Z  z   FZ  z 
d
dz

Ejercicios E60 y E61 .

DAVID RUELAS RODRÍGUEZ 2-8


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Def. Función de Supervivencia

Se dice que la función SX(), SX : [0, )  [0, 1] es la función de supervivencia de la


variable aleatoria X si S X x   PX  x  para x  0.

Las funciones de supervivencia son útiles para modelar el tiempo futuro de vida. Por
ejemplo, el tiempo a la muerte de algunas especies (v.gr., seres humanos, animales,
bacterias, virus y algunas otras especies biológicas), o la vida útil de algunos objetos
(v.gr., maquinaria, mobiliario, equipo de cómputo, artículos electrodomésticos). A la
rama de la Estadística encargada del estudio de esta clase de fenómenos se le conoce
como Análisis de Supervivencia.

Proposición

S X  x   1  FX  x  para x  0

Demostración. Por definición, si x  0: S X  x   PX  x   1  PX  x   1  FX  x  .

Ejercicio E62 .

2.3. Características numéricas de las variables aleatorias


2.3.1. Esperanza, varianza y momentos de variables aleatorias

Def. Esperanza

Si X es variable aleatoria, entonces su esperanza o media es:


i) E X    x f X  x  si X es discreta.
x

E X   

ii) x f X  x dx si X es continua.


La esperanza, también conocida como esperanza matemática o media, es el promedio


ponderado de los valores que toma X, ponderados por sus respectivas probabilidades.
En el caso continuo este promedio ponderado llevado al límite se convierte en una
integral.

DAVID RUELAS RODRÍGUEZ 2-9


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Figura 2.7

Caso discreto Caso continuo

y y

1 0.6

0.4
0.4 0.4 fW (w) fZ (z)

0.2
0.1 0.1

0 0.0
-1 0 1 2 3 4 5 w -1 z
E[W] E[Z]

Por ejemplo, la esperanza de la variable aleatoria W de la figura 2.7 es:

E W    wfW w  10.1  2 0.4   30.4  4 0.1  2.5


w

Geométricamente, E X  es el centro de masa de la función fX(x), es decir, el punto en


el cuál la f.m.p. (caso discreto) o la f.d.p. (caso continuo) se equilibran, como se muestra
en la figura 2.7.

Cuando E  X  es de la forma  o  – , se dice que la esperanza no existe. La


esperanza existe únicamente si E X    , es decir, cuando converge a un valor.

Proposición

Si E X  existe y a  X  b  a  E X   b

Si X es variable aleatoria discreta, E X  puede tomar un valor acotado por su soporte


pero que no necesariamente pertenece al soporte, como se observa en la figura 2.7.

Ejercicios E63 , E64 , E65 , E66 y E67 .

Proposición. Esperanza de v.a.’s continuas vía f.d.a.

Si X es variable aleatoria continua, E X    1  FX  x dx  



FX  x dx
0

0 

La demostración de esta proposición se puede realizar resolviendo la doble integral que


aparece al sustituir FX  x    f X t dt y aplicando el Teorema de Fubini (intercambio
x



en el orden de integración sobre la misma región).

DAVID RUELAS RODRÍGUEZ 2-10


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

El concepto de esperanza se puede generalizar a través del valor esperado.

Def. Valor Esperado

Si X es variable aleatoria y g(X) una transformación de ésta, g: R  R, entonces el valor


esperado de g(X) se define por:
i) E g  X    g  x  f X  x  si X es discreta.
x

E g  X   

ii) g  x  f X  x dx si X es continua.


Son ejemplos de la transformación g: g  X   X 2 , g  X   ln  X  , g  X    X  c 


2

donde c es una constante, etc. El valor esperado es la generalización de la esperanza


ya que Y  g  X  es una nueva variable aleatoria. La esperanza es un caso particular
del valor esperado, considerando la transformación identidad g  X   X .

Por la forma en que se define, al cálculo del valor esperado también se le conoce como
ley del estadístico inconsciente (LEI), pues para calcular el valor esperado de la nueva
variable aleatoria Y  g  X  basta aplicar la transformación g() a X (lado izquierdo) y a
sus posibles valores x (lado derecho).

Igual que en el caso de la esperanza, cuando E g  X  es de la forma  o  – , se dice


que el valor esperado no existe. El valor esperado existe únicamente si E g  X    ,
es decir, cuando converge a un valor.

Aunque X es la variable aleatoria para la cuál se conoce fX(x), la definición de valor


esperado permite calcular E Y   E g  X  sin necesidad de conocer fY(y). Por ejemplo,
si X denota la cantidad producida de algún bien con fX(x) conocida y C(X) es su función
de costos, entonces el costo esperado es E C  X  . Del mismo modo es posible hablar
de utilidad esperada, ingreso esperado, etc.

Cálculo de probabilidades de Y = g(X) vía fX(x).

Si Y  g  X  y fX(x) es conocida pero fY(y) no, es posible hacer el cálculo de


probabilidades asociadas a la variable aleatoria Y a partir de fX(x) “despejando
adecuadamente” a X de la ecuación Y  g  X  .

Ejercicios E68 y E69 .

DAVID RUELAS RODRÍGUEZ 2-11


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Def. Momentos y Momentos Centrales

Si X es variable aleatoria y k  Z+, entonces:


 
i)  k  E X k es su k-ésimo momento.
ii)  
 k  E  X  E X k es su k-ésimo momento central.

El cálculo de los momentos y de los momentos centrales se realiza aplicando la ley del
estadístico inconsciente considerando las transformaciones gX   X k y
g  X    X  E X  , respectivamente.
k

 
Note cómo k = 1  1  E X 1  E  X  , es decir, el primer momento de una variable
aleatoria es su esperanza.

Algunos momentos (centrales y no centrales) tienen interpretación, algunos otros sólo


sirven de manera auxiliar en el cálculo de otras características numéricas importantes de
las distribuciones de probabilidad de las variables aleatorias.

Ejercicio E70 .

Proposición. Momentos centrales vía momentos no centrales

k
k 
 k    1i  1 i  k i para k  Z+, con  0  1
i 0 i

La proposición establece que cualquier momento central se puede calcular a partir de los
momentos no centrales. Considerando la fórmula anterior para k = 2, 3 y 4 se obtienen
los resultados del siguiente corolario.

Corolario. Fórmula para el segundo, tercer y cuarto momentos centrales

Si X es variable aleatoria y E X    , entonces:


i)  
 2   2  1 2 , es decir, E  X   2  E X 2   E  X 2
ii)  3   3  31 2  21  , es decir,
3

     
E  X     E X 3  3E  X E X 2  2E  X 
3 3
(ver formulario)
iii)  4   4  4 1 3  61   2  31  , es decir,
2 4

       
E  X     E X 4  4 E X E X 3  6E  X  E X 2  3E X 
4 2 4
(ver formulario)

DAVID RUELAS RODRÍGUEZ 2-12


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Def. Varianza


Si X es variable aleatoria, entonces su varianza se define por Var X   E  X  E X 
2

Note cómo la varianza es el segundo momento central.

La varianza es una medida de dispersión de la distribución de la variable aleatoria X


respecto a su esperanza como se muestra en la figura 2.8.

Figura 2.8

x1 x3 x2
X
– 
E[X] = 

x1 –  < 0

x2 –  > 0

Note cómo:
 X  E  X  es una distancia aleatoria con signo (positiva para algunas realizaciones de
X y negativa para algunas otras, como se muestra en la figura 2.8); y
 g  X    X  E  X   0 es una distancia aleatoria positiva (o cero), pero con
2

unidades al cuadrado.

El cálculo de la varianza de X es simple y sencillamente el cálculo del valor esperado de


g  X    X  E  X   0 , es decir, de una transformación de la variable aleatoria X.
2

Proposición

Var  X   0

Para resolver el problema de las unidades al cuadrado de la varianza se define la


desviación estándar como la raíz cuadrada de la varianza.

DAVID RUELAS RODRÍGUEZ 2-13


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Def. Desviación Estándar

 X   Var X 

La desviación estándar es una medida de dispersión de la distribución de la variable


aleatoria X respecto a su esperanza, pero medida en las mismas unidades que la variable.

Ejercicio E71 .

El cálculo de la varianza (y de la desviación estándar en consecuencia) se puede


simplificar a través del siguiente teorema.

Teorema

 
Var X   E X 2  E  X 
2

Ejercicios E72 , E73 , E74 y E75 .

2.3.2. Propiedades del valor esperado y la varianza

Teorema

Si X es variable aleatoria; a, b, c  R; y f, g : R  R, entonces:


i) E c   c
ii) E ag  X   bh X   aE g  X   bE h X  (operador lineal)
iii) Var c   0
iv) Var cX   c 2Var X 
v) Var X  c   Var  X 

Importante. Cualquier operador que “saca constantes” y que “parte sumas”, se


denomina operador lineal. En particular, E[] es un operador lineal como se observa en
la propiedad ii) del Teorema anterior.

Ejercicios E76 y E77 .

DAVID RUELAS RODRÍGUEZ 2-14


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

2.3.3. Medidas poblacionales


Figura 2.9

MEDIDAS POBLACIONALES
Grupo Descripción Medidas

• Ubican la parte central de • Media


Tendencia
una distribución de • Mediana
central
probabilidades • Moda

• Segmentan el soporte de • Percentiles


Localización
una distribución mediante • Cuartiles
valores que cuantifican la • Cuantiles
probabilidad acumulada
Medidas
poblacio-
nales • Miden el grado de • Varianza
Dispersión
variabilidad de la • Desviación estándar
distribución, es decir, su • Coeficiente de variación
grado de concentración o • Amplitud intercuartílica
dispersión • Desviación media

Medidas que • Permiten inferir el perfil de • Coeficiente de asimetría


caracterizan Simetría y
la distribución de • Coeficiente de curtosis
y cuantifican forma
probabilidades
aspectos
relevantes de
una v.a.’s v.a.’s Medidas estudiadas
distribución Discretas Continuas previamente

MEDIDAS DE TENDENCIA CENTRAL

Def. Moda

La moda de la variable aleatoria X, denotada por Mo, es el valor del soporte de X que
maximiza a fX(x), es decir, su f.m.p. (caso discreto) o su f.d.p. (caso continuo).

Figura 2.10

Distribución unimodal Distribución multimodal Distribución amodal

w w w
Distribución
0.8 0.8 0.8 Uniforme Continua

0.4 0.4 0.4


fX(x) fY(y) fZ (z)

0.0 0.0 0.0


-1 0 Mo x -1 Mo1 Mo2 y -1 0 z

DAVID RUELAS RODRÍGUEZ 2-15


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

La moda puede no ser única o incluso no existir:


 Si fX(x) alcanza su máximo en un sólo punto se dice que X tiene una distribución
unimodal.
 Si fX(x) alcanza su máximo en más de un punto se dice que X tiene una distribución
multimodal. En estricto sentido, la moda es el valor para el cuál fX(x) es un máximo
global, sin embargo, es común considerar como modas a los valores en los que fX(x)
alcanza un máximo local como se muestra en la figura 2.10.
 Si fX(x) toma el mismo valor en todos los puntos del soporte se dice que X tiene una
distribución amodal.

Si X es variable aleatoria discreta, su moda es el valor más probable.

Def. Mediana

Si X es variable aleatoria con f.d.a. FX(x), entonces su mediana, denotada por Md, es el
valor del soporte de X tal que:
 
i) FX Md    FX Md  si X es discreta.
1
2
ii) FX Md   si X es continua.
1
2

Figura 2.11

Caso discreto Caso continuo

w w
1

0.4
fZ (z)
0.3
0.2
0.1 fY(y)
Área = 0.5
0 0.0
-3 -2 -1 0 1 2 3 4 y -1 0 1
Md 2 3 4 z

w w
1 FY(y) 1 FZ (z)

0.7
0.5 0.5
0.3
0.2
0 0
-3 -2 -1 0 1 2 3 4 y -1 0 1
Md 2 3 4 z
Md = 2

FY (2–) = 0.3 < 0.5  0.7 = FY (2)

DAVID RUELAS RODRÍGUEZ 2-16


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

La mediana es el valor de X por debajo (y por arriba) del cuál se acumula el 50% de la
distribución de probabilidades.

 FX  x  .
1
En el caso discreto, la mediana es el mínimo valor de x tal que
2

Ventajas de la mediana sobre la media:


 La mediana siempre existe.
 La mediana es una mejor medida de tendencia central en distribuciones no
simétricas.

Def. Distribución Simétrica

Si X es variable aleatoria con f.m.p. (caso discreto) o f.d.p. (caso continuo) fX(x) y c  R,
se dice que X tiene una distribución simétrica respecto a c si f X c  x   f X c  x  .

Ejercicios E78 y E79 .

MEDIDAS DE LOCALIZACIÓN

Def. Percentiles

Si X es variable aleatoria con f.d.a. FX(x), entonces el percentil , 0 <  < 1, denotado
por p, es el valor del soporte de X tal que:
 
i) FX p    FX  p  si X es discreta.
ii) FX  p    si X es continua.

Figura 2.12

Caso discreto Caso continuo


w w
1 FY(y) 1 FZ (z)
0.9

 

0.4
0.2
0 0
-3 -2 -1 0 1 2 3 4 y -1 0 1 p 2 3 4 z
p = 1

FY (1–) = 0.4 <   0.9 = FY (1)

DAVID RUELAS RODRÍGUEZ 2-17


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

El percentil  es el valor de X por debajo del cual se acumula el 100% de la


distribución de probabilidades.

En el caso discreto, el percentil  es el mínimo valor de x tal que   FX  x  .

Los percentiles 0.1, 0.2,…, 0.9 se denominan deciles, y surgen frecuentemente en


aplicaciones de Economía (v.gr., distribución del ingreso).

Proposición

Si X es variable aleatoria continua y 0 <  <  < 1, entonces P p  X  p      

 
Demostración. P p  X  p   FX  p    FX  p      .

Figura 2.13

y P [X  p] = 
P [X  p] = 
fX(x)

P [p X  p] =  – 

0.0
-1 0 p1  2 3
p 4 5 x

El percentil  de una distribución involucra un área , 0 <  < 1, en la cola izquierda


de la distribución de la variable aleatoria X.

Def. Cuantil. El valor del soporte de X que deja un área  en la cola derecha de la
distribución se denomina cuantil  y se denota por q.

Figura 2.13

fX(x)

Área = 1 – 

Área = 

0.0
-1 0 1 q2 3 4 5 x

p1–

DAVID RUELAS RODRÍGUEZ 2-18


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Proposición. Cuantiles vía percentiles

q  p1

Def. Cuartiles

Si X es variable aleatoria entonces:


i) El primer cuartil o cuartil inferior se define por Q1 = p0.25
ii) El segundo cuartil se define por Q2 = p0.50
iii) El tercer cuartil o cuartil superior se define por Q3 = p0.75

Los cuartiles son los valores del soporte de X que dividen la distribución de
probabilidades en 4 regiones equiprobables (25% en cada región) como se muestra en la
figura 2.14.

Figura 2.14

Área = 0.25

fX(x)
0.0
x
0 Q1 Q2 Q3

Proposición.

Md  Q2  p0.50

Ejercicio E80 .

MEDIDAS DE DISPERSIÓN

Def. Coeficiente de variación

Si X es variable aleatoria, su esperanza existe y E  X   0 , entonces su coeficiente de


 X 
variación se define por CV X  
EX 

DAVID RUELAS RODRÍGUEZ 2-19


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Tanto la desviación estándar como la media de la variable aleatoria X se expresan en las


mismas unidades y en su cociente quedan canceladas, consecuentemente el coeficiente
de variación es adimensional y en ocasiones se expresa como porcentaje. De hecho,
es la desviación estándar como porcentaje de la media, es decir, una medida de
dispersión relativa.

Ejercicio E81 .

Def. Amplitud intercuartílica (AI)

AI  Q3  Q1

La amplitud intercuartílica o amplitud intercuartil mide la variabilidad de la


distribución de la variable aleatoria X considerando la distancia entre el primer y el
tercer cuartiles.

Def. Desviación media respecto a la media

Si X es variable aleatoria con   E X    su desviación media respecto a la media se


define por DM    E  X   

La transformación g  X   X   es la variación absoluta de la variable aleatoria X


respecto a su media   E X . La desviación media respecto a la media mide la
variación absoluta promedio de una variable aleatoria respecto a su media.

El concepto de desviación media se puede aplicar respecto a otras medidas de tendencia


central, por ejemplo, moda o mediana:
 Desviación media respecto a la moda. DM Mo   E  X  Mo  , siempre y cuando X
tenga una distribución unimodal.
 Desviación media respecto a la mediana. DM Md   E  X  Md 

La desviación estándar es preferida sobre la desviación media respecto a la media


porque, en general, el cálculo   X  es más simple que el de DM   y por las
propiedades matemáticas de la transformación g  X    X    (función cuadrática)
2

frente a las de g  X   X   (función valor absoluto).

En general, la desviación estándar sobredimensiona la variabilidad en comparación


con la desviación media respecto a la media.

DAVID RUELAS RODRÍGUEZ 2-20


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

MEDIDAS DE SIMETRÍA Y FORMA

Las distribuciones de probabilidad (o curvas poblacionales) se clasifican de acuerdo con


su grado de simetría en simétricas o en asimétricas (con sesgo derecho o izquierdo).

Figura 2.15

CLASIFICACIÓN DE LAS CURVAS POBLACIONALES DE ACUERDO CON


SU GRADO DE SIMETRÍA

Tipo de curva Gráfica Características

Simétrica • Existe un valor central alrededor


del cual se concentran los datos
• Son igualmente probables valores
superiores o inferiores

Asimétrica con Sesgo • Su extremidad o cola derecha está


sesgo derecho derecho más extendida
• Presenta un corte en el lado
derecho de su figura
• Hay mayor concentración de datos
en los valores pequeños

Asimétrica con Sesgo • Su extremidad o cola izquierda


sesgo izquierdo izquierdo está más extendida
• Presenta un corte en el lado
izquierdo de su figura
• Hay mayor concentración de datos
en los valores grandes

De acuerdo con su picudez (o planura), las distribuciones de probabilidad se clasifican


en mesocúrticas (curva media), platicúrticas (curva plana) o leptocúrticas (curva
pronunciada).

Figura 2.16

CLASIFICACIÓN DE LAS CURVAS POBLACIONALES DE ACUERDO CON


SU “PICUDEZ”

Tipo de curva Gráfica Características

Mesocúrtica • Presenta un pico mediano


• Los datos presentan un grado
de concentración moderado

Platicúrtica • Presenta un pico poco


pronunciado
• Los datos presentan poco
grado de concentración y gran
dispersión

Leptocúrtica • Presenta un pico muy


pronunciado
• Los datos presentan alto grado
de concentración y poca
dispersión

DAVID RUELAS RODRÍGUEZ 2-21


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Proposición. Clasificación de simetría vía relación media-mediana.

Si X es tiene distribución unimodal y E  X    , entonces:


i) E  X   Md  X tiene una distribución asimétrica con sesgo derecho.
ii) E  X   Md  X tiene una distribución asimétrica con sesgo izquierdo.
iii) E  X   Md  X tiene una distribución simétrica.

Figura 2.17

Distribución asimétrica Distribución asimétrica


con sesgo derecho con sesgo izquierdo Distribución simétrica

w w w
E[X] > Md E[Y] < Md E[Z] = Md

fX(x) fY(y) fZ (z)

0.5 0.5 0.5 0.5 0.5 0.5

0 Md x 0 Md y 0 z
E[X] E[Y] E[Z]

Md

Def. Coeficiente de Asimetría y Coeficiente de Curtosis


Si X es variable aleatoria con    X  y  k  E  X  E X  , k  Z+, entonces:
k

3
i) CAX    3 define su coeficiente de asimetría; y
3

ii) CC X    4  44 define su coeficiente de curtosis.

Importante. El cálculo de los coeficientes de asimetría y curtosis involucra el cálculo


de momentos centrales. Éstos últimos pueden calcularse vía momentos no centrales.

El coeficiente de asimetría permite clasificar una distribución de probabilidad de


acuerdo con su grado de simetría.

Interpretación del Coeficiente de Asimetría

i) CAX   0  X tiene una distribución asimétrica con sesgo derecho.


ii) CAX   0  X tiene una distribución asimétrica con sesgo izquierdo.
iii) CAX   0  X tiene una distribución simétrica.

DAVID RUELAS RODRÍGUEZ 2-22


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

El coeficiente de curtosis permite clasificar una distribución de probabilidad de acuerdo


con su grado de picudez (planura).

Interpretación del Coeficiente de Curtosis

i) CC X   3  X tiene una distribución leptocúrtica.


ii) CC X   3  X tiene una distribución platicúrtica.
iii) CC X   3  X tiene una distribución mesocúrtica.

Ejercicio E82 .

2.4. Función Generadora de Momentos


Def. Función Generadora de Momentos (f.g.m.)

La función generadora de momentos de la variable aleatoria X se define por:


 
M X t   E e tX para t tal que –b < t < b para alguna b > 0.

Se dice que la función generadora de momentos no existe si:


 
 E e tX es de la forma  o  – ; o
 No se cumple la condición –b < t < b para alguna b > 0.

La condición –b < t < b (o | t | < b) para alguna b > 0 exige que M X t  exista en una
vecindad del cero (pudiendo no estar definida exactamente en t = 0) y garantiza que las
derivadas de M X t  puedan ser evaluadas en t = 0.

Teorema. Cálculo de momentos (no centrales) vía f.g.m.

Si X es variable aleatoria y su función generadora de momentos existe, entonces:


dk
dt k
 
M X t   E X k   k para k = 1, 2,…
t 0

Condiciones de regularidad. Si X es una v.a. cuya f.m.p. (caso discreto) o f.d.p. (caso
continuo) posee propiedades tales que
  
E h X , t   E  h X , t  ,
t  t 
es decir, que los operadores esperaza y derivada se pueden intercambiar, entonces se
dice que prevalecen condiciones de regularidad en la distribución de X.

DAVID RUELAS RODRÍGUEZ 2-23


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Para demostrar fácilmente el Teorema anterior es necesario suponer condiciones de


regularidad.

Ejercicios E83 , E84 , E85 y E86 .

Ante la dificultad de la no existencia de la función generadora de momentos es posible


definir la función característica, que siempre existe pero se define en el campo de los
números complejos (C).

Def. Función Característica

La función característica de la variable aleatoria X se define por:


 
 X t   E e itX , donde i   1  C

La función característica es única y define por completo el comportamiento de la


distribución de una variable aleatoria. Si dos variables aleatorias tienen la misma
función característica, su distribución de probabilidades es la misma. Esta misma
propiedad se puede establecer con la f.g.m. (si es que existe) y se considerará más
adelante para determinar la distribución de una transformación de una variable aleatoria.

2.5. Desigualdades de Chebyshev y de Jensen


Teorema. Desigualdad de Chebyshev

Si X es una variable aleatoria con E X    y Var X    2 , ambas finitas, entonces para


2
todo k > 0, P X    k  
k2

La Desigualdad de Chebyshev o Tchebysheff permite establecer una cota superior


para la probabilidad de que la variable aleatoria X se aleje de su media en k unidades
o más, como se muestra en la figura 2.18.

Figura 2.18

|X–|k  X–  –k o X–  k

X  –k o X  +k

X
–  –k   +k 

DAVID RUELAS RODRÍGUEZ 2-24


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

2
Note cómo si  1 , la cota resulta poco útil pues P X  A  1 para todo A  R.
k2

La Desigualdad de Chebyshev es muy útil en la Teoría Asintótica de la Estadística,


particularmente para demostrar la Ley Débil de los Grandes Números1 (uno de los
principales resultados de la Inferencia Estadística). La Desigualdad de Chebyshev se
puede demostrar fácilmente mediante la Desigualdad de Markov.

Lema. Desigualdad de Markov

E Z 
Si Z es una variable aleatoria no negativa, entonces para a > 0, PZ  a  
a

Ejercicio E87 .

Una versión alternativa de la Desigualdad de Chebyshev permite acotar la probabilidad


de que la variable aleatoria X se aleje r desviaciones estándar de su media (r > 0). Si en
2
la Desigualdad de Cheyshev P X    k   se toma k = r, entonces se obtiene
k2
2
P  X    r  
1
 2.
r  r
2

Considerando la probabilidad del complemento en la Desigualdad de Chebyshev se


obtiene una cota inferior para la probabilidad de que la variable aleatoria X se aleje de
su media en menos de k unidades, como se muestra a continuación:

2 2 2
P X    k    1  P X    k    P X    k   1 
k2 k2 k2

En resumen, la figura 2.19 muestra las cuatro versiones que se pueden tener de la
Desigualdad de Chebyshev dependiendo del tipo de cota (superior o inferior) y las
unidades en que X se aleja de  (k unidades o r desviaciones estándar).

1
La Ley Débil de los Grandes Números establece que si X1, X2,…, Xn, forman una muestra aleatoria (variables aleatorias
independientes e idénticamente distribuidas) con media común  (llamada media poblacional), entonces la media muestral
definida por X  X 1  X 2    X n converge en probabilidad al valor de la media poblacional . Es decir,
n
X  1
X  X2  Xn P
n

n
 
  , o bien, lim P X      0 .

DAVID RUELAS RODRÍGUEZ 2-25


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Figura 2.19

Distancia entre la
Cota superior Cota inferior
v.a. X y su media 
2 2
k unidades P X    k   P X    k   1 
k2 k2
P X    r   2 P X    r   1  2
1 1
r desviaciones estándar
r r

Ejercicio E88 .

Def. Funciones convexas y cóncavas

Si g: D  R  R es de clase C2, se dice que:


i) g(x) es función convexa si g x   0 para toda x  D
ii) g(x) es función cóncava si g  x   0 para toda x  D

Son ejemplos de funciones convexas: g(x) = x2, g(x) = eax para a > 0 o g  x    n x
para x  0 y n = 1, 2,…, como se muestra en la figura 2.20.

Figura 2.20

y y y
g(x) = x 2
4 4 4

2 2 2 g(x) = – x 1/n ,
g(x) = e ax, a > 0 x > 0, n = 1, 2,...
0 0 0
-2 -1 0 1 2 x -2 -1 0 1 2 x -2 -1 0 1 2 x
-2 -2 -2

-4 -4 -4

Teorema. Desigualdad de Jensen

Si g(x) es una función convexa, entonces E g  X   g E X  , considerando que los


valores esperados existen.

Aplicaciones inmediatas de este resultado son:


1
si X > 0, ya que g  x   es convexa para x > 0.
1 1
 E  
 X  EX  x
   
 E X 2  E  X   E X 2  E X   Var X   0 , ya que g x   x 2 es convexa.
2 2

DAVID RUELAS RODRÍGUEZ 2-26


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

Note cómo si g(x) es función convexa, entonces h(x) = – g(x) es función cóncava,
entonces a partir de la Desigualdad de Jensen es posible establecer el siguiente corolario.

Corolario.

Si g(x) es una función cóncava, entonces E g  X   g E  X  , considerando que los


valores esperados existen.

Proposición

Si g(x) es una función lineal, entonces E g  X   g E X  , considerando que los valores


esperados existen.

La proposición anterior establece que el caso de igualdad de la Desigualdad de Jensen se


alcanza cuando g(x) es función lineal.

Demostración. Suponga que g(x) es función lineal, es decir, que existen a, b  R tales
que g  x   a  bx . Evaluando g en E[X] se obtiene g E X   a  bE  X  . Por otro lado,
por propiedades de la esperanza se sabe que E g  X   E a  bX   a  bE  X  ,
concluyendo así que E[g(X)]= g(E[X]).

Ejercicios E89 y E90 .

2.6. Distribución de una Transformación de una Variable Aleatoria

2.6.1. Distribución de Transformaciones de Variables Aleatorias Discretas

Teorema.

Sea X una variable aleatoria discreta con soporte x1, x2,… y función de masa de
probabilidad fX(x). Si Y = g(X), g: R  R, es una transformación de la variable aleatoria
X entonces f Y  y    f X  xi 
xi :g  xi  y 

El teorema anterior establece que PY  y  , para cada y del soporte de la variable
aleatoria discreta Y, se determina sumando las probabilidades P X  xi 
correspondientes a la o a las masas xi, que hacen que g(xi) = y.

Ejercicio E91 .

DAVID RUELAS RODRÍGUEZ 2-27


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 2

2.6.2. Distribución de Transformaciones de Variables Aleatorias Continuas

Se presentarán 3 métodos para obtener la distribución de la variable aleatoria Y = g(X) a


partir de la distribución de la variable aleatoria X:
 Método de la f.d.a
 Método de la transformación monótona
 Método de la f.g.m.

MÉTODO DE LA F.D.A.

Consiste en calcular FY(y) a partir de FX(x), donde Y = g(X) y FX(x) es conocida. Una
vez que se tiene FY(y) es posible calcular f Y  y   FY  y  .
d
dy

Ejercicios E92 y E93 .

MÉTODO DE LA TRANSFORMACIÓN MONÓTONA

Teorema. Distribución de la Transformación Monótona (DTM)

Sea X variable aleatoria continua con función de densidad de probabilidad fX(x) y sea
g(x) una función estrictamente monótona (creciente o decreciente) y diferenciable
(consecuentemente continua) en x. Si Y = g(X) entonces:
 
i) f Y  y   f X g 1  y  g  y  si y = g(x) para alguna x; y
d 1
dy
ii) f Y  y   0 si y  g(x) para toda x,
donde g 1  y  es el valor de x tal que g(x) = y.

Ejercicios E94 , E95 y E96 .

MÉTODO DE LA F.G.M.

Teorema. Igualdad en Distribución vía f.g.m.

Si X y Y son variables aleatorias entonces MX(t) = MY(t) si y sólo si X y Y tienen la


misma distribución de probabilidad.

La demostración de este teorema se omitirá ya que requiere del manejo de las funciones
características de X y Y y del uso de probabilidad avanzada.

Ejercicio E97 .

DAVID RUELAS RODRÍGUEZ 2-28


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

3. Distribuciones Importantes

3.1. Distribuciones Bernoulli y Binomial.

3.1.1. Distribución Bernoulli.

Def. Experimento Bernoulli o Ensayo Bernoulli. Es un experimento aleatorio que


cumple con dos características:
i) Sus resultados pueden ser clasificados como éxito, con probabilidad p, o fracaso
con probabilidad q = 1 – p; y
ii) El resultado de cada uno de los experimentos es independiente de los demás.

Def. Distribución Bernoulli.

Se dice que X ~ Bernoulli(p) si


1  p si x  0

f X  x   p 1  p  I 0,1  x    p
1 x
x
si x  1 , 0p1
0 e. o. c.

Aplicaciones. Esta distribución recibe su nombre en honor del matemático suizo


Jacques Bernoulli (1654-1705) y permite modelar Experimentos Bernoulli. Son
Experimentos Bernoulli: el lanzamiento de un volado, el nacimiento de un niño, la
perforación de un pozo exitoso, la efectividad de una vacuna, etc.

La Figura 3.1 muestra la gráfica de la función de masa de probabilidad Bernoulli para


algunos valores del parámetro p.

Figura 3.1

y y y
1.0 fX(x), p = 0.2 1.0 fX(x), p = 0.5 1.0 fX(x), p = 0.6
0.8 0.8 0.8
0.6 0.6 0.6
0.4 0.4 0.4
0.2 0.2 0.2
0.0 0.0 0.0
-1 0 1 x -1 0 1 x -1 0 1 x

DAVID RUELAS RODRÍGUEZ 3-1


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Propiedades de la Distribución Bernoulli

Si X ~ Bernoulli(p), entonces
i) E X   p (Ver E84)
ii) Var X   p 1  p  (Ver E84)
iii) M X t   pe t  1  p  , t  R (Ver E84)
iv) FX  x   1  p I 0,1  x   I 1,   x 

Note cómo esperanza y varianza son función del parámetro p. Así, por ejemplo,
analizando g  p   Var  X   p  p 2 para 0 ≤ p ≤ 1 se verifica de p  12 maximiza la
varianza de una Distribución Bernoulli.

3.1.2. Distribución Binomial.

Def. Distribución Binomial.

Se dice que X ~ Bin(n, p) si


n
f X  x     p x 1  p  I 0,1,,n  x  , n  Z+, 0  p  1
n x

 x

Figura 3.2

y y y
fX(x), n = 5, p = 0.2 fX(x), n = 10, p = 0.2 fX(x), n = 15, p = 0.2
0.4 0.4 0.4
0.3 0.3 0.3
0.2 0.2 0.2
0.1 0.1 0.1
0.0 0.0 0.0
-1 0 1 2 3 4 5 x -1 0 1 2 3 4 5 6 7 8 9 10 x -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 x

y y y
fX(x), n = 5, p = 0.5 fX(x), n = 10, p = 0.5 fX(x), n = 15, p = 0.5
0.4 0.4 0.4
0.3 0.3 0.3
0.2 0.2 0.2
0.1 0.1 0.1
0.0 0.0 0.0
-1 0 1 2 3 4 5 x -1 0 1 2 3 4 5 6 7 8 9 10 x -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 x

y y y
fX(x), n = 5, p = 0.6 fX(x), n = 10, p = 0.6 fX(x), n = 15, p = 0.6
0.4 0.4 0.4
0.3 0.3 0.3
0.2 0.2 0.2
0.1 0.1 0.1
0.0 0.0 0.0
-1 0 1 2 3 4 5 x -1 0 1 2 3 4 5 6 7 8 9 10 x -1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 x

La figura 3.2 muestra la f.m.p. Binomial para distintos valores de los parámetros n y p.
Observe cómo la distribución es simétrica cuando p = 0.5 y asimétrica cuando p  0.5.

DAVID RUELAS RODRÍGUEZ 3-2


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Aplicaciones. Si X ~ Bin(n, p) entonces X cuenta el número de éxitos al realizar n


Experimentos Bernoulli, cada uno con probabilidad de éxito p, e independiente de los
demás.

Propiedades de la Distribución Binomial

Si X ~ Bin(p), entonces
i) E X   np (Ver E98)
ii) Var  X   np 1  p  (Ver E98)
iii)  
M X t   1  p   pe t , t  R
n
(Ver E98)
iv) FX(x) en Tablas para n = 1, 2,..., 25 y p = 0.05, 0.10,..., 1.00 (Ver p. 2-17)
v) Mo  n  1 p  ( y n  1 p   1 si n es impar y p = 0.5 )

Proposición. Transformaciones de la Distribución Binomial

i) Si X ~ Bin(1, p), entonces X ~ Bernoulli(p)


ii) Si X ~ Bin(n, p), entonces Y = n – X ~ Bin(n, 1 – p)

Ejercicios E98 y E99 .

3.2. Distribución Poisson.


Def. Distribución Poisson.

Se dice que X ~ Po() si


e   x
f X x   I 0,1,  x  ,  > 0
x!

La figura 3.3 muestra la gráfica de la función de masa de probabilidad Poisson para


algunos valores del parámetro .

Figura 3.3

y y y
fX(x),  = 0.5 fX(x),  = 2 fX(x),  = 5
0.4 0.3
0.6
0.3
0.4 0.2
0.2
0.2 0.1
0.1
0.0 0.0 0.0
-1 0 1 2 3 4 5 x -1 0 1 2 3 4 5 6 7 8 9 10 x -1 0 1 2 3 4 5 6 7 8 9 10 11 12 x

DAVID RUELAS RODRÍGUEZ 3-3


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Aplicaciones. Esta distribución recibe su nombre en honor del físico y matemático


francés Siméon Denis Poisson (1781-1840), y permite modelar eventos que ocurren de
acuerdo con los postulados de la Ley Poisson.

Postulados de la Ley Poisson.


i) El espacio muestral se genera por infinitos Experimentos Bernoulli con
probabilidades de éxito muy pequeñas (Ley de Eventos Raros).
ii) El número de éxitos en intervalos de tiempo mutuamente excluyentes es
independiente.
iii) La probabilidad de dos o más éxitos en el mismo punto es cero.
iv) El número promedio de éxitos en un intervalo es constante ().

Algunos ejemplos de variables aleatorias que usualmente obedecen a la Ley Poisson


son: el número de llamadas telefónicas que llegan a un conmutador, el número de
personas de una comunidad que viven más de 100 años, el número de teléfonos
incorrectos que se marcan en un día, el número de clientes que llegan a una oficina
postal, etc.

En algunas aplicaciones, el parámetro  puede ser interpretado como una tasa de


ocurrencia (# eventos / tiempo).

Propiedades de la Distribución Poisson

Si X ~ Po(), entonces:
i) E X    (Ver T2 I8)
ii) Var  X    (Ver T2 I8)
iii) M X t   exp e t  1, t  R (Ver T2 I8)
iv) FX(x) en Tablas para  = 0.02, 0.04,..., 0.10, 0.15,...,1.0,
1.1,...,2.0, 2.2,..., 10.8, 11, 12,..., 25 (Ver p. 18-21)
v) Mo    ( y    1 si   Z+)

Teorema. Aproximación Binomial por Poisson

Si X ~ Bin(n, p) , n  , p  0 y np   entonces X ~ Po() con  = np.

Este Teorema se puede demostrar por la convergencia de la función de masa de


probabilidad (E101) o por la convergencia de la función generadora de momentos
(T3 I1).

Ejercicios E100 , E101 y E102 .

DAVID RUELAS RODRÍGUEZ 3-4


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

3.3. Distribución Uniforme Continua.


Def. Distribución Uniforme Continua.

Se dice que X ~ U(12) si


1
f X x   I  ,   x  , –  < 1 < 2 < 
 2  1 1 2

Propiedades de la Distribución Uniforme Continua.

Si X ~ U(1, 2), entonces:


  2
i) EX   1 (Ver E70)
2
  2   1 2
ii) Var X   (Ver E82)
12
e  e t1
t 2
iii) M X t   ,t0
t  2  1 
x  1
iv) FX  x   I  ,   x   I  2 ,  x  (Ver E103)
 2  1 1 2

La figura 3.4 muestra las gráficas de las funciones de densidad y de distribución


acumulada de la Distribución Uniforme Continua con parámetros 1 y 2.

Figura 3.4

y y
fX(x) FX(x)
1

1
2 – 1

0 1 2 x 0 1 2 x

Aplicaciones. Permite modelar fenómenos equiprobables sobre intervalos de igual


longitud.

Ejercicios E103 y E104 .

DAVID RUELAS RODRÍGUEZ 3-5


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

La Distribución Uniforme Continua sobre el intervalo [0, 1] es de particular interés en la


Teoría de Simulación, gracias al siguiente Teorema.

Teorema. Método de la Transformación Inversa

Sea U ~ U(0, 1). Para cualquier función de distribución acumulada continua F, si se


define a la variable aleatoria X  F 1 U  , entonces X tiene función de distribución
acumulada F.

Demostración. Considere los siguientes hechos: (i) como F es f.d.a. continua entonces
F es función estrictamente creciente; (ii) si U ~ U(0, 1) entonces FU u   u para
0  u  1 ; y en particular (iii) como F es f.d.a. 0  F  x   1 para toda x  R. Si
X  F 1 U  entonces al aplicar el método de la f.d.a. considerando (i), (ii) y (iii) se
 
obtiene que: FX  x   PX  x   P F 1 U   x  PU  F  x   FU F  x   F ( x) . Es
decir, X tiene función de distribución acumulada F.

Este Teorema permite generar números aleatorios provenientes de cualquier distribución


continua con f.d.a. inversa F 1    a partir de números aleatorios distribuidos
uniformemente en el intervalo [0, 1], como se muestra en la figura 3.5. Muchos
paquetes de cómputo y calculadoras generan números aleatorios distribuidos
uniformemente entre 0 y 1, por ejemplo, la función “=ALEATORIO()” de Excel o la
tecla Ran# de algunas calculadoras.

Figura 3.5

u
u1 y u2 son
1
realizaciones de FX(x)
u1
la v.a. U~U(0,1)

u2

x2 0 x1 x
=

x 1 y x 2 son realizaciones de la
FX-1(u2) FX-1(u1) v.a. X que tiene f.d.a. FX(x)

Proposición. Simulación de variables aleatorias Uniformes Continuas.

Si U ~ U(0, 1) y 1 < 2 entonces X  1   2  1 U ~ U(1, 2) (Ver T3 I2)

DAVID RUELAS RODRÍGUEZ 3-6


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

3.4. Distribuciones Gamma, Exponencial y Ji Cuadrada.


3.4.1. Distribución Gamma.

Def. Función Gamma.


    y  1e  y dy ,  > 0
0

La figura 3.6 muestra la gráfica de la Función Gamma. Note cómo la función comienza
decreciendo hasta alcanzar un mínimo entre 1 y 2 pero luego crece en forma acelerada.

Figura 3.6

z
 ( )
15

10

0
-1 0 1 2 3 4 5 

Propiedades de la Función Gamma.

i) 1  2   1 (Ver E105)


ii)      1  1 (Ver E105)
iii) Si n  Z+ entonces n   n  1! (Ver E105)
1
iv)     (Ver T3 I3)
2

Def. Distribución Gamma.

Se dice que X ~ Gamma() si


x
1 
f X x   x  1
e 
I 0,  x  ,  > 0,  > 0
  

DAVID RUELAS RODRÍGUEZ 3-7


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

La figura 3.7 muestra la gráfica de la función de densidad Gamma para distintos valores
de los parámetros  y . Los parámetros  y  son llamados factores de forma y de
escala, respectivamente.

Figura 3.7

y Exp (1) fX(x),  = 1,  = 1 y 2


Exp (2) =  (2) fX(x),  = 1,  = 2
1.2 fX(x),  = 0.5,  = 1 1.2  (4)
2
fX(x),  = 2,  = 2
1.0 fX(x),  = 2,  = 1 1.0 fX(x),  = 2,  = 1
0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0
-1 0 1 2 3 4 5 x -1 0 1 2 3 4 5 6 7 8 x

Propiedades de la Distribución Gamma.

Si X ~ Gamma(, ), entonces:


i) E  X    (Ver E106)
ii) Var  X    2 (Ver E106)
1
iii) M X t   1   t  , t 



iv) FX(x) se calcula mediante integración numérica.
v) Mo     1 ,  > 1

Aplicaciones. La Distribución Gamma es asimétrica con sesgo derecho y es muy


versátil por los perfiles que pueden generar sus parámetros. Se utiliza frecuentemente
para modelar tiempo de vida, tiempos de espera, ingreso familiar, pérdidas, etc.

Las Distribuciones Exponencial y Ji Cuadrada son casos particulares de la Distribución


Gamma.

Proposición.

i) Si X ~ Gamma(1, ), entonces X ~ Exp()


 
ii) Si X ~ Gamma ,2  , entonces X ~ 2(),   Z+
2 

Ejercicios E105 y E106 .

DAVID RUELAS RODRÍGUEZ 3-8


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

3.4.2. Distribución Exponencial. Exp()  Gamma(1, )

Def. Distribución Exponencial.

Se dice que X ~ Exp() si


x
1 
f X x   e 
I  0 ,   x  ,  > 0

Propiedades de la Distribución Exponencial.

Si X ~ Exp(), entonces:
i) EX    (Ver E74)
ii) Var  X    2 (Ver E74)
1 1
iii) M X t   ,t (Ver T2 I7)
1  t 
 
x

iv) FX  x   1  e
   I 0 ,   x  (Ver E59)
 
 

La figura 3.8 muestra las gráficas de las funciones de densidad y de distribución


acumulada de la Distribución Exponencial con parámetro .

Figura 3.8

y y
fX(x) FX(x)
1 1

0 x 0 x

Aplicaciones. La Distribución Exponencial permite modelar la distribución del tiempo


hasta la ocurrencia de algún evento específico, por ejemplo, la ocurrencia de un
terremoto, una llamada telefónica, la llegada de un tren, etc. Se utiliza con frecuencia en
Teoría de Colas para modelar líneas de espera.

Proposición. Relación entre las Distribuciones Poisson y Exponencial.

El tiempo que transcurre entre la ocurrencia de dos eventos de una Distribución Poisson
1
con parámetro  tiene una Distribución Exponencial con parámetro   .

DAVID RUELAS RODRÍGUEZ 3-9


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Proposición. Pérdida de Memoria de la Distribución Exponencial.

Si X ~ Exp() entonces PX  t  s X  t   P X  s  para todo s, t  0 (Ver E108)

Proposición. Simulación de variables aleatorias Exponenciales.

Si U ~ U(0, 1), entonces X    ln 1  U  ~ Exp() (Ver E96)

Ejercicios E107 , E108 , y E109 .


3.4.3. Distribución Ji Cuadrada.  2    Gamma ,2 
2 

Def. Distribución Ji Cuadrada.

Se dice que X ~  2() si


 x
1 1 
f X x   
x 2
e 2
I 0,   x  ,  = 1, 2,…
  2
  2
2

Al parámetro  se le denomina grados de libertad. Por ejemplo, si X ~  2(8) se dice


que la variable aleatoria X tiene una Distribución Ji Cuadrada con 8 grados de libertad.

Propiedades de la Distribución Ji Cuadrada.

Si X ~  2(), entonces:
i) E X   
ii) Var  X   2
 1
M X t   1  2t  2 , t 

iii)
2
iv) FX(x) mediante cuantiles 0.001, 0.005, 0.01, 0.025, 0.05, 0.1,
0.25, 0.5, 0.75, 0.9, 0.95, 0.975, 0.99, 0.995, 0.999 en Tablas
para  = 1, 2,…, 30, 40,…, 150 (Ver p. 26-27)

DAVID RUELAS RODRÍGUEZ 3-10


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

La figura 3.9 muestra la gráfica de la función de densidad Ji Cuadrada para distintos


valores del parámetro .

Figura 3.9

y fX(x),  = 3

fX(x),  = 4
0.3
fX(x),  = 6

0.2

0.1

0.0
-1 0 1 2 3 4 5 6 7 8 x

Aplicaciones. La Distribución Ji-Cuadrada es de gran utilidad para la Inferencia


Estadística pues está asociada al comportamiento probabilístico de la varianza muestral
y aparece en algunas pruebas de hipótesis.

Ejercicio E110 .

3.5. Distribución Normal.


Def. Distribución Normal.

Se dice que X ~ N(2) si


1   x   2 
f X x   exp  I  ,   x  ,   R,  > 0
2   2 2 

La Distribución Normal o Distribución Gaussiana es la distribución de probabilidad


más importante en Estadística. La figura 3.10 muestra la gráfica de la función de
densidad Normal para distintos valores de los parámetros  y  2.

Figura 3.10

y fX(x),  = 0,  2
=1 y fX(x),  = 0,  2
=1

0.5 fX(x),  = 1,  2
=1 1.0 fX(x),  = 0,  2
=4

0.4 fX(x),  = –2,  2


=1 0.8 fX(x),  = 0,  2
= 0.25

0.3 0.6

0.2 0.4

0.1 0.2

0.0 0.0
-5 -4 -3 -2 -1 0 1 2 3 4 5 x -5 -4 -3 -2 -1 0 1 2 3 4 5 x

DAVID RUELAS RODRÍGUEZ 3-11


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Note cómo la Distribución Normal siempre es simétrica respecto a . El parámetro  es


un factor de localización y modifica el centro de la función de densidad. El parámetro
 2 es un factor de forma y modifica la picudez de la función de densidad.

A pesar de que  2 modifica su picudez, la Distribución Normal siempre es mesocúrtica


(coeficiente de curtosis igual a 3) y sirve de estándar para clasificar la picudez del resto
de las distribuciones.

La Distribución Normal con parámetros  = 0 y  2 = 1 se denomina Normal Estándar


o Normal Unitaria.

Def. Distribución Estándar.

Se dice que Z ~ Normal Estándar  N(01) si


z2
1 
f Z z    z   e 2
I  ,   z 
2

La función fZ(z) no tiene antiderivada, es decir, no existe expresión analítica cerrada de


una función FZ(z) cuya derivada sea fZ(z).


Para verificar que A    z dz  1 hay que demostrar que A2 = 1, es decir:


  1  x   1  y  1
2 2
x2  y 2
  
A  
2
e 2 dx   e 2 dy     e 2
dydx
  2   2  2  
  

El cálculo de la doble integral se puede realizar considerando el cambio de variables a


coordenadas polares, es decir, y = r sen() y x = r cos() para r > 0 y 0 <  < 2.

La función de distribución acumulada de la Distribución Normal Estándar se expresa


a través de la Función Fi, pero sus valores se calculan mediante integración numérica.

Def. Función Fi.

t2
1 2
 z   P[ Z  z ]    t dt  
z z
e dt , z  R
 
2

La figura 3.11 muestra las gráficas de las funciones de densidad y de distribución


acumulada de la Distribución Normal Estándar.

DAVID RUELAS RODRÍGUEZ 3-12


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Figura 3.11

y y
1.0
0.4  (z)  (z)

0.2 0.5

0.0 0.0
-4 -3 -2 -1 0 1 2 3 4 z -4 -3 -2 -1 0 1 2 3 4 z

Los valores de (z) aparecen en Tablas para z = –2.99, –2.98,…, 3.09 (Ver p. 22-23).

Propiedades de la Función Fi.

1
i)  0 
2
ii)   x   1    x 

Demostración. Suponga que Z tiene una Distribución Normal Estándar. Por la simetría
respecto a cero y la continuidad de Z se tiene que PZ  x   PZ   x   PZ   x  para
toda x  R, entonces: (i) 1  PZ  0  PZ  0  PZ  0  PZ  0  2 0  y en
1
consecuencia 0  ; y (ii)   x   PZ   x   PZ  x   1  PZ  x   1    x  .
2

Ejercicio E111 .

El cálculo de probabilidades de cualquier Distribución Normal ( y  2 arbitrarios)


se realiza a través de (z) gracias al siguiente Teorema.

Teorema. Estandarización de variables aleatorias Normales.

X 
Si X ~ N(,  2), entonces Z  ~ N(0, 1)

X 
La transformación Z  g  X   se denomina estandarización de la variable

aleatoria X. La resta de  = E[X] hace que el centro de la distribución de Z sea el cero,
y la división entre  = [X] modifica la forma de la densidad para alcanzar la curvatura
de la Normal Estándar.

DAVID RUELAS RODRÍGUEZ 3-13


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

La demostración del Teorema de Estandarización de variables aleatorias Normales se


puede realizar mediante el Teorema de la Distribución de la Transformación Monótona
(ver T3 I4) o mediante el Teorema de Igualdad en Distribución vía f.g.m. (ver E97).

Propiedades de la Distribución Normal.

Si X ~ N(, 2), entonces:


i) E X    (Ver E97)
ii) Var  X    2
(Ver E97)
  2t 2 
iii) M X t   expt  , t  R (Ver E97)
 2 
x
iv) FX  x     y Tablas para z = –2.99, –2.98,…, 3.09 (Ver p. 22-23)
  

Aplicaciones. A pesar de que la Distribución Normal tiene soporte (–, ), la


probabilidad de esta variable aleatoria esté a más de 3 desviaciones estándar de su media
es muy cercana a cero. Se utiliza frecuentemente para modelar variables aleatorias que
concentran su probabilidad alrededor de cierto valor y para las cuales es igualmente
probable estar por arriba o por debajo de este valor (simetría respecto a la media).

Proposición. Regla del 68, 95 y 99%.

Si X ~ N(, 2), entonces:


i) P X       P    X       0.6827  68% (Ver T3 I4)
ii) P X    2   P  2  X    2   0.9545  95% (Ver T3 I4)
iii) P X    3   P  3  X    3   0.9973  99% (Ver T3 I4)

Ejercicio E112 .

La importancia de la Distribución Normal en Estadística está dada por el Teorema


Central del Límite. Este Teorema establece que la suma o el promedio de un gran
número de variables aleatorias siempre tienen una Distribución Normal, sin importar su
distribución original.

Teorema de De Moivre-Laplace. Aproximación Binomial por Normal.

Si X ~ Bin(n, p) y n   entonces X ~ N np, np 1  p 

DAVID RUELAS RODRÍGUEZ 3-14


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Este Teorema también se puede enunciar diciendo que si X ~ Bin(n, p) y n  ,


 X  np 
entonces P a   b   b   a  , es decir, el cálculo aproximado de
 np1  p  
probabilidades asociadas una Distribución Binomial se puede realizar a través de una
Distribución Normal.

El Teorema de De Moivre-Laplace es un caso particular del Teorema Central del Límite,


ya que la Distribución Binomial surge de la suma de Distribuciones Bernoulli.

Al aproximar una distribución discreta (v.gr., Binomial) a través de una distribución


continua (v.gr., Normal) es posible mejorar la aproximación considerando un ajuste de
corrección por continuidad llamado Ajuste de Yate. Este ajuste consiste en sumar o
restar 0.5 en los extremos del intervalo de la variable aleatoria discreta sobre el cual se
desea calcular la probabilidad.

Ejercicio E113 .

Teorema. Distribución de transformaciones lineales de la Distribución Normal.

Si X ~ N(, 2) y Y =  + X,  ≠ 0, entonces Y ~ N(+ , 2 2)

  2t 2 
Demostración. Si X ~ N(,  ) entonces M X t   expt 
2
 , t  R. Por su parte,
 2 
     
la f.g.m. de Y =  + X,  ≠ 0, es M Y t   E e tY  E e t   X   et E e t  X  et M X t  .
Al sustituir en la expresión anterior la f.g.m. de la v.a. X evaluada en t se obtiene

M Y t   e exp t  
t  2 t 2  
  exp   t 
 
 2 2 t 2 
 , que es la f.g.m. de una
 2   2 
Distribución Normal con media +  y varianza 2 2 , i.e., Y ~ N(+ , 2 2).

El Teorema anterior establece que cualquier transformación lineal de una


Distribución Normal también es Normal. Note cómo los parámetros de Y pueden
calcularse directamente utilizando propiedades de operador lineal de la esperanza:
 E Y   E    X      E X      ; y
 Var Y   Var   X    2Var  X    2 2 .

Ejercicio E114 .

DAVID RUELAS RODRÍGUEZ 3-15


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 3

Proposición. Otras transformaciones de la Distribución Normal.

Si X ~ N(, 2), entonces:


X 
i) Z ~ N(0, 1) (Ver T3 I4)

2
X 
 ~  (1)
2
ii) W  (Ver T3 I5)
  
iii) Y  e X ~ LogN(,  2) (Ver T3 I5)

La distribución de la variable aleatoria Y del inciso iii) la proposición anterior se


denomina Distribución Lognormal y se utiliza frecuentemente en Economía y Finanzas
para modelar el rendimiento de acciones, índices y otros valores.

DAVID RUELAS RODRÍGUEZ 3-16


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

4. Distribuciones Multivariadas

4.1. Funciones de probabilidad conjunta y marginales


En forma análoga al caso univariado, para el caso multivariado se definen:
 Función de masa de probabilidad conjunta para el caso Discreto; y
 Función de densidad de probabilidad conjunta para el caso Continuo.

La mayoría de las definiciones de este tema se presentarán para el caso bivariado


(variables aleatorias X y Y), pero estas expresiones se pueden generalizar intuitivamente
para n variables aleatorias, X1, X2,…, Xn, n  Z+.

Def. Función de masa de probabilidad conjunta (f.m.p.c.)

Se dice que fX,Y : R2  [0, 1] es la función de masa de probabilidad conjunta de las


variables aleatorias X y Y con soporte S  R2 si:
 PX  x, Y  y   0 para  x, y   S
i) f X ,Y  x, y   
0 e.o.c.
ii)  f x, y   1
x y
X ,Y

Cálculo de probabilidades vía f.m.p.c.

Si A  R2 y (X, Y) tienen f.m.p.c. fX,Y(x, y), entonces:


P X , Y   A   f X ,Y  x, y 
 x , y :  x , y A

Def. Funciones de masa de probabilidades marginales (f.m.p. marginal)

Si fX,Y (x, y) es la f.m.p.c de (X, Y), entonces:


i) f X  x    f X ,Y  x, y  es la f.m.p. marginal de X.
y

ii) f Y  y    f X ,Y  x, y  es la f.m.p. marginal de Y.


x

La forma más común y práctica de manejar las Distribuciones Bivariadas Discretas es a


través de su representación tabular.

Ejercicios E115 y E116 .

DAVID RUELAS RODRÍGUEZ 4-1


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Def. Función de densidad de probabilidad conjunta (f.d.p.c.)

Se dice que fX,Y : R2  [0, ) es la función de densidad de probabilidad conjunta de las


variables aleatorias X y Y con soporte S  R2 si:
i) f X ,Y  x, y   0 para todo (x, y)  S
 
ii)   f X ,Y  x, y dydx  1
 

Cálculo de probabilidades vía f.d.p.c.

Si A  R2 y (X, Y) tienen f.d.p.c. fX,Y (x, y), entonces:


P X , Y   A    f X ,Y  x, y dydx
A

Def. Funciones de densidad de probabilidades marginales (f.d.p. marginal)

Si fX,Y (x, y) es la f.d.p.c. de (X, Y), entonces:



i) f X x    f X ,Y  x, y dy es la f.d.p. marginal de X.


ii) fY  y    f X ,Y x, y dx es la f.d.p. marginal de Y.


Ejercicios E117 y E118 .

Def. Función de distribución acumulada conjunta (f.d.a. conjunta).

Se dice que FX,Y : R2  [0, 1] es la función de distribución acumulada conjunta de las


variables aleatorias X y Y si FX ,Y  x, y   P X  x, Y  y 

Igual que en el caso univariado, la definición de f.d.a. conjunta es la misma para


variables aleatorias Discretas y Continuas.

DAVID RUELAS RODRÍGUEZ 4-2


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Propiedades de la f.d.a. conjunta.

Si FX,Y (x, y) es la f.d.a. conjunta de (X, Y), entonces:


i) FX ,Y  , y   0 , FX ,Y  x,   0 y FX ,Y ,    1
ii) Si x1 < x2 y y1 < y2, entonces (ver figura 4.1):
P[ x1  X  x 2 , y1  Y  y 2 ]  FX ,Y  x 2 , y 2   F X ,Y  x1 , y 2   F X ,Y x 2 , y1   FX ,Y  x1 , y1 
iii) FX,Y (x, y) es continua por la derecha en cada argumento, es decir:
lim FX ,Y x  h, y   lim FX ,Y  x, y  h   FX ,Y  x, y 
h 0 h 0

Figura 4.1

Px1  X  x2 , y1  Y  y2   FX ,Y x2 , y2   FX ,Y x1 , y2   FX ,Y x2 , y1   FX ,Y x1 , y1 

y
(x1, y2) (x2, y2) –
y2 –



y1 +
(x1, y1) (x2, y1)

+
0 x1 x2 x

Cálculo de fX,Y(x, y) vía FX,Y(x, y)

Si FX,Y (x, y) es la f.d.a. conjunta de (X, Y), entonces:


i) f X ,Y  x, y   FX ,Y  x, y   FX ,Y x  , y   FX ,Y x, y    FX ,Y x  , y   si X y Y son
variables aleatorias Discretas.
2
ii) f X ,Y  x, y   FX ,Y x, y  si X y Y son variables aleatorias Continuas.
xy

Cálculo de FX (x) y FY (y) vía FX,Y (x, y)

Si FX,Y (x, y) es la f.d.a. conjunta de (X, Y), entonces:


i) FX  x   FX ,Y  x,  
ii) FY  y   FX ,Y , y 

La f.d.a. conjunta no es tan útil en el caso multivariado como en el univariado.

DAVID RUELAS RODRÍGUEZ 4-3


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Modelos Paramétricos Multivariados

En el caso multivariado también existen Distribuciones de Probabilidad caracterizadas


por parámetros que aparecen con frecuencia en algunas aplicaciones. Entre los
principales modelos paramétricos multivariados están:
 Distribución Multinomial en el caso Discreto (ver Tarea 4); y
 Distribución Normal Multivariada, en el caso Continuo (ver Tema 5).

4.2. Funciones de probabilidad condicionales


Def. Funciones de masa / densidad de probabilidad condicionales

Sean X y Y variables aleatorias con función de masa / densidad conjunta fX,Y (x, y) y
función de masa / densidad de probabilidad marginales fX(x) y fY(y).
i) La función de masa / densidad condicional X dado Y  y se define como
f X ,Y  x, y 
f X Y x y   , si fY (y) > 0; y no se define si fY (y) = 0.
fY  y
ii) La función de masa / densidad condicional de Y dado X  x, se define como
f X ,Y  x, y 
fY X y x  , si fX (x) > 0; y no se define si fX (x) = 0.
f X x 

Cada posible valor de X define una f.m.p. condicional distinta para Y. Por ejemplo, si X
y Y son variables aleatorias discretas y X tiene soporte {x1, x2,…, xm}, entonces hay m
f.m.p condicionales para Y.

Esperanza y Varianza Condicional

fX|Y (x|y) es una f.m.p. (caso discreto) o f.d.p. (caso continuo) univariada y es posible
calcular su esperanza y varianza. E[X | Y = y] es la esperanza condicional de X dado
Y  y, y Var[X | Y = y] es la varianza condicional de X dado Y  y.
Esperanza y varianza condicionales de X dado Y  y, son funciones de y, es decir,
E[X | Y = y] = g1(y) y Var[X | Y = y] = g2(y). Es posible graficar g1(y) y g2(y) para los
posibles valores de y.

Ejercicios E119 y E120 .

Sin especificar un valor particular de Y, E[X | Y] y Var[X | Y] son variables aleatorias, y


es posible calcular su esperanza y varianza. El cálculo de esperanza y varianza de la
variable aleatoria X se puede realizar a través de esperanza y varianza condicional como
se muestra en la siguiente proposición.

DAVID RUELAS RODRÍGUEZ 4-4


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Proposición.

i) E X   E E  X | Y 
ii) Var X   E Var X Y   Var E X Y 

Estas propiedades son de gran utilidad en el estudio de modelos de probabilidad más


sofisticados como los Procesos Estocásticos. (v.gr., Proceso Poisson, Cadenas de
Markov, Movimiento Browniano). También se utilizan en Estadística Bayesiana al
suponer que los parámetros de una distribución de probabilidades son variables
aleatorias.

4.3. Variables aleatorias independientes


Def. Variables aleatorias independientes.

Se dice que las variables aleatorias X y Y son independientes  f X ,Y  x, y   f X  x  f Y  y 

Es decir, sin importar si X y Y son variables discretas o continuas, X y Y son


independientes si y sólo si la conjunta es igual al producto de las marginales.

Se dice que X y Y son variables aleatorias dependientes si no son independientes.

Proposición.

Si X y Y son variables aleatorias independientes, entonces:


i) f X |Y  x | y   f X x 
ii) fY|X  y | x  fY  y 

Demostración: (i) Si X y Y son independientes entonces f X ,Y  x, y   f X  x  f Y  y  , y por


definición de función de masa / densidad de probabilidad condicional se obtiene que
f X ,Y  x, y  f X  x  f Y  y 
f X |Y x | y     f X  x  . (ii) Se demuestra por analogía.
fY  y fY  y

La proposición f X |Y x | y   f X  x  establece que la información de la variable aleatoria


Y no modifica el comportamiento probabilístico de la variable aleatoria X y viceversa.

DAVID RUELAS RODRÍGUEZ 4-5


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Teorema. Independencia vía factorización.

Las variables aleatorias X y Y son independientes sí y sólo si existen funciones h y g


tales que f X ,Y  x, y   h x g  y  para x  R y y  R.

Al aplicar este Teorema es importante asegurarse de la independencia de los dominios,


es decir, que el dominio de la función h(x) no dependa de y y que el dominio de la
función g(y) no dependa de x.

Def. Variables aleatorias independientes (generalización).

Se dice que las variables aleatorias X1, X2,…, Xn son variables aleatorias independientes
n
si f X1 , X 2 ,, X n  x1 , x2 ,  , xn    f X i  xi 
i 1

Las variables aleatorias conjuntas X1, X2,…, Xn suelen representarse a través del vector
n
X   X 1 , X 2 ,, X n  , de modo que si son independientes f X  x    f X i  xi  .
i 1

Def. Variables aleatorias idénticamente distribuidas. Se dice que Xi y Xj, i ≠ j, son


variables aleatorias idénticamente distribuidas si su distribución de probabilidad es la
misma. Por ejemplo, si Xi ~ Po(), i = 1, 2, entonces X1 y X2 son idénticamente
distribuidas. Note que aunque X1 y X2 son idénticamente distribuidas no significa que
sus valores sean iguales simultáneamente (puede ocurrir, pero no necesariamente).

Def. Muestra aleatoria. Es un conjunto de variables aleatorias X1, X2,…, Xn, n  Z+,
independientes e idénticamente distribuidas (iid).

Ejercicios E121 , E122 , E123 y E124 .

DAVID RUELAS RODRÍGUEZ 4-6


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

4.4. Valor esperado de una transformación de variables aleatorias


Def. Valor esperado de una transformación de variables aleatorias.

Sean X y Y variables aleatorias con función de masa / densidad de probabilidad conjunta


fX,Y (x, y). Si g: R2  R es una transformación de las variables aleatorias X y Y, entonces
su valor esperado se define como:
i) E g  X , Y    g  x, y  f X ,Y  x, y  si X y Y son Discretas.
x y

E g  X , Y   
 
ii)  g x, y  f X ,Y  x, y dydx si X y Y son Continuas.
 

X
Son ejemplos de transformaciones g(X, Y): X + Y, XY, , (X – a)(Y – b), esX + tY, etc.
Y

E[X] vía fX,Y (x,y). Si g(X, Y) = X, y suponiendo que X y Y son continuas, entonces

E g  X , Y   
    
 xf X ,Y x, y dydx   x f X ,Y  x, y dydx   xf X  x dx  E[ X ] ,
    

es decir, la esperanza de X se puede calcular a partir de la densidad conjunta, pero en su


cálculo aparece siempre la densidad marginal. Lo mismo ocurre en el caso discreto.

Ejercicio E125 .

4.5. Momentos conjuntos, covarianza y coeficiente de correlación


Def. Momentos conjuntos.

Sean X y Y variables aleatorias con E[X] = X y E[Y] = Y. Si j, k  Z+, entonces:


i)  
E X j Y k es el momento conjunto de (X, Y) de orden (j, k).
ii) 
E  X   X  Y   Y 
j k
 es el momento central conjunto de (X, Y) de orden (j, k).
Note cómo X j Y k y  X   X  Y   Y  son transformaciones de las variables X y Y, de
j k

modo que el cálculo de su valor esperado se realiza a través de fX,Y(x, y). Los momentos
conjuntos por sí solos no tienen ninguna aplicación, sin embargo, aparecen en el cálculo
de otras medidas poblacionales conjuntas de interés como la Covarianza.

DAVID RUELAS RODRÍGUEZ 4-7


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Def. Covarianza.

Si X y Y son variables aleatorias con E[X] = X y E[Y] = Y, entonces la covarianza entre
X y Y se define por Cov[ X , Y ]    X , Y   E  X   X Y   Y 

La covarianza es el momento central de orden (1, 1). La transformación


g ( X , Y )   X   X Y   Y  , es la variación conjunta que hay entre la pareja aleatoria
(X, Y) y el punto (X, Y) como se muestra en la figura 4.2.

Figura 4.2


– +
X  X
(X, Y)
Y

Y  Y
(X , Y)
Y

0 X 


+
• g(X, Y) = (X – X )(Y – Y )
X es la variación conjunta
• Puede ser positiva o
negativa
• Se expresa en unidades
cuadradas

La covarianza es una medida de la variabilidad conjunta de X y Y. Como se expresa en


unidades cuadradas sólo se interpreta su signo (positivo, negativo o cero), no su valor.

En la medida en que las realizaciones (xi, yi) de (X, Y), i = 1, 2,…., se concentran
alrededor una línea recta que pasa por (X, Y), la covarianza incorpora más variaciones
conjuntas positivas si la recta tiene pendiente positiva, o negativas si la recta tiene
pendiente negativa. Consecuentemente, la covarianza identifica asociación lineal
entre dos variables aleatorias, como se muestra en la Figura 4.3.

DAVID RUELAS RODRÍGUEZ 4-8


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Figura 4.3

Asociación lineal positiva Asociación no lineal


Línea recta de
Y tendencia Y

Y
Y

Cov[X, Y] > 0 Cov[X, Y] = 0

0 X X 0 X X

Asociación lineal negativa No asociación


Y Y
Cov[X, Y] < 0 Cov[X, Y] = 0

Y Y

Línea recta de
tendencia
0 X X 0 X X

Interpretación de la covarianza

Si X y Y son variables aleatorias entonces:


i) Cov[X, Y] < 0  Asociación lineal negativa entre X y Y.
ii) Cov[X, Y] > 0  Asociación lineal positiva entre X y Y.
iii) Cov[X, Y] = 0  No asociación o asociación no lineal entre X y Y.

El cálculo de la covarianza mediante su definición puede ser complicado. Para facilitar


su cálculo es posible considerar el siguiente Teorema.

Teorema. Cálculo de la covarianza.

Cov[ X , Y ]  E  XY   E X E Y 

Note cómo la covarianza:


 Es una extensión de la definición de varianza, de hecho,
 
CovX , X   E  X  E  X  X  E X   E  X  E X   Var X  .
2

 Es simétrica, es decir,
CovX , Y   E  X  E X Y  E Y   E Y  E Y  X  E  X   Cov[Y , X ]

DAVID RUELAS RODRÍGUEZ 4-9


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Con la finalidad de determinar si la asociación lineal identificada por la covarianza es


fuerte o débil, se define otra medida de asociación denominada coeficiente de
correlación lineal.

Def. Coeficiente de correlación lineal.

Si X y Y son variables aleatorias entonces su coeficiente de correlación lineal se define


CovX , Y 
por Corr X , Y    X ,Y 
 X  Y 

Note cómo el coeficiente de correlación lineal es adimensional, de hecho, se puede


demostrar que es una cantidad entre –1 y 1 (Corolario de la Desigualdad de Cauchy-
Schwarz).

Proposición.

 1   X ,Y  1

Interpretación del coeficiente de correlación lineal.

Si X y Y son variables aleatorias entonces:


i) X,Y  –1  Alto grado de asociación lineal negativa entre X y Y.
ii) X,Y  0  Bajo grado de asoc. lineal negativa (0–) o positiva (0+) entre X y Y.
iii) X,Y  1  Alto grado de asociación lineal positiva entre X y Y.

Def. Variables aleatorias no correlacionadas. Se dice que las variables aleatorias X y


Y son no correlacionadas si Cov[X, Y] = 0 o X,Y = 0.

Teorema. Independencia implica no correlación.

Si X y Y son variables aleatorias independientes entonces Cov[X, Y] = 0

Importante: independencia implica no correlación, sin embargo, no correlación no


necesariamente implica independencia. Puede ocurrir que Cov[X, Y] = 0 pero ser X y Y
variables aleatorias dependientes (ver T4 II 4.17).

DAVID RUELAS RODRÍGUEZ 4-10


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Al considerar n variables aleatorias, X1, X2,…, Xn, es posible calcular covarianza y


coeficiente de correlación para cada pareja de variables aleatorias. Sean
 ij  CovX i , X j  y  ij  Corr X i , X j 
para i, j = 1, 2,…, n, entonces, es posible definir las siguientes matrices:
  11  12   1n   1 12  1n 
   
  22   2n   1   2n 
   21 y    21
         
   
   nn   1 
 n1  n 2  n1  n2 

 es la matriz de varianza-covarianza y tiene las siguientes características:


 
 Es simétrica, ya que  ij  Cov X i , X j  Cov[ X j , X i ]   ji ; y
 En la diagonal principal aparecen las varianzas ya que  ii  CovX i , X i   Var X i .

 es la matriz de correlaciones y tiene las siguientes características:


 
 Es simétrica, ya que  ij  Corr X i , X j  Corr[ X j , X i ]   ji ; y
 En la diagonal principal sólo aparecen unos ya que:
Cov[ X i , X i ] Var X i 
 ii  Corr  X i , X i     1.
  X i  X i  Var X i 

Ejercicios E126 y E127 .

4.6. Propiedades de Esperanza, Varianza y Covarianza


Teorema. Esperanza y Varianza de una combinación lineal.

Si X y Y son variables aleatorias y ,   R, entonces:


i) E X   Y   E  X   E Y  (Operador Lineal)
ii) Var X  Y    2Var  X    2Var Y   2CovX , Y 

Corolario. Varianza una combinación lineal de v.a.’s independientes.

Si X y Y son variables aleatorias independientes y ,   R, entonces:


Var X  Y    2Var  X    2Var Y 

Ejercicios E128 , E129 y E130 .

DAVID RUELAS RODRÍGUEZ 4-11


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Teorema. Esperanza como Operador Lineal.

Si X1, X2,…, Xn son variables aleatorias, X   X 1 , X 2 , , X n  , i  R y gi es una


m  m
función tal que gi: Rn  R, i = 1, 2,…, m, entonces E   i g i  X     i E g i  X 
 i 1  i 1

La aplicación de este Teorema es muy intuitiva. Permite, por ejemplo, determinar que


E 3 X  Ye X    E9 X
2 2
     
 6 XYe X  Y 2 e 2 X  9 E X 2  6 E XYe X  E Y 2 e 2 X .
Teorema. Esperanza del producto de transformaciones de v.a.’s independientes.

Si X y Y son variables aleatorias independientes, y g y h son funciones arbitrarias de R


en R, entonces E g  X hY   E g  X E hY 

En el caso particular en que g y h son funciones identidad, es decir, g(X) = X y h(y) = Y,


entonces E  XY   E  X E Y  .

Ejercicios E131 , E132 y E133 .

Teorema. Propiedades de la Covarianza.

Si X1, X2,…, Xm ; Y1, Y2,…,Yn son variables aleatorias y i , j  R, para i = 1, 2,…, m;


j= 1, 2,…, n; entonces:
i) Cov 1 X 1  1 ,  2 X 2   2    1 2 CovX 1 , X 2 
m  m n
 
n
ii) Cov   i X i ,   j Y j     i  j Cov X i , Y j (Operador Bilineal)
 i 1 j 1  i 1 j 1

Teorema. Esperanza y Varianza de una combinación lineal (generalización).

Si X1, X2,…, Xn son variables aleatorias y i  R, i = 1, 2,…, n, entonces:


n  n
i) E   i X i     i E  X i 
 i 1  i 1
  n n
   
n n
ii) Var   i X i     i j Cov X i , X j    i2Var X i   2  i j Cov X i , X j
 i 1  i 1 j 1 i 1 i j

Ejercicio E134 .

DAVID RUELAS RODRÍGUEZ 4-12


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Teorema. Coeficiente de correlación de una transformación lineal.

 X ,Y  1  existen ,   R tales que Y =  + X (Ver Tarea 4)

4.7. Función generadora de momentos conjunta


Def. Función generadora de momentos conjuntos.

Sean X y Y variables aleatorias la función generadora de momentos conjuntos de (X, Y)


 
se define por M X ,Y s, t   E e sX tY para (s, t) tales que s  b y t  b para b > 0.

Es decir, la función generadora de momentos conjuntos es el valor esperado de una


función de variables aleatorias g  X , Y   e sX tY . La condición s  b y t  b para b > 0
se establece para asegurar que las derivadas parciales de MX,Y(s, t) puedan ser evaluadas
en (0, 0) o en el límite cuando (s, t) tiende a (0, 0). Como su nombre lo indica, MX,Y(s, t)
se utiliza para calcular momentos conjuntos de (X, Y) gracias al siguiente Teorema.

Teorema. Generación de momentos conjuntos.

 jk
E[ X j Y k ]  M X ,Y s, t 
s j t k  s ,t 0 , 0 

Proposición.

Si X y Y son variables aleatorias con f.g.m. conjuntos M X ,Y s, t  , entonces:


i) M X ,Y 0, t   M Y t  y M X ,Y s,0  M X s 
ii) X y Y son independientes  M X ,Y s, t   M X s M Y t 

Ejercicio E135 .

DAVID RUELAS RODRÍGUEZ 4-13


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

4.8. Distribución de transformaciones de variables aleatorias


4.8.1. Distribución de transformaciones de variables aleatorias discretas

Proposición.

Si X y Y son variables aleatorias discretas con f.m.p.c. fX,Y(x, y) y W = g(X, Y), entonces:
f W w  PW  w  Pg  X , Y   w   f X ,Y  x, y 
 x , y : g  x , y  w

Por sus aplicaciones, es de particular interés obtener la distribución de la transformación


S = g(X, Y) = X + Y cuando X y Y son variables aleatorias independientes, es decir, la
distribución de la suma de variables aleatorias independientes.

Ejercicio E136 .

4.8.2. Distribución de transformaciones de variables aleatorias continuas

Para determinar la distribución de Z = g(X, Y), una función de variables aleatorias


continuas, es posible considerar tres métodos:
 Método de la función de distribución acumulada.
 Método de la función generadora de momentos; y
 Teorema de cambio de variable para funciones vectoriales.

MÉTODO DE LA FUNCIÓN DE DISTRIBUCIÓN ACUMULADA

Considerando que X y Y son variables aleatorias continuas con función de densidad de


probabilidad conjunta fX,Y(x, y), este método consiste en calcular:
FZ z   PZ  z   Pg  X , Y   z     f X ,Y x, y dydx , donde A   x, y  : g  x, y   z .
A

Ejercicios E137 , E138 y E139 .

MÉTODO DE LA FUNCIÓN GENERADORA DE MOMENTOS

Este método es aplicable a variables aleatorias discretas o continuas y permite


calcular la distribución de S = g(X, Y) = X + Y a través del siguiente Teorema.

DAVID RUELAS RODRÍGUEZ 4-14


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

Teorema.

Si X y Y son variables aleatorias independientes entonces M X Y t   M X t M Y t 

Demostración: Sabemos que si X y Y son independientes entonces también los son g(X)
y h(Y) para g y h funciones arbitrarias. Sean g ( X )  e tX y h(Y )  e tY , entonces,
      
M X Y t   E e t  X Y   E e tX e tY  E e tX E e tY  M X t M Y t  .

Ejercicios E140 , E141 y E142 .

TEOREMA DE CAMBIO DE VARIABLE PARA FUNCIONES VECTORIALES.

Teorema.

Sean X1 y X2 variables aleatorias continuas con función de densidad conjunta


f X 1 , X 2  x1 , x 2  y soporte S  R2; Y1 = g1(X1, X2) y Y2 = g2(X1, X2) funciones uno a uno de
X1 y X2; y T: R2  R2 la transformación T  x1 , x 2    g1 x1 , x 2 , g 2  x1 , x 2    y1 , y 2  .
i) Si la solución única de las ecuaciones y1 = g1(x1, x2) y y2 = g2(x1, x2) está dada por
x1 = h1(y1, y2) y x2 = h2(y1, y2); y
ii) Si las funciones y1 y y2 tienen derivadas parciales continuas y J(x1, x2)  0 para
g1 g 1
x 1 x 2  g1  g 2   g1  g 2 
todo (x1, x2), donde J  x1 , x 2        es el
g 2 g 2  x 1  x 2   x 2  x 1 
x 1 x2
determinante Jacobiano de g1 y g2;
entonces f Y1 ,Y2  y1 , y 2   f X 1 , X 2  x1 , x 2  J  x1 , x 2  con soporte T S   R2.
1

Este teorema es la generalización del Teorema de la Distribución de la Transformación


Monótona (DTM), y surge de la aplicación directa del Teorema de Cambio de Variable
del Cálculo Vectorial.

Este Teorema requiere considerar siempre dos transformaciones de las variables


aleatorias X1 y X2. Aunque la distribución de interés sea sólo Y1 = g1(X1, X2) = X1 + X2,
es común definir una transformación dummy, por ejemplo Y2 = g2(X1, X2) = X1, para
aplicar el Teorema anterior.

Ejercicios E143 y E144 .

DAVID RUELAS RODRÍGUEZ 4-15


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 4

4.8.3. Distribución de suma de variables aleatorias independientes

A continuación se resumen los principales resultados al determinar la distribución de la


suma de variables aleatorias independientes (v.a.’s ind.).

Teorema. Suma de Distribuciones Binomiales independientes.

Si X ~ Bin(m, p) y Y ~ Bin(n, p) son v.a.’s ind., entonces X + Y ~ Bin(m + n, p)

Teorema. Suma de Distribuciones Poisson independientes.

Si X ~ Po(1) y Y ~ Po(2) son v.a.’s ind., entonces X + Y ~ Po(1 + 2)

Teorema. Suma de Distribuciones Gamma independientes.

Si X ~ Gamma(1, ) y Y ~ Gamma(2, ) son variables aleatorias independientes,


entonces X + Y ~ Gamma(1+ 2 , )

Corolario. Suma de Distribuciones Exponenciales y Ji-Cuadradas independientes.

Sean X1, X2,…, Xn variables aleatorias independientes:


n
i) Si Xi ~ Exp(), i = 1, 2,…, n, entonces X i ~ Gamman,  
i 1

2 
n n
ii) Si Xi ~  2(i), i = 1, 2,…, n, entonces 
i 1
X i ~    i 
 i 1 

Teorema. Transformaciones lineales de Distribuciones Normales.


Si X1, X2,…, Xn son variables aleatorias independientes con Xi ~ N  i ,  i2 y i,  R, 
i = 1, 2,…, n; entonces Y    i X i ~ N  ,  2  donde    i  i y  2    i2 i2 .
n n n

i 1 i 1 i 1

Corolario. Suma de Distribuciones Normales.

Si X1, X2,…, Xn son variables aleatorias independientes con Xi ~ N  i ,  i2 , para  


n
 n
 n
i = 1, 2,…, n; entonces S   X i ~ N    i ,   i2 
i 1  i 1 i 1 

DAVID RUELAS RODRÍGUEZ 4-16


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 5

5. Distribución Normal Multivariada

5.1. Funciones de densidad conjunta, marginales y condicionales de la


Distribución Normal Bivariada.
Def. Distribución Normal Bivariada

 
Se dice que (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,  , i  R, i > 0, i = 1, 2; y –1 <  < 1 si su
función de densidad de probabilidad conjunta está dada por:
1  1 
f X 1 , X 2  x1 , x 2   exp Q x1 , x 2  , – < xi < , i = 1, 2;
2 1 2 1   2  2 1 
2
  
2 2
 x  1   x  1  x 2   2   x2   2 
donde Q x1 , x 2    1   2   1      .
 1    1   2   2 

Def. Distribución Normal Bivariada Estándar. Se dice que (Z1, Z2) tienen una
Distribución Normal Bivariada Estándar si (Z1, Z2) ~ N(0, 0, 1, 1, 0).

La figura 5.1 muestra la gráfica y las curvas de nivel de la Distribución Normal


Bivariada Estándar. La gráfica de f X 1 , X 2  x1 , x 2  tiene forma de una campana que
alcanza su máximo en (x1, x2) = (1, 2) = (0, 0). Las curvas de nivel en este caso son
circunferencias con centro en (1, 2) = (0, 0).

Figura 5.1

(X1, X2) ~ N(0, 0, 1, 1, 0) fX1,X2(x 1,x 2) = q


w
4
0.20
fX1,X2(x 1,x 2) 3
2
1
0 x1
-1
-2

0.00 -3
3.5
-4.0

2.0
-2.8

-4
-1.5

0.5
-0.3

-1.0

-4 -3 -2 -1 0 1 2 3 4
1.0
2.3

-2.5
3.5
-4.0

x2 x1 x2

DAVID RUELAS RODRÍGUEZ 5-1


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 5

Efecto de los parámetros. La figura 5.2 muestra la gráfica y las curvas de nivel de
f X 1 , X 2  x1 , x 2  para el caso en que (X1, X2) ~ N(–1, 0, 1, 1.44, 0.5). En este caso las
curvas de nivel se convierten en elipses con entro en (1, 2) = (–1, 0). Note cómo:
 Los parámetros 1 y 2 trasladan el centro de la densidad conjunta.
 Por su parte, los parámetros 1 y 2 determinan la longitud de los ejes de las elipses
(eje mayor y eje menor), reflejo de la mayor o menor concentración de probabilidad
alrededor de (1, 2).
 Finalmente, el efecto del parámetro  es una rotación de los ejes de las elipses, reflejo
de una mayor o menor asociación lineal entre las variables X1 y X2.

Figura 5.2

(X1, X2) ~ N(-1, 0, 1, 1.44, 0.5) fX1,X2(x 1,x 2) = q


w
4
0.20
fX1,X2(x 1,x 2) 3
2
1
0 x1
-1
-2

0.00 -3
3.5
-4.0

2.0
-2.8

-4
-1.5

0.5
-0.3

-1.0

-4 -3 -2 -1 0 1 2 3 4
1.0
2.3

-2.5
3.5
-4.0

x2 x1 x2

Para entender mejor el impacto de los parámetros de la Distribución Normal Bivariada


es posible consultar algunos modelos animados que aparecen en Internet, por ejemplo:
http://demonstrations.wolfram.com/TheBivariateNormalDistribution/.

Proposición.

Si (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   entonces:


i) X1 ~ N 1 ,  12 
ii) X2 ~ N  2 ,  22 

Este resultado indica que las Distribuciones Marginales de la Distribución Normal


Bivariada son Distribuciones Normales univariadas.

Con base en el resultado anterior y considerando la función de densidad conjunta de la


Distribución Normal Bivariada es posible determinar sus propiedades.

DAVID RUELAS RODRÍGUEZ 5-2


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 5

Propiedades de la Distribución Normal Bivariada.

Si (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   entonces:


i) E  X 1   1 y E  X 2    2
ii) Var X 1    12 y Var X 2    22
iii) Corr X 1 , X 2    y CovX 1 , X 2    12   1 2

Combinando la función de densidad conjunta y las funciones de densidad marginales de


la Distribución Normal Bivariada es posible calcular las funciones de densidad
condicionales de X 1 X 2  x 2  y de X 2 X 1  x1  para demostrar que las
Distribuciones Condicionales de la Distribución Normal Bivariada también son
Distribuciones Normales univariadas, como se establece en la siguiente proposición.

Proposición.

Si (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   entonces:


  
i) X  
X 2  x 2  ~ N  1   1  x 2   2 ,  12 1   2 
1
2
 

ii) X 2 X 1  x1  ~ N   2    2 x1  1 , 22 1   2 


 
 1 

De este resultado se concluye que (ver Formulario) para X 1 X 2  x 2 :


1
E X 1 X 2  x 2    1   x2   2  y Var X 1 X 2  x2    12 1   2  ;
2

En forma análoga (ver Formulario), para X 2 X 1  x1  :


2
E X 2 X 1  x1    2   x1  1  y Var X 2 X 1  x1    22 1   2  .
1

Ejercicio E145 .

DAVID RUELAS RODRÍGUEZ 5-3


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 5

5.2. Función generadora de momentos de la Distribución Normal


Bivariada.
Proposición.

Si (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   entonces:

M X 1 , X 2 t1 , t 2   exp1t1   2 t 2   12 t12  2  1 2 t1t 2   22 t 22  , t i  b , b > 0, i = 1, 2.


 1 
 2 

Este resultado se puede demostrar directamente considerando la definición de función


generadora de momentos conjuntos.

5.3. Independencia de variables aleatorias con Distribución Normal


Bivariada.
Proposición.

Si (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   y  = 0 entonces X1 y X2 son independientes.

Importante: En general, independencia implica  = 0; sin embargo,  = 0 no


necesariamente implica independencia. En el caso particular de la Distribución
Normal Bivariada  = 0 si implica independencia.

Ejercicio E146 .

5.4. Combinaciones lineales de variables aleatorias con Distribución


Normal Bivariada.
Teorema.

Si (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   y T   1 X 1   2 X 2 , i  R, i = 1, 2, es una


combinación lineal arbitraria de X1 y X2, entonces T ~ N E T , Var T   , donde:
i) E T    1 1   2  2 ; y
ii) Var T    12 12   22 22  2 1 2  1 2 .

Ejercicio E147 .

DAVID RUELAS RODRÍGUEZ 5-4


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 5

5.5. Distribución Normal Multivariada.


La Distribución Normal Bivariada se puede generalizar para más de dos variables y su
manejo resulta más simple utilizando vectores y matrices.

Def. Distribución Normal Multivariada.

Se dice que X   X 1 , X 2 ,, X n  ~ N n  ,  , es decir, el vector aleatorio X tiene una


t

Distribución Normal Multivariada de dimensión n con vector de medias  y matriz de


varianzas-covarianzas  definidos por
 1    11  12   1n 
   
    22   2n 
  2 y    21 ,
     
   
     nn 
 n  n1  n 2
si su función de densidad de probabilidad conjunta está dada por:

exp x     1 x    , x  Rn
1  1 
f X x  
t

2  det    2 
n
2

donde det() y –1 son el determinante y la inversa de la matriz , respectivamente.

Las principales propiedades de la Distribución Normal Bivariada se pueden generalizar


para el caso de la Distribución Normal Multivariada.

Teorema.

Si X   X 1 , X 2 ,, X n  ~ N n  ,   y A  Rmn, entonces Α X ~ N m A  , AA t 


t

El Teorema anterior establece que cualquier transformación lineal de una


Distribución Normal Multivariada continua siendo Normal Multivariada.

 X1   1    12  12  13 
     
Por ejemplo, sea X   X 2  ~ N 3  ,   donde     2  y     21  22  23  . Si
X     2 
 3  3  31  32  3 
0 1 0
A    , entonces la transformación A aplicada a X por la izquierda
1 0 0
intercambia o permuta las variables X1 y X2 y elimina a la variable X3, y se puede pensar
que (X2, X1)t debe tener una Distribución Normal Bivariada.

DAVID RUELAS RODRÍGUEZ 5-5


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 5

Aplicando el Teorema anterior se observa que:


 X1   1 
 0 1 0    X 2   0 1 0     2 
A X    X 2     , A      2     , y
 1 0 0  X   X 1   1 0 0     1 
 3  3
  1  12  13  0 1 
2
0 1
 0 1 0      21  22  23     22  21 
AA     21  2  23  1 0    2   ;
 1 0    
t 2
2 
 1 0 0   2    1   13    12  1 
 31  32  3  0 0 
12
0 0

X        2  21  
es decir, A X   2  ~ N 2   2 ,  2  .
2 
Alternativamente, considerando la
 X1    1   
  12 1 

  
notación particular de la Normal Bivariada,  X 2 , X 1  ~ N 2   2 , 1 , 22 , 12 , 12  .
  1 2 

La transformación A  Rmn puede ser elegida apropiadamente para concluir que la


distribución marginal de la distribución de cualquiera de las variables Xi, i = 1, 2,…, n,
es Normal univariada y que cualquier subconjunto de variables X i1 , X i2 ,  , X ik , k ≤ n, es
Normal multivariada de dimensión k.

Corolario. Distribuciones Marginales y Subconjuntos de la Normal Multivariada.

Si X   X 1 , X 2 ,, X n  ~ N n  ,   entonces:
t

i) Xi ~ N  i ,  i2  , i = 1, 2,…, n; y
ii) 
Cualquier subconjunto X i1 , X i2 ,  , X ik  t
 
~ N k  k ,  k , k ≤ n, donde  k y  k
corresponden a sus medias y varianzas-covarianzas, respectivamente.

Otra transformación de interés es A  1 ,  2 ,  ,  n     R1n que permite concluir


t

n
que la combinación lineal T   X  1 X 1   2 X 2     n X n   i X i tiene una
t

i 1
distribución Normal univariada.

El cálculo de E[T] y Var[T] se puede realizar fácilmente a partir de las propiedades de


esperanza y varianza:
n  n n
 ET   E   i X i     i EX i     i i
 i 1  i 1 i 1

 VarT   Var  i X i    i2Var X i   2 i j CovX i , X j    i2 i2  2 i j ij


n  n n

 i 1  i 1 i j i 1 i j

DAVID RUELAS RODRÍGUEZ 5-6


APUNTES PARA EL CURSO DE PROBABILIDAD. AGOSTO – DICIEMBRE 2011
Sección 5

Corolario. Combinaciones lineales de la Distribución Normal Multivariada.

Si X   X 1 , X 2 ,, X n  ~ N n  ,   y    1 , 2 ,, n  , i,  R, i = 1, 2,…, n;


t t

n
entonces T   X   i X i ~ N E T , Var T   donde:
t

i 1
n
E T        i  i ; y
t
i)
i 1
n n n
Var T        i j  ij    i2 i2  2  i j  ij
t
ii)
i 1 j 1 i 1 i j

Finalmente, igual que en el caso de la Normal Bivariada, en el caso de la Normal


Multivariada es posible hablar de distribuciones condicionales.

Si X ~ N n  ,   se puede descomponer en 2 subconjuntos arbitrarios X 1 y X 2 ,


entonces es posible determinar la distribución condicional X 1 X 2  x 2 .

Teorema. Distribuciones Condicionales de la Normal Multivariada.

 X1       12  
Si   ~ N n   1 ,  11   , X 1  Rk1, X 2  R(n – k)1
, k ≤ n, y 22 es no
 2     
X   2   21 22  

 
singular, entonces X 1 X 2  x 2  ~ N k  1.2 , 11.2 donde:
i)  1.2   1  12  22
1
x 2   2 ; y
1
ii) 11.2  11  12  22  21

Ejercicio E148 .

DAVID RUELAS RODRÍGUEZ 5-7


Material de Apoyo para el Curso de Probabilidad
David Ruelas Rodríguez, Agosto – Diciembre 2011

E1.  
Utilice la definición de igualdad de conjuntos para demostrar que Ac
c
 A.

E2. Suponga que el conjunto universo está dado por  = {x  Z+ | x < 12} y que se definen
los conjuntos A = {1, 2, 3, 4, 5}, B = {2, 4, 6, 8, 10} y C = {8, 9, 10}.
a) Exprese  por extensión. ¿Cuál es su cardinalidad?
b) Determine AB y determine su cardinalidad.
c) Determine AB, AC y BC.
d) Represente mediante un Diagrama de Venn los conjuntos A, B y C.
e) Se define D = {x  A | x es par}. Calcule Dc y A – D. Compruebe mediante el
diagrama del inciso anterior que D = AB.

E3. Considere los conjuntos del ejercicio E2 y verifique que (AB)c = AcBc (Ley de De
Morgan).

E4. Leyes de De Morgan. Sean A1, A2,..., An , n  N, subconjuntos de . Demuestre que:


c
 n  n
a)   Ai    Aic
 i 1  i 1

c
 n  n
b)   Ai    Aic
 i 1  i 1

E5. Considere los siguientes conjuntos de  = R (la recta real): A = {x  R | x > 0},
B = {x  R | x  5}, C = {x  R | –10 < x  5} y D = {x  R | |x + 2|  2}.
a) Represente cada conjunto en la recta real. ¿Es posible representar estos conjuntos
por extensión?
b) ¿Se puede afirmar que A  D?
c) Calcule AB y CD.
d) Calcule #(CBc)

E6. Sean  = R2, M = {(x, y) : x2 + y2  16} y N = {(x, y) : |x – 1| < 2}. Represente


geométricamente MN c.
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E7. Construya el espacio muestral para cada uno de los siguientes experimentos aleatorios.
Determine en cada caso si el espacio muestral es discreto o continuo.
a) Se lanza al aire una moneda justa cuyas caras son “Águila” (A) o “Sol” (S).
b) Se pregunta a dos personas si la primera letra de su apellido es vocal o consonante.
c) Se pregunta a tres personas si el día del mes en que nacieron es número par o non.
d) Se observa el comportamiento de 10 acciones de la Bolsa Mexicana de Valores y
se registra cuáles de éstas cerraron ayer a la baja y cuáles no.
e) Se observa el comportamiento de 10 acciones de la Bolsa Mexicana de Valores y
se registra cuántas de éstas cerraron ayer a la baja.
f) Se observa la temperatura ambiente (en grados centígrados).
g) Se calcula el saldo promedio de las cuentas de ahorro de un banco.
h) Se eligen dos coches al azar y se observa su kilometraje.
i) Se pregunta a una pareja el número de años completos de escuela primaria
cursados por cada uno.

E8. Considere el experimento aleatorio en el que se lanza al aire una moneda y se tira un
dado. La moneda puede tener resultados “Águila” (A) o “Sol” (S), mientras que el dado
puede caer en 1, 2, 3, 4, 5 o 6.
a) Defina el espacio muestral asociado a este experimento por comprensión y por
extensión. Determine su cardinalidad.
b) Se definen E, el evento en el que cae “Sol”; y F, el evento en el que caen “Águila”
o un número mayor a 3. Determine el evento G  E  F c y calcule #G.

E9. Considere el experimento aleatorio en el que se lanzan dos dados honestos, cada uno
numerado del 1 al 6, uno seguido del otro.
a) Determine el espacio muestral y su cardinalidad.
b) Sean A, el evento en que el primer dado es mayor al segundo; y B, el evento en que
ambos dados caen en el mismo valor. Exprese A y B por extensión y por
comprensión. Determine sus cardinalidades.
c) Calcule #(AB) y compruebe que #(AB) = #A + #B por ser eventos mutuamente
excluyentes.
d) Sea C, el evento en que la suma de los dados es 7. Determine #C.

E10. Considere el experimento aleatorio y los eventos del ejercicio E9. Bajo el enfoque
clásico de la probabilidad:
a) Determine la probabilidad de que el valor del primer dado sea mayor al del
segundo.
b) Calcule la probabilidad de que ambos dados caigan en el mismo valor.
c) Determine la probabilidad de que al valor del primer dado sea mayor o igual al del
segundo.
d) Demuestre que P(AB) = P(A) + P(B) por ser eventos mutuamente excluyentes.

DRR 2
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E11. Suponga que un punto es escogido al azar en el cuadrado unitario, es decir,


    x, y  : 0  x  1, 0  y  1  . Sea A el evento de que el punto está en el triángulo
delimitado por las rectas y = 0, x = 1 y x = y; y sea B el evento de que el punto está en el
rectángulo con vértices en (0,0), (1,0), 1, 12  y 0, 12  . Calcule:
a) P(AB).
b) P(AB).

E12. Considere el experimento aleatorio en que se lanza un volado. Sea A, el evento en que
sale “Águila”.
a) Realice al menos 1,000 repeticiones de este experimento aleatorio y determine,
para cada lanzamiento, la frecuencia relativa del evento A.
b) Construya una gráfica que muestre el valor de la frecuencia relativa del evento A
para cada una de las repeticiones del experimento y determine, bajo el enfoque
frecuentista, la probabilidad de obtener águila.

E13. Una urna contiene 3 pelotas con las letras “a”, “m” y “o”. Se extraen de la urna al azar y
en forma consecutiva 3 pelotas, formando palabras en el orden que salen. Utilizando
diagramas de árbol determine la probabilidad de que la palabra comience y termine en
vocal si:
a) Las extracciones se hacen sin reemplazo.
b) Las extracciones se hacen con reemplazo.
c) ¿Cuántos casos totales habría si se agregara una cuarta pelota con la letra “s” y las
extracciones se hicieran nuevamente con reemplazo?

E14. Suponga que las placas de los coches se integran por 3 dígitos seguidos de 3 letras
correspondientes a un alfabeto de 26 letras. Si se elige una placa al azar:
a) ¿Cuál es la probabilidad de que el número de la placa (integrado por los 3 dígitos)
sea par?
b) ¿Cuál es la probabilidad de que el número de la placa (integrado por los 3 dígitos)
termine en 0 o 9 y su última letra sea “Z”?

E15. Considere el experimento aleatorio en que se lanzan 3 dados sucesivamente.


a) ¿Cuál es la probabilidad de que exactamente uno de ellos sea 2?
b) ¿Cuál es la probabilidad de obtener al menos un 2?

DRR 3
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E16. Se desea colocar 2 libros de Matemáticas, 2 de Economía y uno de Historia sobre un


librero. Si los libros se colocan aleatoriamente, ¿cuál es la probabilidad de que en el
extremo izquierdo quede el libro de Historia?

E17. Para x = 0, 1,…, 10, calcule x! ¿Qué conclusiones se pueden obtener? ¿Existe alguna
función continua que genere los valores de los factoriales?

20! 20!
E18. Calcule y
18! 2!18!

E19. Suponga que el número de identificación personal (NIP) de una tarjeta de débito debe
estar integrado por 4 dígitos distintos. ¿Cuál es la probabilidad de que una persona
eligiendo 4 dígitos distintos al azar adivine el NIP de una persona?

E20. “Melate” es un juego de Pronósticos para la Asistencia Pública que consiste en


seleccionar 6 números de una boleta en la que aparecen impresos números del 1 al 56.
Posteriormente se desarrolla un sorteo en el que se extraen al azar 6 pelotas numeradas
de una urna con las 56 pelotas. El ganador del primer lugar es aquel que haya registrado
los primeros 6 números que se extraen en el sorteo sin importar el orden. Una variante
de este sorteo es “Melate Retro” que sigue la misma mecánica pero utiliza sólo 39
números.
a) Calcule la probabilidad de ganar el “Melate” y el “Melate Retro”.
b) ¿Cuál es el impacto de aumentar de 39 a 56 el total de números del sorteo?

E21. Modelo Hipergeométrico. El Consejo de Administración de una compañía está


integrado por 7 hombres y 5 mujeres, y ha decidido constituir un Comité de Auditoría
formado por 4 personas: presidente, secretario, asesor y vocal. Si la selección de los
miembros del Comité de Auditoría se realiza al azar:
a) ¿Cuál es la probabilidad de que el Comité se integre sólo por hombres?
b) Sea C el evento en que figura al menos una mujer en el Comité de Auditoría.
Calcule P(C).
c) Determine la probabilidad de que presidente y secretario sean mujeres.

DRR 4
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E22. Considere los las siguientes sucesiones:

i xi yi
1 65 4.3
2 84 5.6
3 109 7.3
4 67 4.5
325 21.7

Realice los cálculos que se piden a continuación.

4 4
a)  2i
i 1
d) x y
i 1
i i

4 4 4
b)  xi
i 1
e)  xi  y i
i 1 i 1
2
 4  4

4
  y i    y i2
 i 1 
c) y i f) i 1
4
i 1
 lnx 
i 3
i

E23. Demuestre que si x1, x2,..., xn y y1, y2,..., yn son conjuntos de n números reales, y c es
una constante, entonces
n
a)  c  nc
i 1
n n
b)  cxi  c xi
i 1 i 1
n n n
c)  x
i 1
i  y i    xi   y i
i 1 i 1

4 4 4
 xi 
E24. Se sabe que x
i 1
i  325 y que y
i 1
i  21.7 . Calcule   10  2 y
i 1
i  5  utilizando las

propiedades de la suma.

n
nn  1 n
nn  12n  1
E25. Se sabe que si n  N, entonces i 
i 1 2
y i
i 1
2

6
.

a) Compruebe la validez de estas fórmulas para n = 5


b) Calcule 1  2  3    1,000
50

 2i  3
2
c) A partir de estas fórmulas y las propiedades de la suma calcule
i 1

DRR 5
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E26. Utilice el Teorema Binomial para demostrar que a partir de un conjunto de n elementos,
n  1, se pueden formar 2n subconjuntos.

E27. Una baraja de 52 cartas contiene 13 corazones. Suponga que se barajan las cartas y se
distribuyen entre cuatro jugadores: A, B, C y D, de forma que cada jugador recibe 13
cartas (esta es la forma en que se inicia una partida de Bridge). Calcule la probabilidad
de que los jugadores A, B, C y D reciban 6, 4, 2 y 1 corazones, respectivamente.

E28. Sea (, A, P) un espacio de probabilidad y suponga que A y B son eventos en A.


Utilizando los Axiomas de Probabilidad demuestre que:
a) P(Ac) = 1 – P(A).
b) P() = 0.
c) Si B  A entonces P(A – B) = P(A) – P(B)
d) P(AB) = P(A) + P(B) – P(AB)

E29. Estudios recientes muestran que en cierta población de México la probabilidad de que un
habitante sea mayor de 40 años o tenga calvicie es de 0.40. La probabilidad de que sea
mayor de 40 años es de 0.20 y la probabilidad de que tenga calvicie es de 0.30. Se elige
un individuo al azar. Calcule la probabilidad de que el individuo…
a) … tenga 40 años o menos.
b) … sea mayor de 40 años con calvicie.
c) … sea mayor de 40 años sin calvicie.
d) … tenga 40 años o menos con calvicie.
e) … tenga 40 años o menos sin calvicie.

E30. El problema del cumpleaños. Suponga que en un grupo de 20 personas sus


cumpleaños no están relacionados (v.gr., no hay gemelos), y que los 365 días del año
tienen las mismas posibilidades de ser el cumpleaños de cualquier persona (i.e., tasa de
natalidad uniforme a lo largo del año y los nacidos el 29 de febrero festejan su
cumpleaños el 1 de marzo). ¿Cuál es la probabilidad de que al menos dos personas en el
grupo tengan el mismo cumpleaños?

DRR 6
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E31. La compañía “La Casita” produce y vende cera para pisos en el mercado de productos
para cuidado del hogar. La fábrica produce 10,000 litros de cera semanalmente y,
generalmente, tiene en inventario 5,000 litros. Si las ventas exceden la producción la
compañía cubre el exceso de demanda con el inventario y si las ventas son menores a la
producción se incrementa el inventario. El economista de la compañía tiene la siguiente
información de eventos de las ventas semanales en litros de cera: A = [0, 5,000],
B = (5,000, 10,000], C = [2,500, 7,500] y D = (5,000, 7,500], con probabilidades
P(A) = 0.25, P(B) = 0.65, P(C) = 0.35 y P(D) = 0.20
a) ¿Cuál es la probabilidad de que se tenga que utilizar el inventario para satisfacer
las ventas de una semana?
b) ¿Cuál es la probabilidad de que se vendan menos de 2,500 litros de cera en una
semana?
c) ¿Cuál es la probabilidad del evento G = AC?

E32. Sobre una pared de 2 metros de alto y 2.25 metros de ancho se coloca una diana con tres
círculos concéntricos cuyos diámetros son 20 cm., 40 cm. y 60 cm. Si se lanza un dardo
al azar sobre esta pared:
a) Determine la probabilidad de que caiga dentro de la diana.
b) ¿Cuál es la probabilidad condicional de que el dardo caiga en el círculo del centro
dado que cayó dentro de la diana?

E33. Sean A y B eventos un espacio de probabilidad dado con P(A) > 0 y P(B) > 0.
Demuestre que si B es favorable a A, entonces A es favorable a B. Es decir, que si
P(A|B) > P(A), entonces P(B|A) > P(B).

E34. A 100 estudiantes del ITAM, hombres y mujeres, se les pregunta si utilizan coche propio
o algún otro medio de transporte para llegar al ITAM. Con base en los resultados de la
encuesta se obtuvo la siguiente distribución de frecuencias absolutas:

Sexo Transporte de llegada Total


Coche propio Otro
Hombre 40 22 62
Mujer 29 9 38
Total 69 31 100

Fuente: Encuesta ITAM

¿Cuál es la probabilidad de que al elegir un estudiante del ITAM al azar…


a) … sea mujer?
b) … sea hombre y utilice coche propio?
c) … sea mujer o use coche propio?
d) … no utilice coche propio dado que es mujer?
e) … no sea mujer dado que no utiliza coche propio?
f) … no sea hombre ni utilice coche propio?

DRR 7
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E35. Regla de la Multiplicación (Probabilidad). Demuestre que si (, A, P) es un espacio


de probabilidad con A1, A2,..., An, n  2, eventos en A para los cuales P A1 A2  A j   0 ,
j = 1, 2,…, n – 1, entonces:
P A1 A2  An   P A1 P  A2 A1 P A3 A1 A2  P An A1 A2  An 1 .

E36. Una urna contiene 10 bolas, de las cuales 3 son negras y 7 blancas. Considere el
siguiente experimento: en cada turno una bola es elegida al azar, se anota su color, y se
regresa a la urna junto con 2 bolas de su mismo color.
a) ¿Cuál es la probabilidad de obtener 3 bolas negras en los tres primeros turnos de
experimento?
b) ¿Cuál es la probabilidad de obtener 2 bolas negras en los tres primeros turnos de
experimento?

E37. Comente si intuitivamente A y B son eventos independientes en los siguientes casos:


a) A, color de cabello de un individuo; y B, sabor favorito de helado del individuo.
b) A, persona con una estatura de más de 1.83 m; y B, su padre mide más de 1.83 m.
c) A, edad de una persona; y B, tipo de música favorita de esta persona.
d) A, persona que es jugador de basketball; y B, la estatura de esta persona es mayor a
1.83 m.

E38. Se lanzan dos dados justos. Sea A el evento en que la suma es impar, B el evento en que
aparece un uno en el primer dado, y C el evento en que la suma es siete.
a) ¿Son A y B independientes?
b) ¿Son A y C independientes?
c) ¿Son B y C independientes?

E39. Sean A y B dos eventos mutuamente excluyentes tales que P(A) > 0 y P(B) > 0.
Demuestre que A y B no pueden ser independientes.

E40. Se lanza un tetraedro (cuerpo geométrico de 4 caras del mismo tamaño) con una cara
verde, otra blanca, otra roja y la otra tricolor (verde, blanco y rojo). Sean V el evento en
que la cara abajo aparece el color verde, B si aparece el blanco, R si aparece el rojo.
¿Son V, B y R eventos completamente independientes? ¿Qué puede concluir de este
ejemplo acerca de la independencia de eventos?

E41. Modelo Binomial. Alrededor del 15% de la población se marea mientras toma paseos
en lancha. Suponga que 4 turistas seleccionados aleatoriamente abordan una lancha.
a) ¿Cuál es la probabilidad de que ninguno se maree?
b) ¿Cuál es la probabilidad de que al menos uno se maree?

DRR 8
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E42. Regla de Probabilidades Totales. Demuestre que si (, A, P) es un espacio de


probabilidad dado con B1, B2,..., Bn, una partición de  y P(Bi) > 0 para i = 1, 2,..., n,
entonces para todo A  A, P A   P A Bi PBi  .
n

i 1

E43. Una urna que contiene 10 pelotas, de las cuales 5 son negras. Considere el experimento
en que primero se escoge al azar un número n del conjunto {1, 2, 3} y después se
selecciona una muestra de n pelotas sin reemplazo de la urna. Encuentre la probabilidad
de que todas las pelotas en la muestra sean negras.

E44. Teorema de Bayes. Demuestre que si (, A, P) es un espacio de probabilidad dado con
B1, B2,..., Bn, una partición de  y P(Bi) > 0 para i = 1, 2,..., n, entonces para todo A  A,

con P(A) > 0, P B j A  n


 
P A B j P B j 
, j = 1, 2,..., n.
 PA Bi PBi 
i 1

E45. Una empresa petrolera planea perforar un pozo en una zona donde no se tiene la
seguridad de que exista petróleo. Los geólogos, de acuerdo con su experiencia, creen
que la probabilidad de que exista petróleo en la zona es de 0.1. Se tiene la opción de
hacer una prueba preliminar antes de tomar una decisión. La prueba no es concluyente,
puesto que hay casos en que da resultados erróneos. Si existe petróleo, la prueba es
positiva el 90% de las veces, pero aún si no existe petróleo, la prueba es positiva el 20%
de las veces. Determine la probabilidad de que exista petróleo dado que la prueba
resulta positiva.

E46. Cierta compañía produce objetos con tres tipos de máquinas con diferentes tecnologías.
La máquina A, elabora el 30% de la producción, la máquina B elabora el 50% de la
producción y la máquina C el resto de la producción. Se sabe que la máquina A tiene
probabilidad de fabricar objetos defectuosos de 0.1, la máquina B de 0.12 y la máquina
C de 0.04.
a) ¿Cuál es la probabilidad de que un objeto tomado al azar sea defectuoso?
b) ¿Cuál es la probabilidad de que un objeto tomado al azar haya sido producido por
la máquina A si se sabe que es defectuoso?

E47. Considere el experimento aleatorio en que se lanzan 3 volados sucesivamente. Sean X,


la variable aleatoria que indica el número de águilas que aparecen durante el
experimento; y Y, la variable aleatoria que toma el valor 1 si aparece al menos un sol y 0
en otro caso.
a) Defina el espacio muestral del experimento por extensión.
b) Para cada punto del espacio muestral determine su probabilidad y los valores que
toman las variables aleatorias X y Y.
c) Calcule P[X = 2] y P[Y = 0].

DRR 9
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E48. Suponga que un banco presta servicios de banca múltiple de 9:00 a 17:00 hrs. El banco
cuenta con 3 cajas y una ventanilla para realizar trámites administrativos de los
cuentahabientes. En las operaciones de un día en particular de este banco se han
identificado algunas variables aleatorias que se definen a continuación. Indique en cada
caso si se trata de una variable discreta o continua e indique sus posibles valores.
a) X = Número de personas que visitan el banco durante el día.
b) Y = Caja en la que será atendida una persona que desea realizar un depósito.
c) Z = Número de trámites administrativos que realiza un cuentahabiente.
d) T = Tiempo que tarda en ser atendida una persona que llega a las 15:00 hrs.
e) S = Monto total de los depósitos que recibe el banco en este día.
f) Ri = El tiempo que tarda en atender a una persona el cajero i, i = 1, 2, 3.

E49. Suponga que X es una variable aleatoria discreta para la cual


x
c si x  2 , 3
 7  x
f X x    si x  4 , 5
 c
0 e.o.c.

a) Determine el valor de c de modo que fX(x) sea función de masa de probabilidad.
b) Grafique fX(x) y compruebe que esta función satisface las condiciones que
caracterizan a las funciones de masa de probabilidad.
c) Calcule P[3 < X < 5] y P[3  X  5]
d) Calcule P[X < 5 | X > 2]

E50. Reescriba la siguiente función de masa de probabilidad utilizando funciones indicadoras:


x
10 si x  2 , 3
 7  x
f X x    si x  4 , 5
 10
0 e.o.c.


E51. Una persona tiene la siguiente estrategia de juego en un casino de Las Vegas. Apuesta
100 dólares a que la ruleta caerá en número rojo y si gana, se retira. Si pierde, entonces
hace la misma apuesta pero con 200 dólares e independientemente del resultado se
retira. Suponiendo que la ruleta tiene 36 números, que la mitad de los números son rojos
y que X es la variable aleatoria de la ganancia o pérdida de esta persona, determine la
función de masa de probabilidad de X.

DRR 10
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E52. Se tira un dado consecutivamente hasta que aparece un 6.


a) Si se define a la variable aleatoria Y como el número de tiros necesarios hasta que
aparezca un 6, obtenga su función de masa de probabilidad.
b) ¿Cuál es la probabilidad de que a lo más el dado se tire 3 veces?
c) ¿Cuántos tiros se necesitan para asegurar que la probabilidad de obtener un 6 sea
al menos 0.5?

E53. La Distribución Poisson con parámetro ,  > 0, se caracteriza por la siguiente función
e  x
de masa de probabilidad: f X x   I 0,1,  x  .
x!
a) Verifique que, efectivamente, fX(x) es función de masa de probabilidad.
b) Calcule P X  2 .

E54. Considere que X es una variable aleatoria continua para la cual


0.2 si 0  x  1
0.3 si 1  x  2

f X x   
 0.5  0.4 x si 2  x  3
0 e.o.c.
a) Grafique fX(x) y exprésela en términos de funciones indicadoras.
b) Verifique que fX(x) es función de densidad de probabilidad.
c) Calcule P[0.5  X < 1] y P[0.5 < X  1]. ¿Hay alguna diferencia?
d) Determine P[X = 2] y comente su resultado.
e) Calcule P[ X > 2], P[ X < 0.5] y P[ X ≥ 0.5].
f) Calcule P[X < 1 | X ≥ 0.5].

E55. La Distribución Exponencial con parámetro ,  > 0, se caracteriza por la siguiente


x
1 
función de densidad de probabilidad: f X  x   e 
I 0 ,   x  .

a) Verifique que, efectivamente, fX(x) es función de densidad de probabilidad.
b) Calcule Pa  X  b para 0 < a < b.

E56. Suponga que f1(x) y f2(x) son funciones de densidad de probabilidad. Demuestre que la
función f(x) =  f1(x) + (1 – ) f2(x), 0 <  < 1, también es función de densidad de
probabilidad.

DRR 11
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E57. Considere el experimento aleatorio en que se lanza un dado. Se define la variable


aleatoria X como el valor que toma el dado.
a) Determine la función de masa de probabilidad de X y grafíquela.
b) Construya la función de distribución acumulada de X y grafíquela.
c) Compruebe que FX(x) satisface las condiciones que caracterizan a cualquier
función de distribución acumulada.
d) A partir de la función de distribución acumulada de X calcule P[X < 3], P[X  2],
P[X > 2], P[3 < X < 6] y P[3  X < 6].

E58. Una estación de servicio tiene dos bombas y cada una puede surtir hasta 10,000 galones
por mes. La cantidad total de gasolina demandada en esta estación por mes es una
variable aleatoria X (medida en diez miles de galones) con función de densidad de
probabilidad
x si 0  x  1

f X  x   2  x si 1  x  2
0 e.o.c.

a) Construya la función de distribución acumulada de X y grafíquela.
b) Compruebe que FX(x) satisface las condiciones que caracterizan a cualquier
función de distribución acumulada.
c) Calcule la probabilidad de que la estación surta entre 8,000 y 12,000 galones en un
mes en particular.
d) Dado que durante un mes la estación surtió más de 10,000 galones, ¿cuál es la
probabilidad de que haya surtido más de 15,000 galones?

E59. Se sabe que si X tiene una Distribución Exponencial con parámetro ,  > 0, entonces
x
1    
x

f X  x   e I 0,   x  . Demuestre que FX  x   1  e


  
I x  .
   0 , 
 

E60. El número de solicitudes de apertura de crédito que se reciben diariamente en un banco


es una variable aleatoria W con función de distribución acumulada
0 si w  0
0.1 si 0  w  1

FW w  0.3 si 1  w  2
0.7 si 2  w  4

1 si w  4
a) Encuentre la función de masa de probabilidad de la variable aleatoria W.
b) Si en un día en particular se ha recibido una solicitud, ¿cuál es la probabilidad de
que se reciban más de 3 solicitudes?
c) Calcule la probabilidad de que se reciban 3 solicitudes en un día particular.

DRR 12
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E61. El período de funcionamiento de cierto transmisor hasta su primera falla (en cientos de
horas) es una variable aleatoria T con función de distribución acumulada
0 si t  0
FT t    t 2
1  e si t  0
a) Calcule la probabilidad de que el transmisor trabaje por lo menos durante 200
horas hasta tener su primera falla.
b) Determine la función de densidad de probabilidad de la variable aleatoria T.

E62. La Distribución Weibull con parámetros  y ,  > 0 y  > 0, se utiliza frecuentemente


para modelar el tiempo de vida (X) de algunas máquinas. Si la función de supervivencia

x
 
de X está dada por S X  x   e  
para x > 0, calcule la función de densidad de X.

E63. Suponga que X es la variable aleatoria del número de veces que llueve por día en cierta
región y que su función de masa de probabilidad está dada por:
X 0 1 2
P[X = x] 0.1 0.6 0.3
a) Determine la expresión de fX(x) y construya su gráfica.
b) ¿Cuántas veces se espera que llueva por día en esta región? Grafique este valor en
la gráfica del inciso anterior.

E64. La función de masa de probabilidad de la variable aleatoria X está definida por


 2x
 si x  1, 2,  , n
f X  x    nn  1 , n  Z+
0 e.o.c.
Calcule la esperanza de X.

E65. El tiempo en horas (Z) requerido por los estudiantes de un curso para resolver un
examen final es una variable aleatoria con función de densidad:
 z 4  z 
 si 0  z  3
f Z z    9
0 e.o.c.
a) Realice un bosquejo de la gráfica de fZ(z).
b) Calcule e interprete la esperanza matemática de la variable aleatoria Z.

E66. La variable aleatoria Y tiene una función de densidad dada por


a  by si 0  y  1
fY  y  
0 e.o.c.
2
Encuentre los valores de a y b tales que la media de Y sea .
3

DRR 13
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E67. Sea X una variable aleatoria con función de densidad f X  x   x 2 I 1,   x  .


a) Grafique y verifique que fX(x) es función de densidad de probabilidad.
b) Demuestre que E X  no existe para esta variable aleatoria.

E68. Un puesto de periódicos vende un diario francés poco demandado. Si Y es el número de


diarios vendidos en un día, su función de masa de probabilidad está dada por:

Y 5 6 7 8
P[Y = y] 0.2 0.4 0.3 0.1

Suponga que la utilidad (en pesos) para el puesto de periódicos por la venta del diario
francés está dada por U Y   60 Y  5 .
a) Calcule la utilidad esperada.
b) Calcule la probabilidad de que la utilidad sea mayor a 60 pesos.

E69. Una casa de bolsa ofrece a sus clientes un fondo de renta variable con una tasa de
rendimiento anual con la siguiente función de densidad:
2
  x  1 si  1  x  2
f X x    9
0 e.o.c.
Un inversionista puede ganar o perder en este fondo dependiendo si la tasa X es positiva
o negativa, respectivamente.
a) Calcule la tasa de rendimiento anual esperada.
b) Si un cliente de la casa de bolsa decide invertir 50 mil pesos en este fondo,
entonces la comisión del ejecutivo de cuenta será de C  5 X  1 (en miles de
pesos). Calcule el valor esperado de la comisión del ejecutivo de cuenta.
c) La tasa de rendimiento continuo del fondo está dada por Y  ln 1  X  . Calcule la
probabilidad de que la tasa de rendimiento continuo sea mayor a 100%.
d) Si otro cliente de la casa de bolsa decide invertir 90 mil pesos en este fondo,
entonces el saldo de la inversión al final de 2 años será de S  901  X  (en miles
2

de pesos). Calcule la probabilidad de que al final de los 2 años el saldo del


inversionista sea menor al saldo final promedio de esta inversión.

E70. Se sabe que si X tiene una Distribución Uniforme Continua sobre el intervalo [1, 2],
1
con 1, 2  R y 1 < 2, entonces f X  x   I  ,  x  , es decir, la distribución
 2  1 1 2
asigna la misma probabilidad a intervalos de igual longitud en [1, 2].
a) Calcule el k-ésimo momento de la variable aleatoria X, k = 1, 2,...
b) Grafique e interprete el valor del primer momento (k = 1).
c) Calcule el k-ésimo momento central de la variable aleatoria X, k = 1, 2,…

DRR 14
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E71. Sea W el número que se obtiene al lanzar un dado honesto cuyas caras están numeradas
del 1 al 6. Calcule esperanza, varianza y desviación estándar de la variable aleatoria W.

E72. Fórmula para calcular la Varianza. Si X es una variable aleatoria discreta, demuestre
 
que Var X   E X 2  E  X  .
2

E73. Considere nuevamente la variable aleatoria W que denota el número que se obtiene al
lanzar un dado honesto con caras numeradas del 1 al 6. Verifique cómo la varianza de
W calculada a partir del “segundo momento menos el primer momento al cuadrado”
coincide con el valor calculado a partir de la definición de varianza.

E74. Se sabe que si X tiene una Distribución Exponencial con parámetro ,  > 0, entonces
x
1 
f X x   e 
I 0,   x  . Calcule la varianza y la desviación estándar de X.

E75. Un inversionista realiza dos inversiones. La inversión 1 tendrá una ganancia de $1,000
con probabilidad 0.6 o una pérdida de $400 con probabilidad de 0.4. La inversión 2
tendrá una ganancia de $2,000 con probabilidad de 0.5 o una pérdida de $500 con
probabilidad de 0.5.
a) Grafique y compare las funciones de masa de probabilidad de la ganancia
(pérdida) de estas inversiones.
b) Calcule esperanza y desviación estándar de cada inversión.
c) Si usted fuera analista financiero y considerara sólo la ganancia o pérdida
esperada, ¿qué inversión recomendaría?
d) En Finanzas, la desviación estándar de una inversión es interpretada como su
riesgo financiero. Si usted fuera analista financiero y considerara sólo el riesgo de
las inversiones, ¿qué inversión recomendaría?

E76. Propiedades del Valor Esperado y la Varianza. Suponga que X es una variable
aleatoria continua con función de densidad de probabilidad fX(x), que a, b y c son
constantes, y que g() y h() son funciones. Demuestre que:
a) E c   c
b) E ag  X   bh X   aE g  X   bE h X 
c) Var c   0
d) Var cX   c 2Var  X 

DRR 15
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E77. La producción mensual de jarabe para la tos de un laboratorio (X, en miles de litros) es
6 x
una variable aleatoria con función de densidad f X  x   I 2,6   x  . Se sabe que para
8
la elaboración de este jarabe, el laboratorio enfrenta costos fijos por $145,000 y una
105 X  2
2
función de costos variables (en miles de pesos) dada por C  X   .
4
a) Calcule esperanza y varianza de la producción mensual de jarabe.
b) Calcule el costo total esperado que debe pagar mensualmente el laboratorio.
c) Calcule el costo medio esperado que debe pagar mensualmente el laboratorio.

E78. Suponga que Y es el número de veces que falla una impresora diariamente en una
oficina. La probabilidad de que la impresora no falle es de 0.1, pero la probabilidad de
que falle 1, 2 o 3 veces es de 0.3, 0.4 y 0.2, respectivamente. Calcule media, mediana y
moda de la variable aleatoria Y.

E79. En el ejercicio E65 se consideró que el tiempo en horas (Z) requerido por los estudiantes
de un curso para resolver un examen final es una variable aleatoria con función de
densidad:
 z 4  z 
 si 0  z  3
f Z z    9
0 e.o.c.
Calcule moda y mediana de la variable aleatoria Z.

E80. El tiempo (en minutos) que pasa una persona en un verificentro es una variable aleatoria
con función de distribución acumulada
0 si t  0
FT t    1
 t
1  e 20 si t  0
a) Calcule la función de densidad de probabilidad de la variable aleatoria T.
b) Determine el valor de la mediana de la distribución de T.
c) Calcule el percentil 0.10 de la distribución de probabilidad de la variable aleatoria
T. Interprete dicho valor.
d) Determine el valor de p (el percentil ) para 0 <  < 1.
e) ¿Qué tiempo de espera máximo debiera comunicar el verificentro a sus clientes
para asegurar que será correcto en el 95% de los casos?
f) Considere el intervalo [k, p0.95]. ¿Qué valor debe tomar k para afirmar que el
tiempo de espera se ubica en este intervalo con una probabilidad de 90%?
g) Calcule los cuartiles de la distribución de la variable aleatoria T. Ubique estos
valores en la gráfica de la función de densidad de T.

DRR 16
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E81. Se sabe que si X tiene una Distribución Geométrica con parámetro p , 0 < p < 1, su
función de masa de probabilidad está dada por
1  p x 1 p si x  1, 2,
f X x   
0 e.o.c.
a) Calcule el coeficiente de variación de la variable aleatoria X.
b) Si en cierta población la probabilidad de que nazca un niño es 0.4 y una pareja de
esta población decide tener hijos hasta tener un niño, ¿cuántos hijos se espera que
tenga esta pareja? Calcule e interprete el coeficiente de variación en este caso.

E82. Se sabe que si X tiene una Distribución Uniforme Continua sobre el intervalo [1, 2],
1
con 1, 2  R y 1 < 2, entonces f X  x   I  ,  x  . Además, en el ejercicio
 2  1 1 2
1   2  1  k 1   2  1  k 1 
E70 se demostró que  k      .
k  1 2  1   2   2  
a) Calcule el coeficiente de asimetría de X. Interprete.
b) Calcule el coeficiente de curtosis de X. Interprete.

E83. Cálculo de momentos vía f.g.m. Asumiendo condiciones de regularidad, demuestre


que si X es una variable aleatoria con función generadora de momentos MX(t), t  b ,

b > 0, entonces E X   k
  k 
dk
dt k
M X t  para k = 1, 2,...
t 0

E84. Se dice que un experimento es un Experimento Bernoulli si su resultado sólo puede ser
éxito con probabilidad p, 0 < p < 1, o fracaso con probabilidad q = 1 – p,
independientemente de otros experimentos. Si la variable X toma valores 1 o 0
considerando el éxito o fracaso de un Experimento Bernoulli, respectivamente, entonces
se dice que X tiene una Distribución Bernoulli.
a) Construya la función de masa de probabilidad de la variable aleatoria X.
b) Calcule directamente esperanza y varianza de X.
c) Calcule la función generadora de momentos de X.
d) Calcule esperanza y varianza de X utilizando la función generadora de momentos.

DRR 17
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E85. Distribución Normal Estándar. Por sus aplicaciones y sus propiedades, la distribución
más importante en Estadística es la Distribución Normal Estándar. Se dice que Z tiene
una Distribución Normal Estándar si su función de densidad de probabilidad es
z2
1 2
f Z z    z   e I    ,   z  .
2
a) Realice un bosquejo de la gráfica de fZ(z).
t2
b) Demuestre que la función generadora de momentos de Z es M Z t   e , t  R.
2

c) Calcule esperanza y varianza de Z utilizando la función generadora de momentos.


d) Calcule los coeficientes de asimetría y de curtosis de Z.

E86. Considere la variable aleatoria Y que representa el ingreso de las personas en cierta
localidad. Una posible forma de estudiar el comportamiento de Y es suponiendo que
tiene una Distribución Pareto con parámetros  > 0 y  > 0, y con función de densidad

de probabilidad f Y  y   I  ,   y  .
y  1
a) Realice un bosquejo de la gráfica de fY(y).
b) Demuestre que para esta variable aleatoria no existe un valor b tal que MY(t) sea
finita para t  b , b > 0.
c) Calcule esperanza y varianza de esta distribución.

E87. Desigualdad de Markov y Desigualdad de Chebyshev.


a) Demuestre la Desigualdad de Markov, es decir, que si Z es variable aleatoria no
E Z 
negativa (Z  0), entonces para a > 0, PZ  a  
a
b) Utilice la Desigualdad de Markov para demostrar la Desigualdad de Chebyshev, es
decir, que si X es una variable aleatoria con media  y varianza finita  2, entonces
2
P X    k   para toda k > 0.
k2

DRR 18
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E88. En un cine se venden refrescos de 300 mililitros, sin embargo, la máquina que surte el
refresco en ocasiones vierte más o menos refresco del debido. Suponga que X es la
cantidad (en mililitros) de refresco adicional (X > 0) o faltante (X < 0) por vaso, y que su
1  x 2
función de densidad de probabilidad es f X  x   e I  ,  x  . Para esta distribución
2
se puede demostrar que   E X   2 y que  2  Var X   2 .
a) Calcule la probabilidad de que el refresco adicional o faltante se aleje del
contenido promedio en más de 5 mililitros.
b) Utilice la Desigualdad de Chebyshev para acotar la probabilidad del inciso
anterior.
c) Sin hacer el cálculo exacto, ¿qué probabilidad mínima se puede garantizar a los
clientes de que el contenido de refresco por vaso estará entre 290 y 314 mililitros?
d) Sin hacer el cálculo exacto, ¿cuál es la probabilidad mínima de que el contenido de
refresco se aleje menos de dos desviaciones estándar de su contenido promedio?

E89. Desigualdad de Jensen. Demuestre que si g es una función convexa, entonces


E g  X   g E X  , siempre que los valores esperados existan.

E90. Un inversionista enfrenta dos alternativas. Alternativa 1: Invertir su dinero en un


instrumento riesgoso que le proporcionará un rendimiento aleatorio X con media m.
Alternativa 2: Invertir su dinero en instrumentos libres de riesgo que le proporcionan un
rendimiento m con probabilidad 1. Suponga que la decisión del inversionista la realiza
maximizando el valor esperado de su función de utilidad u(). ¿Qué alternativa debe
elegir el inversionista si...
a) ... u() es convexa?
b) ... u() es cóncava?

E91. Un vendedor de autos estima las siguientes probabilidades para el número de autos de un
modelo en particular (X) que venderá la próxima semana:

X 0 1 2 3
P[X = x] 0.2 0.3 0.4 0.1

El vendedor recibe un sueldo semanal de 4 mil pesos más un bono semanal si vende más
de un auto. El monto del bono semanal, B (en miles de pesos) se determina por:
0 si X  1
B  max0, bp X  1  
bp X  1 si X  1
Donde: b = porcentaje de bono semanal.
p = precio de venta del auto (en miles de pesos).

DRR 19
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

Si el precio de venta de este modelo de autos es de $200,000 y el porcentaje de bono


semanal es del 0.5%:
a) Construya la función de masa de probabilidad del ingreso semanal del vendedor.
b) ¿Cuál es el ingreso esperado semanal del vendedor?

E92. Un productor cuenta con un proceso para refinar azúcar que le permite producir hasta
1.5 toneladas de azúcar por día, pero la cantidad realmente producida X es una variable
aleatoria debido a fallas mecánicas y otras contingencias. Suponga que X tiene la
función de densidad:
 x si 0  x  1
 3
f X  x   1 si 1  x 
 2
0 e.o.c.
Se sabe que el productor recibe 300 dólares por tonelada de azúcar refinada pero
enfrenta costos fijos de 100 dólares por día.
a) Exprese la utilidad diaria del productor (en cientos de dólares).
b) Obtenga la función de distribución acumulada y la función de densidad de la
utilidad diaria del productor.

E93. Si Y tiene función de densidad de probabilidad f Y  y   1  y I 1,1  y  :


a) Obtenga fU(u) si U = U(Y) = Y 2.
b) Indique cómo se relacionan E U Y  y U E Y  .

E94. Teorema de la Distribución de la Transformación Monótona (DTM). Suponga que


X es una variable aleatoria continua con función de densidad fX(x). Si g(x) es una función
estrictamente creciente o decreciente y diferenciable en x, demuestre que la función de

densidad de Y = g(X) es f Y  y   f X g 1  y  g  y  si y = g(x) para alguna x.
d 1
dy

E95. Suponga que X es una variable aleatoria continua con función de densidad fX(x) y
1
función de distribución acumulada FX(x). Obtenga fZ(z) si Z  g  X   .
X 1

E96. Suponga que X tiene una Distribución Uniforme sobre el intervalo [0, 1], es decir, su
función de densidad es f X  x   I 0,1  x  . Demuestre que Y    ln  X  ,  > 0, tiene una
Distribución Exponencial con media .

DRR 20
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E97. Estandarización de la Distribución Normal. Se dice que X tiene una Distribución


Normal con parámetros   R y  > 0, si su función de densidad de probabilidad está
1   x   2 
dada por f X  x   exp  I   ,   x  .
2   2 2 

  2t 2 
a) Demuestre que M X  x   expt   para t  R.
 2 
b) Demuestre que E X    y que Var  X    2 .
X 
c) A la transformación Z  se le denomina estandarización de la variable

aleatoria X. Demuestre que Z tiene una Distribución Normal Estándar
considerando su función generadora de momentos (calculada en el ejercicio E85).

E98. Suponga que X ~ Bin(n, p)


a)  
Demuestre que M X t   1  p   pe t , t  R.
n

b) Utilice la función generadora de momentos de la variable aleatoria X para


demostrar que E X   np y que Var  X   np 1  p  .

E99. Suponga que cada acción de la Bolsa Mexicana de Valores (BMV) aumenta su valor
diariamente con probabilidad de 45%, independientemente de las demás. Si se
seleccionan aleatoriamente cinco acciones:
a) ¿Cómo se distribuye el número de acciones que aumentan su valor?
b) ¿Cuál es la probabilidad de que exactamente cuatro de ellas aumenten su valor?
c) ¿Cuál es la probabilidad de que al menos tres acciones aumenten su valor?
d) Suponga que el valor de las acciones siempre cambia, es decir, no puede
permanecer constante. Si de las cinco acciones elegidas se sabe que dos de ellas
disminuyen su valor, ¿cuál es la probabilidad de que el valor de las cinco acciones
disminuya?

E100. La tasa de llegadas de los aviones a un aeropuerto es de 4 aviones por hora y se sabe que
lo hacen de acuerdo con los postulados de la Ley Poisson.
a) Defina la función de masa de probabilidad de la variable aleatoria que permite
modelar la llegada del número de aviones a dicho aeropuerto.
b) Calcule la probabilidad de que en una hora lleguen exactamente 4 aviones.
c) ¿Cuál es la probabilidad de que en una hora lleguen más de 4 aviones?
d) ¿Cuál es la probabilidad de que en un lapso de dos horas lleguen más de 8
aviones?
e) Calcule la moda de la distribución del número de aviones por hora que llegan a
este aeropuerto.

DRR 21
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E101. Demuestre que si X ~ Bin(n, p) , n  , p  0 y np   entonces fX(x)  fY(y), donde


Y ~ Po() con  = np.

E102. Suponga que en una fábrica de palillos el 1% de la producción resulta defectuosa. Los
palillos se venden en cajas de 200 piezas. ¿Cuál es la probabilidad de que al menos el
98% del contenido de una caja no resulte defectuoso?

E103. Suponga que X ~ U(1, 2), 1 < 2.


x  1
a) Demuestre que FX  x   I  ,   x   I  2 ,  x 
 2  1 1 2
b) ¿Cómo es FX(x) si 1 = 0 y 2 = 1?

E104. En cierto club de paracaidismo, cada paracaidista cae en un sitio aleatorio de la línea
recta entre los puntos A y B.
a) ¿Cuál es la probabilidad de que un paracaidista caiga más cerca del punto A que
del punto B?
b) Calcule la probabilidad de que la distancia entre el punto en el que cae un
paracaidista y el punto A sea más de tres veces la distancia con respecto al punto
B.
c) Si tres paracaidistas caen en forma independiente sobre la línea recta que une los
puntos A y B, ¿cuál es la probabilidad de que exactamente uno de los tres caiga
más cerca de A que de B?


E105. La Función Gamma se define por     y  1e  y dy ,  > 0.
0

a) Demuestre que 1  2   1


b) Demuestre que      1  1
c) Si n  Z+ determine el valor de n 

E106. Suponga que X ~ Gamma(, ).


a) Calcule el k-ésimo momento de la variable aleatoria X.
b) Demuestre que E  X    y que Var X    2 .

E107. Suponga que el tiempo (en horas) que dura encendida una batería es una variable
aleatoria exponencial y que la probabilidad de que se funda en menos de 10 horas es de
0.4. Una lámpara utiliza 5 de estas baterías y se colocan en un circuito que permite que
la lámpara permanezca encendida con que al menos 4 de ellas funcionen. ¿Cuál es la
probabilidad de que la lámpara dure encendida más de 45 horas?

E108. Demuestre la propiedad de Pérdida de Memoria de la Distribución Exponencial, es


decir, que PX  t  s X  t   PX  s  para todo s, t  0.

DRR 22
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E109. La tasa de llegadas de los aviones a un aeropuerto es de 4 aviones por hora y se sabe que
lo hacen de acuerdo con los postulados de la Ley Poisson.
a) Defina la función de densidad y la función de distribución acumulada de la
variable aleatoria que permita modelar el tiempo que ocurre entre las llegadas de
los aviones.
b) Calcule el coeficiente de variación para el tiempo entre ocurrencias.
c) ¿Cuál es la probabilidad de que pase más de media hora entre la llegada de dos
aviones?
d) Si se sabe que ha pasado media hora desde que llegó el último avión, ¿cuál es la
probabilidad de que el siguiente avión llegue después de otra media hora?

E110. Para cierto modelo de automóviles, el monto de la pérdida (en miles de pesos) en caso
de choque tiene una Distribución Gamma con media 20 y varianza 40.
a) Si un automóvil de este modelo tiene un choque, ¿cuál es la probabilidad de que la
pérdida sea de más de 10,850 pesos?
b) Calcule la probabilidad de que la pérdida sea menor a 40,000 pesos en caso de
choque.
c) ¿Cuál es la pérdida máxima con 99.9% de probabilidad para este modelo de
automóviles?

E111. Suponga que una compañía fabrica tornillos de una longitud específica, sin embargo,
defectos del equipo de producción hacen que los tornillos sean ligeramente más grandes
o más pequeños. Suponga que esta variación (en milímetros) tiene una distribución
Normal Estándar.
a) ¿Cuál es la probabilidad de que la variación sea positiva?
b) Calcule la probabilidad de que la variación esté dentro del intervalo [–1, 1] ¿Cómo
se interpreta esta probabilidad?
c) ¿Qué valor debe tomar k (k > 0) para asegurar que la variación esté dentro del
intervalo [–k , k] el 95% de las veces?

E112. La estatura de los hombres adultos de la población A tiene una Distribución Normal con
media de 1.75 metros y desviación estándar de 5 centímetros. En la población B la
estatura de los hombres adultos también tiene una Distribución Normal con media de
1.75 metros pero con una desviación estándar de 10 centímetros.
a) Si se elige un hombre adulto de cada población, ¿cuál de ellos es más probable que
supere una altura de 1.90 metros?
b) ¿Qué estatura mínima se puede establecer para describir a los hombres adultos de
la población A y tener una certeza del 95%?

DRR 23
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E113. En cierta localidad la mitad de las personas adultas está a favor de un proyecto
municipal y la otra mitad está en contra. Si se toma una muestra de tamaño 100…
a) ¿Cómo se distribuye el número de personas de la muestra que está a favor del
proyecto? Indique sus supuestos.
b) Aproxime la probabilidad de que 60 o más personas de la muestra estén a favor del
proyecto.

E114. La temperatura al amanecer en cierta ciudad se distribuye normalmente con media y


desviación estándar de 39.2 y 5.6 grados Fahrenheit, respectivamente. Si C denota la
temperatura en grados Centígrados y F la temperatura en grados Fahrenheit, entonces la
5F  32
relación entre ambas escalas está dada por C 
9
a) ¿Cómo se distribuye la temperatura al amanecer de esta ciudad medida en grados
Centígrados?
b) Si la temperatura en cada amanecer es independiente de las demás, ¿cuál es la
probabilidad de que en más de 2 días de los 7 días de una semana elegida al azar,
dicha temperatura esté por debajo de los cero grados Centígrados?

E115. Suponga que X y Y son variables aleatorias discretas con función de masa de
probabilidad conjunta
cxy si x  1,2,3; y  2,4
f X ,Y  x, y   
0 e.o.c.
a) Determine el valor de c que permita asegurar que fX,Y(x,y) sea función de masa de
probabilidad conjunta.
b) Construya las distribuciones marginales de X y Y.
c) Calcule P[X = Y]

E116. Una urna contiene 8 pelotas, la mitad son negras y la otra mitad blancas. Considere el
experimento aleatorio en que se lanza un dado justo con caras numeradas del 1 al 6. Si
el dado cae en un número menor o igual a 4 se extrae una pelota de la urna, pero si el
dado cae en un número mayor a 4 se extraen 2 pelotas sin reemplazo. Suponga que X es
el número total de pelotas extraídas durante el experimento y que Y es el número de
pelotas negras.
a) Calcule la función de masa de probabilidad conjunta de las variables aleatorias X y
Y, así como sus respectivas funciones de masa de probabilidad marginales.
b) ¿Cuántas pelotas negras se espera obtener al final del experimento?
c) ¿Cuál es la probabilidad de que todas las pelotas extraídas durante el experimento
sean negras?
d) Si sabemos que el dado cae en 5, ¿cuál es la probabilidad de obtener al menos una
pelota negra?
e) Si por cada pelota blanca se reciben $50 y por cada negra se pierden $100, ¿cuál es
la probabilidad de obtener una ganancia?

DRR 24
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E117. Suponga que X es el tiempo (en minutos) que tarda en llegar un estudiante de su casa a
la parada del autobús y que Y es el tiempo (en minutos) que tarda en llegar de la parada
del autobús a la escuela. La función de densidad conjunta de X y Y está dada por
k si 10  x  15, 10  y  20
f X ,Y  x, y   
0 e.o.c.
a) Determine el valor de k.
b) ¿Cuál es la probabilidad de que el estudiante tarde menos de 12 minutos en cada
trayecto? Es decir, que de su casa a la parada de autobús tarde menos 12 minutos
y que también de la parada de autobús a la escuela tarde menos de 12 minutos.
c) Suponga que llegando a la parada de autobús el estudiante inicia inmediatamente
el segundo trayecto. ¿Cuál es la probabilidad de que tarde más de 30 minutos en
llegar de su casa a la escuela?
d) Calcule las funciones de densidad marginales de X y Y. ¿Cómo se distribuyen
marginalmente las variables aleatorias X y Y ?

E118. Sean X y Y variables aleatorias con función de densidad de probabilidad conjunta dada
por f X ,Y  x, y   2 xx  y I 0,1  x I  x , x   y  . Obtenga las funciones de densidad de
probabilidad marginales de X y de Y.

E119. En la siguiente tabla se presentan las distribuciones conjuntas y marginales de las


variables aleatorias X y Y, donde X es el número de años de estudio concluidos por el
jefe de familia y Y es el estrato de ingreso del jefe de familia (según veces el salario
mínimo general).

Y
X Total
1 2 3 4 5
0 0.199 0.124 0.122 0.005 0 0.450
3 0.177 0.034 0.009 0.003 0 0.223
6 0.008 0.025 0.040 0.049 0.065 0.187
9 0.002 0.005 0.022 0.041 0.071 0.141
Total 0.386 0.188 0.193 0.098 0.136 1

a) Si se elige a un jefe de familia del estrato de ingreso más alto, ¿cuántos años de
estudio se espera que haya concluido?
b) Calcule Var[X | Y = 5].
c) Calcule y grafique E[Y | X = x] para x = 0, 3, 6, 9. ¿Qué puede concluir?

DRR 25
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E120. Suponga que la función de densidad conjunta de X y Y está dada por


1  x  y2 
 exp  si x  0, y  0
f X ,Y  x, y    y  y 
0 e.o.c.

a) Obtenga la función de densidad condicional de X, dado Y  y.
b) Calcule P[X > 1 | Y = y]
c) Grafique E[X | Y = y] y Var[X | Y = y]

E121. Considere nuevamente las distribuciones conjuntas y marginales de las variables


aleatorias X y Y del ejercicio E119. ¿Son X y Y variables aleatorias independientes?

E122. Suponga que X y Y son variables aleatorias independientes con X ~ Po() y Y ~ Po(2).
a) Calcule la función de masa de probabilidad conjunta de X y Y.
b) Calcule P[X + Y ≤ 1]

E123. Suponga que U, V, X y Y son variables aleatorias tales que:

 1  3u 6 2v 
 si u  0, v  0 y
fU ,V u, v    6 e
 

0 e.o.c.

24 xy si 0  x  1, 0  y  1 y 0  x  y  1
f X ,Y  x, y   
0 e.o.c.
Utilice el Teorema de independencia vía factorización para determinar si…
a) …U y V son variables aleatorias independientes.
b) …X y Y son variables aleatorias independientes.

E124. Suponga que X1, X2,…, Xn es una muestra aleatoria de una Distribución Normal con
media  y varianza  2. Obtenga la función de densidad de probabilidad conjunta de esta
muestra aleatoria.

DRR 26
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E125. Sean Y1 y Y2 las proporciones del tiempo, en un día de trabajo, que los empleados I y II
ocupan respectivamente en hacer sus tareas asignadas. El comportamiento de las
frecuencias relativas conjuntas de Y1 y Y2 se representan por el modelo de la función de
densidad
 y  y 2 si 0  y1  1, 0  y 2  1
f Y1 ,Y2  y1 , y 2    1
0 e.o.c.
 Y  Y2 
a) Calcule e interprete E  1 .
 2 
 Y  Y2  E Y1   E Y2 
b) Calcule E[Y1] y E[Y2] y verifique que E  1  .
 2  2

E126. Una inmobiliaria ha determinado que si X es el número de habitaciones en los


departamentos que maneja y Y el número de lugares de estacionamiento, entonces su
distribución conjunta está dada por:

Y
X Total
0 1 2
1 0.20 0.15 0.00 0.35
2 0.15 0.20 0.05 0.40
3 0.05 0.10 0.10 0.25
Total 0.40 0.45 0.15 1.00

a) Calcule la covarianza entre las variables aleatorias X y Y.


b) ¿Son X y Y variables aleatorias independientes?
c) Calcule el coeficiente de correlación lineal entre las variables aleatorias X y Y.
Interprete su resultado.

E127. Las variables aleatorias X y Y tienen función de densidad conjunta dada por:
2
  x  y e  x si x  0, 0  y  1
f X ,Y  x, y    3
0 e.o.c.
a) Calcule Cov[X, Y].
b) Calcule e interprete X,Y.
c) Construya la matriz de varianza-covarianza y la matriz de correlaciones del vector
aleatorio (X, Y).

E128. Suponga que X y Y son variables aleatorias continuas con función de densidad de
probabilidad conjunta fX,Y (x, y), y que ,   R. Demuestre que la esperanza es un
operador lineal, es decir, que E X   Y   E X    E Y  .

DRR 27
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E129. Sabemos que, por definición, CovX , Y   E  X  E  X Y  E Y  . Demuestre


mediante las propiedades de la esperanza que Cov X , Y   E  XY   E  X E Y  .

E130. Suponga que X y Y son variables aleatorias y que ,   R. Utilice las propiedades de la
esperanza para demostrar que Var X  Y    2Var X    2Var Y   2 Cov X , Y  .

E131. Suponga que X y Y son variables aleatorias continuas con función de densidad de
probabilidad fX,Y(x, y). Si X y Y son independientes y g y h son funciones arbitrarias de
R en R, demuestre que E g  X hY   E g  X E hY  .

E132. Demuestre que si X y Y son variables aleatorias independientes entonces son no


correlacionadas, es decir, Cov X , Y   0 .

E133. Cierta universidad aplica pruebas de aptitudes en ciencias y humanidades a todos los
alumnos de primer ingreso. Si X y Y son las proporciones de respuestas correctas que
obtiene un estudiante en las pruebas de ciencias y humanidades, respectivamente,
2
entonces f X ,Y  x, y   2 x  3 y I 0,1  x I 0,1  y  .
5
4 6
a) Demuestre que E[ X j Y k ]   , j, k = 0, 1, 2,…
5k  1 j  2 5k  2  j  1
b) Calcule e interprete el coeficiente de correlación entre X y Y.
c) Si un alumno se inscribe a una licenciatura en el área de humanidades, su
calificación final en el examen de admisión está dada por C  30 X  70Y .
Calcule esperanza y varianza de la calificación C.

E134. Suponga que Xi y Yj son variables aleatorias y que i , j  R, para i , j = 1 y 2.


Demuestre que Cov 1 X 1   1 ,  2 X 2   2    1 2 CovX 1 , X 2  ¿Qué puede concluir?

E135. La función de densidad conjunta de las variables aleatorias X y Y está dada por
e  x si 0  y  x  
f X ,Y  x, y   
0 e.o.c.
a) Calcule la función generadora de momentos conjuntos de X y Y.
b) A partir de MX,Y(s, t) calcule la covarianza entre X y Y.

E136. Suponga que X y Y son variables aleatorias Poisson independientes con parámetros 1 y
2, respectivamente. Calcule la distribución de X + Y.

DRR 28
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E137. Sean Ui ~ U(0,1), i = 1, 2, variables aleatorias independientes.


a) Si S = U1 + U2, calcule fS(s). Compruebe que E[S] = E[U1] + E[U2]
b) Si T = U1U2, calcule fT(t). Compruebe que, como U1 y U2 son variables aleatorias
independientes entonces, E[T] = E[U1]E[U2].

E138. Demuestre que si X ~ Gamma(s, ) y Y ~ Gamma(t, ) son variables aleatorias


independientes, entontes X + Y ~ Gamma(s + t, ).

E139. Suponga que X1, X2,…, Xn son variables aleatorias independientes.


n
a) Si Xi ~ Exp(), i = 1, 2,…, n, ¿cómo se distribuye S   X i ?
i 1
n
b) Si Xi ~ 2(i), i = 1, 2,…, n, ¿cómo se distribuye S   X i ?
i 1

E140. Considere que X ~ Bin(m, p) y que Y ~ Bin(n, p) son variables aleatorias independientes.
Determine la distribución de X + Y.

E141. 
Suponga que X1, X2,…, Xn son variables aleatorias independientes, que Xi ~ N  i ,  i2 , y 
que i,  R, i = 0 1, 2,…, n.

Demuestre que Y    i X i ~ N  ,  2  donde    ai  i y  2    i2 i2 .


n n n
a)
i 1 i 1 i 1
n
b) Determine la distribución de S   X i .
i 1

E142. Una refinería ubicada en la costa norte del Golfo de México compra petróleo crudo de
México para producir gasolinas. El crudo que compra es una mezcla crudo Maya (60%)
y crudo Olmeca (40%). Suponga que el precio de estos crudos son variables aleatorias
Normales e independientes con medias de 85 y 110 dólares por barril para los crudos
Maya y Olmeca, respectivamente; y que en ambos casos la desviación estándar es de 5
dólares por barril. Si la refinería desea adquirir 200 mil barriles de crudo mexicano y
para ello además requiere pagar un costo de transporte fijo de 2 millones de dólares:
a) Determine la distribución del costo que enfrenta la refinería.
b) ¿Cuál es la probabilidad de que el costo sea superior a 22 millones de dólares?
c) ¿Cuál es el costo mínimo que debe considerar la refinería que debe pagar para
estar 95% seguro de esa cantidad?

E143. Suponga que X1 y X2 son variables aleatorias independientes y que Xi ~ U(0, 1), i = 1, 2.
Sean Y1 = X1 + X2 y Y2 = X1 – X2. Encuentre la función de densidad conjunta de las
variables aleatorias Y1 y Y2.

DRR 29
MATERIAL DE APOYO PARA EL CURSO DE PROBABILIDAD AGOSTO – DICIEMBRE 2011

E144. Considere que X1 ~ Gamma(1, ) y que X2 ~ Gamma(2, ) son variables aleatorias


X
independientes. Suponga que Y1  X 1  X 2 y que Y2  1 .
X2
a) Calcule la función de densidad conjunta de Y1 y Y2.
b) Verifique cómo Y1 ~ Gamma(1 + 2, ).

E145. Suponga que (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   .


a) Demuestre que X1 ~ N 1 ,  12 . Infiera la distribución de X2.
  
b) Demuestre que X1 | X2 = x2 ~ N  1   1  x2   2 , 12 1   2  . ¿Cuál es la
 2 
distribución condicional de X2 dado que X1 = x1?

E146. Si (X1, X2) ~ N 1 ,  2 ,  12 ,  22 ,   , demuestre que si  = 0, entonces X1 y X2 son


variables aleatorias independientes. ¿Se puede generalizar este resultado para cualquier
distribución?

E147. Suponga que Xi denota la tasa de rendimiento anual que otorga el fondo de inversión i,
i = 1, 2. Sabemos que el vector aleatorio (X1, X2) tiene una Distribución Normal
Bivariada con vector de medias  y matriz de varianzas-covarianzas  definidos por:

    0.06   0.01  0.005 


   1     y    
  2   0.08    0.005 0.04 
Un inversionista quiere invertir 200 mil pesos distribuidos entre los fondos 1 y 2.
a) ¿Qué fondo tiene mayor probabilidad de dar al inversionista una tasa de
rendimiento mayor al 10%?
b) Si el fondo 1 otorga una tasa de rendimiento del 7%, ¿cuál es la tasa de
rendimiento esperada del fondo 2?
c) Si el fondo 2 otorga una tasa de rendimiento del 10%, ¿cuál es la probabilidad de
que el fondo 1 tenga una tasa de rendimiento menor al 6%?
d) El inversionista decide invertir 40% de su capital en el fondo 1 y el resto en el
fondo 2. ¿Cuál es la probabilidad de que el capital del inversionista aumente más
de 10% en un año?

 X1    0   2 0  1 
     
E148. Suponga que  X 2  ~ N 3    1,  0 2 1   , Y1  2 X 1  X 2 y Y2  3 X 1  2 X 3 .
X    1   1 1 4  
 3    
a) Encuentre las distribuciones marginales y conjunta de Y1 y Y2.
Si Z   X 1 , X 3  , encuentre la distribución condicional de Z X 2  1.
t
b)

DRR 30

También podría gustarte