Resumen de Variables Aleatorias
Resumen de Variables Aleatorias
Resumen de Variables Aleatorias
15 de agosto de 2014
Resumen
El presente compilado de distribuciones utilizadas con frecuencia en la materia fue realizado por un alumno
con la mejor de las intenciones, pero sin garantía de que todo lo aquí expuesto sea verídico. Ante cualquier duda
Índice
1. Distribuciones discretas 1
1.1. Distribución Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Distribución binomial: cant de éxitos en n ensayos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Distribución geométrica: intentos hasta el primer éxito . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4. Distribución Pascal: intentos hastak -ésimo éxito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5. Distribución multinomial: cantidad de éxitos no dicotómicos . . . . . . . . . . . . . . . . . . . . . . 3
1.6. Distribución de Poisson: cant de éxitos en un continuo t . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.7. Distribución hiper-geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2. Distribuciones continuas 4
2.1. Distribución uniforme U . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2. Distribución exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3. Distribución normal N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4. Distribución gamma Γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5. Distribución beta β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1. Distribuciones discretas
Denición X sigue distribución Bernoulli con parámetro p ∈ [0, 1] y notamos X ∼ Bernoulli(p) si X ∈ {0, 1} con
(
P(X = 1) = p
P(X = 0) = 1 − p
¾Qué mide? Si X ∼ Bernoulli(p), entonces P(X = x) mide la probabilidad de éxito o fracaso de una experi-
encia dicotómica. La variable X cuenta si en un solo experimento hay éxito o fracaso. Cada experiencia es
independiente de la anterior o la siguiente. La probabilidad de éxito p se mantiene constante.
Ejemplo: Arrojo una moneda y quiero saber si sale cara. Deno una variable Cara ∼ Bernoulli(1/2) y entonces
P(Cara) me dice la probabilidad de que, tirando una vez la moneda, salga cara.
1
Propiedades
1. E(X) = p
2. V(X) = p(1 − p)
3. X = X n, n ∈ N
Pn
4. Si X1 , . . . , Xn son variables Bernoulli i.i.d. entonces i=1 Xi ∼ Binomial(n, p)
¾Qué mide? Si X ∼ Binomial(n, p), entonces P(X = x) mide la probabilidad de obtener x éxitos repitiendo n
veces una experiencia Bernoulli de parámetro p. La variable X cuenta la cantidad de éxitos obtenidos en n
experiencias Bernoulli.
Ejemplo: Tiro n veces una moneda y me interesa solo cuando sale cara. Deno X ∼ Binomial(n, 1/2) y entonces
P(X = x) me dice cuál es la probabilidad de que, tirando n veces la moneda, x veces salga cara.
Propiedades
1. E(X) = np
2. V(X) = np(1 − p)
Pn
3. Si X1 , . . . , Xn son variables Bernoulli i.i.d. entonces Xi ∼ Binomial(n, p)
i=1
Pk P
k
4. Si X1 , . . . , Xk son v.a. i.i.d. tales que Xi ∼ Binomial(ni , p) entonces i=1 Xi ∼ Binomial i=1 ni , p
5. Por teorema central del límite : Cuando n≫1 se puede aproximar a una binomial con una normal.
¾Qué mide? Si X ∼ Geometrica(p), entonces P(X = x) mide la probabilidad de tener que realizar x experiencias
Bernoulli de parámetro p hasta obtener el primer éxito. La variable X mide la cantidad de experimentos
realizados hasta el primer éxito.
Ejemplo: Tengo una moneda y quiero saber cuántas veces la tengo que tirar hasta que salga cara. Deno X ∼
Geo(1/2) y entonces P(X = x) me dice cuál es la probabilidad de tener que tirar x veces la moneda hasta que
salga cara (la primera vez).
Propiedades
1
1. E(X) = p
1−p
2. V(X) = p2
3. Es la única discreta con perdida de memoria: P(X > x + k)|X > x) = P(X > k) con x, k ∈ N
E(X|X ≥ t) = t + E(X)
4. P(X = x + k|X > x) = P(X = k) = (1 − p)k−1 p
5. Sea T una v.a. con soporte N. Si tiene perdida de memoria entonces T ∼ geo(p) con p = P(T = 1)
2
1.4. Distribución Pascal: intentos hastak -ésimo éxito
¾Qué mide? Si X ∼ Pascal(k, p), entonces P(X = x) mide la probabilidad tener que realizar x ensayos Bernoulli
de parámetro p hasta obtener k éxitos. La variable X mide la cantidad de experimentos realizados hasta el
k 0 esimo éxito.
Ejemplo: Quiero saber cuantas veces tengo que tirar una moneda hasta obtener k caras. Deno X ∼ Pasc(k, 1/2)
y entonces P(X = x) me dice cuál es la probabilidad de tener que tirar x veces la moneda hasta obtener k
caras.
Propiedades
k
1. E(X) = p
k(1−p)
2. V(X) = p2
Pk
3. Si N1 , . . . , Nj son v.a. i.i.d tales que Ni ∼ Geo(p) entonces i=1 Ni ∼ Pa(k, p)
4. Relación BINOMIAL-PASCAL: Sean P ∼ Pa(k, p) y B ∼ Bi(n, p), entonces P(P ≤ n) = P(B ≥ k)
¾Qué mide?
X~ ∼ Multinomial(n, p~), entonces P X
Si ~ = (x1 , x2 , . . . , xk ) mide la probabilidad de que, en una
muestra de n elementos, x1 elementos sean de una clase, x2 sean de otra clase, y así hasta que xk sean de
~ cuenta la cantidad de éxitos presentes en una muestra n donde los éxitos no son
otra clase. La variable X
dicotómicos si no que pueden ser de varias clases. Cada clase es un Xi y cada clase sí es un experimento
dicotómico.
Ejemplo: Tiro n veces un dado y me interesan los casos en que salen 1 o 6. Son dos experiencias dicotómicas
separadas e independientes donde D1 ∼ Bernoulli(1/6) y D6 ∼ Bernoulli(1/6). Podemos denir dos variables
binomiales que cuenten la cantidad de éxitos obtenidos en las n tiradas de dados para cada experiencia:
X1 ∼ Bin(n, 1/6) y X6 ∼ Bin(n, 1/6). Entonces armamos el vector X ~ = (X1 , X6 ) que sigue una distribución
~ ~
X ∼ Multinomial(n, /6, /6) tal que P(X = (x1 , x6 )) nos dice la probabilidad de que, en n tiradas de dados,
1 1
Ejemplo: Una ruta tiene, en promedio, n baches por kilómetro. Quiero saber cuántos baches voy a tener que
arreglar, sabiendo que la ruta tiene 20km. Deno X ∼ Pois(λ = n baches
km × 20km) y entonces P(X = x) me
dice cuál es la probabilidad de encontrar x baches en 20km de ruta.
3
Propiedades
1. E(X) = λ
2. V(X) = λ
3. Sean X1 ∼ Pois(λ1 ) y X2 ∼ Pois(λ2 ) independientes, entonces X1 + X2 ∼ Pois(λ1 + λ2 )
4. Aproximación de una binomial. Sea Bn ∼ Bi(n, pn ) tal que n × pn −→ λ
n→∞
y sea X ∼ Poi(λ), entonces
λx −λ
P(Bn = x) −→ P(X = x) = e
n→∞ x!
Pr Pr
5. Sean X1 , . . . , Xr v.a. independientes tales que Xi ∼ Poi(λi ) y sea S = i=1 Xi (S ∼ Poi(λS = i=1 λi ) por
la propiedad de la suma), entonces
λ1 λr
(X1 , . . . , Xr )|S=n ∼ Multinomial n, p~ = ,...,
λS λS
6. Adelgazamiento. Sean N ∼ Poi(λN ) y M una v.a. tal que (M |N = n) ∼ Bi(n, p), entonces
M ∼ Poi(λM = λN p)
Denición X tiene una distribución hiper-geométrica con parámetros A, B, n ∈ N tales que n ≤ A+B si su
función de probabilidades es
A B
x n−x
P(X = x) = con x ∈ N0
A+B
n
Ejemplo Hay una caja conB papeles, donde hay A papeles rojos y B papeles verdes. Me interesan solo los papeles
rojos. Deno X ∼ H-Geo(A, B, n) y entonces P(X = x) me dice cuál es la probabilidad de obtener x papeles
rojos tomando una muestra de n papeles de la caja (al azar).
Propiedades
nA
1. E(X) = A+B
nAB A+B−n
2. V(X) = (A+B)2 · A+B−1
2. Distribuciones continuas
4
Propiedades
a+b
E(X) = 2
(b−a)2
V(X) = 12
Denición X sigue una distribución exponencial con intensidad λ > 0 y se nota X ∼ exp(λ) si su función de
densidad es (
λe−λx si x ≥ 0
fx (x) =
0 e.o.c.
y su distribución es
(
1 − e−λx
con x ≥ 0
FX (x) =
0 e.o.c.
Propiedades
1
1. E(X) = λ
1
2. V(X) = λ2
E(X|X ≥ t) = t + E(X)
λ1
4. Sean X1 ∼ exp(λ1 ) y X2 ∼ exp(λ2 ), entonces P(X1 ≤ X2 ) = λ! +λ2
−(x − µ)2
1
fx (x) = ϕ(x) = √ exp ,x∈R
σ 2π 2σ 2
Propiedades
1. E(X) = µ
2. V(X) = σ 2
3. Si Y = aX + b con a 6= 0 entonces Y ∼ N (aµ + b, a2 σ 2 )
4. Sean X1 , X2 , . . . Xn v.a. tales que Xi ∼ N (µi , σi2 ) y son todas independientes y a1 , a2 , . . . , an ∈ R. Entonces
n n n
!
X X X
Combinación lineal → ai Xi ∼ N ai µi , a2i σi2
i=1 i=1 i=1
y
n
1X 2
Promedio → Xn = Xi ∼ N µ, σ /n
n i=1
5
Normal estándar
Se dene la distribución normal estándar como aquella normal Z tal que
−z 2
1
Z ∼ N(0, 1) → ϕZ (z) = √ exp
2π 2
Si tenemos X ∼ N (µ, σ 2 ) y queremos calcular sus probabilidades, la tenemos que convertir en una normal estándar
(pa buscar en la tabla) con la fórmula
X −µ
Z=
σ
entonces
FX (x) = P(X ≤ x) = FZ ((X−µ)/σ) = ΦZ ((X−µ)/σ)
Propiedades
ν
1. E(X) = λ
ν
2. V(X) = λ2
n n
!
X X
Xi ∼ Γ αi , β
i=1 i=1
U
X= ∼ β(α, β)
U +V
Y = U + V ∼ Γ(α + β, 1)
5. Γ( n2 , 12 ) = χ2n
6. Relación gamma-poisson: Sea G ∼ Γ(λ, k) y sea Xg ∼ Poi(λg) entonces
6
Propiedades
1. Si α>1 entonces Γ(α) = (α − 1)Γ(α − 1)
(
Γ(ν1 +ν2 ) ν1 −1
Γ(ν1 )Γ(ν2 ) x (1 − x)ν2 −1 si x ∈ (0, 1)
fx (x) =
0 e.o.c.
Propiedades
ν1
1. E(X) = ν1 +ν2
ν1 (ν1 +1)
2. E(X 2 ) = (ν1 +ν2 )(ν1 +ν2 +1)
ν1 ν2
3. V(X) = (ν1 +ν2 )2 (ν1 +ν2 +1)