Resumen de Variables Aleatorias

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 7

Notas de Senger: distribuciones famosas

15 de agosto de 2014

Resumen
El presente compilado de distribuciones utilizadas con frecuencia en la materia fue realizado por un alumno

con la mejor de las intenciones, pero sin garantía de que todo lo aquí expuesto sea verídico. Ante cualquier duda

consulte a su docente de cabecera.

Índice

1. Distribuciones discretas 1
1.1. Distribución Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Distribución binomial: cant de éxitos en n ensayos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Distribución geométrica: intentos hasta el primer éxito . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4. Distribución Pascal: intentos hastak -ésimo éxito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5. Distribución multinomial: cantidad de éxitos no dicotómicos . . . . . . . . . . . . . . . . . . . . . . 3
1.6. Distribución de Poisson: cant de éxitos en un continuo t . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.7. Distribución hiper-geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2. Distribuciones continuas 4
2.1. Distribución uniforme U . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2. Distribución exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3. Distribución normal N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4. Distribución gamma Γ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.5. Distribución beta β . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1. Distribuciones discretas

1.1. Distribución Bernoulli

Denición X sigue distribución Bernoulli con parámetro p ∈ [0, 1] y notamos X ∼ Bernoulli(p) si X ∈ {0, 1} con

(
P(X = 1) = p
P(X = 0) = 1 − p

lo que puede expresarse como


(
px (1 − p)1−x si x = 0, 1
P(X = x) =
0 e.o.c.

¾Qué mide? Si X ∼ Bernoulli(p), entonces P(X = x) mide la probabilidad de éxito o fracaso de una experi-
encia dicotómica. La variable X cuenta si en un solo experimento hay éxito o fracaso. Cada experiencia es
independiente de la anterior o la siguiente. La probabilidad de éxito p se mantiene constante.

Ejemplo: Arrojo una moneda y quiero saber si sale cara. Deno una variable Cara ∼ Bernoulli(1/2) y entonces
P(Cara) me dice la probabilidad de que, tirando una vez la moneda, salga cara.

1
Propiedades
1. E(X) = p
2. V(X) = p(1 − p)
3. X = X n, n ∈ N
Pn
4. Si X1 , . . . , Xn son variables Bernoulli i.i.d. entonces i=1 Xi ∼ Binomial(n, p)

1.2. Distribución binomial: cant de éxitos en n ensayos

Denición X sigue una distribución binomial con parámetros n∈N y p ∈ [0, 1] si


 !
n
px (1 − p)n−x

 con x ∈ N0 ≤ n
P(X = x) = x

0 e.o.c.

¾Qué mide? Si X ∼ Binomial(n, p), entonces P(X = x) mide la probabilidad de obtener x éxitos repitiendo n
veces una experiencia Bernoulli de parámetro p. La variable X cuenta la cantidad de éxitos obtenidos en n
experiencias Bernoulli.

Ejemplo: Tiro n veces una moneda y me interesa solo cuando sale cara. Deno X ∼ Binomial(n, 1/2) y entonces
P(X = x) me dice cuál es la probabilidad de que, tirando n veces la moneda, x veces salga cara.

Propiedades
1. E(X) = np
2. V(X) = np(1 − p)
Pn
3. Si X1 , . . . , Xn son variables Bernoulli i.i.d. entonces Xi ∼ Binomial(n, p)
i=1
Pk P 
k
4. Si X1 , . . . , Xk son v.a. i.i.d. tales que Xi ∼ Binomial(ni , p) entonces i=1 Xi ∼ Binomial i=1 ni , p

5. Por teorema central del límite : Cuando n≫1 se puede aproximar a una binomial con una normal.

1.3. Distribución geométrica: intentos hasta el primer éxito

Denición X sigue distribución geométrica de parámetro p si su función de probabilidad es


(
(1 − p)x−1 p con x ∈ N
P(X = x) =
0 e.o.c.

¾Qué mide? Si X ∼ Geometrica(p), entonces P(X = x) mide la probabilidad de tener que realizar x experiencias
Bernoulli de parámetro p hasta obtener el primer éxito. La variable X mide la cantidad de experimentos
realizados hasta el primer éxito.

Ejemplo: Tengo una moneda y quiero saber cuántas veces la tengo que tirar hasta que salga cara. Deno X ∼
Geo(1/2) y entonces P(X = x) me dice cuál es la probabilidad de tener que tirar x veces la moneda hasta que
salga cara (la primera vez).

Propiedades
1
1. E(X) = p
1−p
2. V(X) = p2

3. Es la única discreta con perdida de memoria: P(X > x + k)|X > x) = P(X > k) con x, k ∈ N
E(X|X ≥ t) = t + E(X)
4. P(X = x + k|X > x) = P(X = k) = (1 − p)k−1 p
5. Sea T una v.a. con soporte N. Si tiene perdida de memoria entonces T ∼ geo(p) con p = P(T = 1)

2
1.4. Distribución Pascal: intentos hastak -ésimo éxito

Denición X sigue distribución Pascal de parametros k y p si


 
x−1
P(X = x) = pk (1 − p)x−k con x∈N≥k
k−1

¾Qué mide? Si X ∼ Pascal(k, p), entonces P(X = x) mide la probabilidad tener que realizar x ensayos Bernoulli
de parámetro p hasta obtener k éxitos. La variable X mide la cantidad de experimentos realizados hasta el
k 0 esimo éxito.

Ejemplo: Quiero saber cuantas veces tengo que tirar una moneda hasta obtener k caras. Deno X ∼ Pasc(k, 1/2)
y entonces P(X = x) me dice cuál es la probabilidad de tener que tirar x veces la moneda hasta obtener k
caras.

Propiedades
k
1. E(X) = p

k(1−p)
2. V(X) = p2
Pk
3. Si N1 , . . . , Nj son v.a. i.i.d tales que Ni ∼ Geo(p) entonces i=1 Ni ∼ Pa(k, p)
4. Relación BINOMIAL-PASCAL: Sean P ∼ Pa(k, p) y B ∼ Bi(n, p), entonces P(P ≤ n) = P(B ≥ k)

1.5. Distribución multinomial: cantidad de éxitos no dicotómicos

Denición Sea ~ = (X1 , . . . , Xk )


X un vector aleatorio discreto con componentes Xi i.i.d. Se dice que sigue dis-
tribución multinomial de parametros n∈N y p~ = (p1 , . . . , pk ) si
( x x x
p1 1 p2 2 ···pkk
~ = ~x) = x1 !x2 !···xk ! n! con n = x1 + . . . + xk
P(X
0 e.o.c.

¾Qué mide?
 
X~ ∼ Multinomial(n, p~), entonces P X
Si ~ = (x1 , x2 , . . . , xk ) mide la probabilidad de que, en una
muestra de n elementos, x1 elementos sean de una clase, x2 sean de otra clase, y así hasta que xk sean de
~ cuenta la cantidad de éxitos presentes en una muestra n donde los éxitos no son
otra clase. La variable X
dicotómicos si no que pueden ser de varias clases. Cada clase es un Xi y cada clase sí es un experimento
dicotómico.

Ejemplo: Tiro n veces un dado y me interesan los casos en que salen 1 o 6. Son dos experiencias dicotómicas
separadas e independientes donde D1 ∼ Bernoulli(1/6) y D6 ∼ Bernoulli(1/6). Podemos denir dos variables
binomiales que cuenten la cantidad de éxitos obtenidos en las n tiradas de dados para cada experiencia:
X1 ∼ Bin(n, 1/6) y X6 ∼ Bin(n, 1/6). Entonces armamos el vector X ~ = (X1 , X6 ) que sigue una distribución
~ ~
X ∼ Multinomial(n, /6, /6) tal que P(X = (x1 , x6 )) nos dice la probabilidad de que, en n tiradas de dados,
1 1

x1 sean unos y x2 sean seises.

1.6. Distribución de Poisson: cant de éxitos en un continuo t


Denición X sigue una distribución de Poisson con parámetro λ > 0 (λ = f × t donde f es la frecuencia de sucesos
y t es el intervalo del continuo) si
λx −λ
P(X = x) = e con x ∈ N0
x!
¾Qué mide? Si X ∼ Poisson(λ = f t), entonces P(X = x) mide la probabilidad de que ocurran x éxitos (dicotómi-
cos) durante un intervalo continuo t (tiempo, distancia, etc) donde se espera que los éxitos aparezcan con una
# éxitos
frecuencia de f = . La variable X mide la cantidad de éxitos obtenidos durante un continuo.
t

Ejemplo: Una ruta tiene, en promedio, n baches por kilómetro. Quiero saber cuántos baches voy a tener que
arreglar, sabiendo que la ruta tiene 20km. Deno X ∼ Pois(λ = n baches
km × 20km) y entonces P(X = x) me
dice cuál es la probabilidad de encontrar x baches en 20km de ruta.

3
Propiedades
1. E(X) = λ
2. V(X) = λ
3. Sean X1 ∼ Pois(λ1 ) y X2 ∼ Pois(λ2 ) independientes, entonces X1 + X2 ∼ Pois(λ1 + λ2 )
4. Aproximación de una binomial. Sea Bn ∼ Bi(n, pn ) tal que n × pn −→ λ
n→∞
y sea X ∼ Poi(λ), entonces

λx −λ
P(Bn = x) −→ P(X = x) = e
n→∞ x!
Pr Pr
5. Sean X1 , . . . , Xr v.a. independientes tales que Xi ∼ Poi(λi ) y sea S = i=1 Xi (S ∼ Poi(λS = i=1 λi ) por
la propiedad de la suma), entonces
  
λ1 λr
(X1 , . . . , Xr )|S=n ∼ Multinomial n, p~ = ,...,
λS λS

6. Adelgazamiento. Sean N ∼ Poi(λN ) y M una v.a. tal que (M |N = n) ∼ Bi(n, p), entonces

M ∼ Poi(λM = λN p)

N − M ∼ Poi (λN −M = λN (1 − p))

1.7. Distribución hiper-geométrica

Denición X tiene una distribución hiper-geométrica con parámetros A, B, n ∈ N tales que n ≤ A+B si su
función de probabilidades es
  
A B
x n−x
P(X = x) =   con x ∈ N0
A+B
n

con máx {0, n − B} ≤ x ≤ mı́n {n, A}


¾Qué mide? X ∼ H-Geo(A, B, n), entonces P(X = x) mide la probabilidad de obtener x éxitos tomando una
Si
muestra de n elementos a partir de una población de B + A elementos de los cuales se sabe que una cantidad
A son éxitos. La variable X mide la cantidad de éxitos que se obtienen en una muestra de tamaño n obtenidas
de una población nita de B + A elementos donde A son casos favorables.

Ejemplo Hay una caja conB papeles, donde hay A papeles rojos y B papeles verdes. Me interesan solo los papeles
rojos. Deno X ∼ H-Geo(A, B, n) y entonces P(X = x) me dice cuál es la probabilidad de obtener x papeles
rojos tomando una muestra de n papeles de la caja (al azar).

Propiedades
nA
1. E(X) = A+B

nAB A+B−n
2. V(X) = (A+B)2 · A+B−1

2. Distribuciones continuas

2.1. Distribución uniforme U


Denición X sigue una distribución uniforme en el intervalo [a, b] y se nota X ∼ U(a, b) si su densidad es:
(
1
b−a si x ∈ [a, b]
fX (x) =
0 e.o.c.

4
Propiedades
a+b
E(X) = 2
(b−a)2
V(X) = 12

2.2. Distribución exponencial

Denición X sigue una distribución exponencial con intensidad λ > 0 y se nota X ∼ exp(λ) si su función de
densidad es (
λe−λx si x ≥ 0
fx (x) =
0 e.o.c.
y su distribución es
(
1 − e−λx

con x ≥ 0
FX (x) =
0 e.o.c.

Propiedades
1
1. E(X) = λ
1
2. V(X) = λ2

3. Es la única continua con falta de memoria: P(X ≥ t + h|X ≥ t) = P(X ≥ h)

E(X|X ≥ t) = t + E(X)
λ1
4. Sean X1 ∼ exp(λ1 ) y X2 ∼ exp(λ2 ), entonces P(X1 ≤ X2 ) = λ! +λ2

5. Si X1 , . . . , Xn son v.a. independientes tales que Xi ∼ exp(λi ) entonces:

a ) M = mı́n {X1 , . . . , Xn } ∼ exp(λ1 + ... + λn )


λj
b) si J = subíndice de la X min entonces P(J = j) = λ1 +...+λn
c) M y J son independientes

Sumatoria. Si además Xi ∼ exp(λ) entonces


Pn
d) i=1 Xi ∼ Γ(n, λ)

2.3. Distribución normal N


Denición X tiene distribución normal y se nota X ∼ N (µ, σ 2 ) si su función de densidad es

−(x − µ)2
 
1
fx (x) = ϕ(x) = √ exp ,x∈R
σ 2π 2σ 2

Propiedades
1. E(X) = µ
2. V(X) = σ 2
3. Si Y = aX + b con a 6= 0 entonces Y ∼ N (aµ + b, a2 σ 2 )

4. Sean X1 , X2 , . . . Xn v.a. tales que Xi ∼ N (µi , σi2 ) y son todas independientes y a1 , a2 , . . . , an ∈ R. Entonces

n n n
!
X X X
Combinación lineal → ai Xi ∼ N ai µi , a2i σi2
i=1 i=1 i=1

y
n
1X 2

Promedio → Xn = Xi ∼ N µ, σ /n
n i=1

5
Normal estándar
Se dene la distribución normal estándar como aquella normal Z tal que

−z 2
 
1
Z ∼ N(0, 1) → ϕZ (z) = √ exp
2π 2

Como la función e−x


2
no admite primitiva
1 entonces la función de distribución de esta variable no se obtiene
integrando a ϕ si no por aproximación con métodos numéricos. Para ello existen tablas donde se tabula el valor de
ˆ z
FZ (z) = Φz (z) = ϕZ (t)dt
−∞

Si tenemos X ∼ N (µ, σ 2 ) y queremos calcular sus probabilidades, la tenemos que convertir en una normal estándar
(pa buscar en la tabla) con la fórmula
X −µ
Z=
σ
entonces
FX (x) = P(X ≤ x) = FZ ((X−µ)/σ) = ΦZ ((X−µ)/σ)

2.4. Distribución gamma Γ


Denición X sigue una distribución gamma de parámetros ν>0 y λ>0 y se nota X ∼ Γ(ν, λ) si su función de
distribución es
λν
(
ν−1 −λx
Γ(ν) x e con x > 0
fx (x) =
0 con x ≤ 0
El símbolo Γ(α) es la función gamma que se explica mas adelante.

Nota: La distribución exponencial es un caso especial de la gamma: X ∼ exp(λ) = gamma(1, λ).

Propiedades
ν
1. E(X) = λ
ν
2. V(X) = λ2

3. Sean X1 , . . . , Xn v.a. independientes tales que Xi ∼ Γ(αi , β). Entonces

n n
!
X X
Xi ∼ Γ αi , β
i=1 i=1

4. Si U ∼ Γ(α, 1) y V ∼ Γ(β, 1) con U y V independientes, entonces

U
X= ∼ β(α, β)
U +V
Y = U + V ∼ Γ(α + β, 1)

5. Γ( n2 , 12 ) = χ2n
6. Relación gamma-poisson: Sea G ∼ Γ(λ, k) y sea Xg ∼ Poi(λg) entonces

P(G > g) = P(Xg < k)

Función gamma Γ(α)


Se dene como ˆ ∞
Γ(α) = xα−1 e−x dx, α > 0
0
1 No se puede expresar con un número nito de funciones elementales (xn , sin x, etc).

6
Propiedades
1. Si α>1 entonces Γ(α) = (α − 1)Γ(α − 1)

2. Si n ∈ N0 entonces Γ(n) = (n − 1)! o lo que es lo mismo: Γ(n + 1) = n!

2.5. Distribución beta β


Denición X sigue una distribución beta de parámetros ν1 > 0 y ν2 > 0 y se nota X ∼ β(ν1 , ν2 ) si su densidad es

(
Γ(ν1 +ν2 ) ν1 −1
Γ(ν1 )Γ(ν2 ) x (1 − x)ν2 −1 si x ∈ (0, 1)
fx (x) =
0 e.o.c.

Propiedades
ν1
1. E(X) = ν1 +ν2

ν1 (ν1 +1)
2. E(X 2 ) = (ν1 +ν2 )(ν1 +ν2 +1)

ν1 ν2
3. V(X) = (ν1 +ν2 )2 (ν1 +ν2 +1)

También podría gustarte