Parte 1
Parte 1
Parte 1
NIETO BARAJAS
CURSO:
EMAIL: [email protected]
URL: http://allman.rhon.itam.mx/~lnieto
TEMARIO:
Parte 0. Introducción
Parte 1. Probabilidad y Estadística descriptiva
1.1 Análisis exploratorio de datos
1.2 Conceptos básicos de probabilidad
1.3 Variables aletorias y distribuciones de probabilidad
1.4 Algunas distribuciones específicas de probabilidad
Parte 2. Estadística inferencial
2.1 Distribuciones muestrales
2.2 Estimación puntual
2.3 Estimación por intervalos
2.4 Pruebas de hipótesis
Parte 3. Técnicas de muestreo
3.1 Introducción al muestreo
3.2 Muestreo aleatorio simple (MAS)
3.3 Muestreo aleatorio estratificado (MAE)
3.4 Muestreo aleatorio por conglomerados (MAC)
3.5 Otras técnicas de muestreo
REFERENCIAS:
Aguirre, V., et al. (2003). Fundamentos de probabilidad y estadística. Jit
Press: México.
Bart, J., Fligner, M. A. & Notz, W.I. (1998). Sampling and statistical
methods for behavioral ecologists. Cambridge University Press:
Cambridge.
Scheaffer, R. L., Mendenhall, W. & Ott, L. (1987). Elementos de muestreo.
Grupo editorial Iberoamérica: México.
Parte 0. Introducción
DIAGRAMA de la Estadística:
Estadística inferencial
Población
Inferencia Muestreo
Estadística descriptiva
Muestra
¿Qué es INFERENCIA?
Es el proceso de tratar de conocer cualquier característica poblacional a
través de una muestra. Para poder entender propiamente lo qué es
inferencia es necesario definir lo siguiente,
Tipos de variables
Numéricas Categóricas
Azar ⇒ Representatividad
Misma probabilidad de selección de cada individuo ⇒ Independencia
Descripción gráfica
------------------------------------------------------------------------
Relative Cumulative Cum. Rel.
Class Value Frequency Frequency Frequency Frequency
------------------------------------------------------------------------
1 0 26 0.2600 26 0.2600
2 1 48 0.4800 74 0.7400
3 2 19 0.1900 93 0.9300
4 3 6 0.0600 99 0.9900
5 5 1 0.0100 100 1.0000
------------------------------------------------------------------------
Piechart for Y
1.00%
6.00%
Y
0
26.00%
19.00% 1
2
3
5
48.00%
Barchart for Y
0 10 20 30 40 50
frequency
9 Curso: Métodos estadísticos básicos y técnicas de muestreo
PROFESOR: LUIS E. NIETO BARAJAS
1 -2|5
2 -2|2
6 -1|9755
21 -1|443333332222100
39 -0|999888877766666555
(16) -0|4444433322222111
45 0|0001112333444
32 0|55556667777888899
15 1|0123444
8 1|56666789
--------------------------------------------------------------------------------
Lower Upper Relative Cumulative Cum. Rel.
Class Limit Limit Midpoint Frequency Frequency Frequency Frequency
--------------------------------------------------------------------------------
at or below -2.8 0 0.0000 0 0.0000
1 -2.8 -2.175 -2.4875 2 0.0200 2 0.0200
2 -2.175 -1.55 -1.8625 3 0.0300 5 0.0500
3 -1.55 -0.925 -1.2375 19 0.1900 24 0.2400
4 -0.925 -0.3 -0.6125 23 0.2300 47 0.4700
5 -0.3 0.325 0.0125 15 0.1500 62 0.6200
6 0.325 0.95 0.6375 21 0.2100 83 0.8300
7 0.95 1.575 1.2625 10 0.1000 93 0.9300
8 1.575 2.2 1.8875 7 0.0700 100 1.0000
above 2.2 0 0.0000 100 1.0000
--------------------------------------------------------------------------------
Mean = -0.104884 Standard deviation = 1.03239
Histogram
24
20
frequency
16
12
8
4
0
-2.9 -1.9 -0.9 0.1 1.1 2.1 3.1
X
Histograma
20 120.00%
18
16 100.00%
14
Frecuencia
80.00%
12
10 60.00%
8
6 40.00%
4 20.00%
2
0 .00%
...
2
0. 321
.6 38
.7 74
-0 92
0. 772
1. 754
1. 736
m 18
-2 31
-1 15
or
1
47
9
5
01
49
97
45
ay
.2
.5
15
61
06
51
.1
.1
-2
-1
-0
y
Clase
Medidas descriptivas
1 n 1 n
2
S = ∑ (X i − X ) =
2
∑ X i − nX 2 = varianza muestral
n − 1 i=1 n − 1 i=1
A la raíz cuadrada de la varianza se le conoce como desviación
estándar, i.e.,
S
cv = = coeficiente de variación muestral
X
Este coeficiente es muy útil para comparar la variabilidad entre dos
conjuntos de datos, debido a que no depende de las unidades de
medición.
Box-and-Whisker Plot
0 4 8 12 16 20
Z
Probabilidad
Estadística Estadística
descriptiva inferencial
P(A ) =
EJEMPLO 2. (Continuación...)
N = 2 resultados posibles
⇒ P(A) = 1/2 y P(B) = 1/2
EJEMPLO 3. (Continuación...)
N = 6 resultados posibles
⇒ P(A) = 3/6 = 1/2
P(B) = 4/6 = 2/3
EJEMPLO 4. (Continuación...)
52
N = = 2 598 960
5
⇒ P(un par) = 0.4225
P(dos pares) = 0.0950
P(tercia) = 0.0211
P(corrida) = 0.0039
P(color) = 0.0019
P(full) = 0.0014
P(pocker) = 0.00024
P(flor) = 0.000015
PROBABILIDAD:
( )
1. P A c = 1 − P(A ) , donde A c es el evento complemento de A.
2. P(∅) = 0. La probabilidad del evento imposible es cero.
3. P(A ∪ B) = P(A ) + P(B) − P(A ∩ B) .
4. Si B⊂A, entonces P(B) ≤ P(A ) .
EJEMPLO 6. (Continuación...)
Si ya sabemos que el biólogo capturó un pez de color naranja, ¿cuál es la
probabilidad de que el pez sea un pez ángel?
EJEMPLO 6. (Continuación...)
¿Cuál es la probabilidad de capturar un pez ángel de color naranja?
P(A∩B) = (0.30)(0.33) = 0.10
EJEMPLO 6. (Continuación...)
¿Será independiente el evento deque el pez capturado sea un pez ángel y el
evento de que sea de color naranja?
Como P(A|B) = 0.10/0.30 = 0.33 ≠ P(A) = 0.20 entonces A y B no son
independientes.
( )
k
P(A ) = ∑ P A B j P(B j )
j =1
Este resultado nos sirve para calcular de una manera fácil la probabilidad
de un evento cuando el espacio muestral Ω se puede obtener como la unión
de eventos mutuamente excluyentes (disjuntos).
j =1
V. Aleatoria
Experimento Números
aleatorio reales
EJEMPLO 7. (Continuación...)
Y = total de soles observados
Z = número de soles en el segundo lanzamiento de la moneda
EJEMPLO 8.
Algunos ejemplos de v.a. discretas son:
X = número de alumnos, en un grupo de 30, que obtienen calificación
superior a 8.5 en un examen. Los posibles valores de X serían
0,1,2,...,30.
Y = número de peces sin escamas que habitan en un lago. Los posibles
valores de Y son 0,1,2,....
v.a. discreta
0.5
0.4
Densidad
0.3
0.2
0.1
0
0 1 2 3 4
X
EJEMPLO 7. (Continuación...)
fX(0) = P(X=0) = P({SSS}) = 1/8 = 0.125
fX(1) = P(X=1) = P({SSA}∪{SAS}∪{ASS})=0.125+0.125+0.125 = 0.375
fX(2) = P(X=2) = P({AAS}∪{ASA}∪{SAA})=0.125+0.125+0.125= 0.375
fX(3) = P(X=3) = P({AAA}) = 0.125
v.a. discreta
1
F. de distribución
0.8
0.6
0.4
0.2
0
0 1 2 3 4
X
v.a. continua
0.16
F. de densidad
0.12
0.08
0.04
0
0 4 8 12 16 20 24
X
A continuación se presenta una ilustración de una función de densidad.
Esta función tiene las mismas propiedades que una función de distribución
de una v.a. discreta.
v.a. continua
1
F. de distribución
0.8
0.6
0.4
0.2
0
0 4 8 12 16 20 24
X
= ∫ xf X ( x )dx , si X en continua
= ∫ ( x − µ) 2 f X ( x )dx , si X es continua
Propiedades: − 1 ≤ ρ XY ≤ 1 .
1,5
0.2
0.1
0
0 1 2 3 4 5
x
Aplicaciones:
X = asigna el valor de 1 si al lanzar una moneda honesta sale “sol”.
Y = El número del boleto ganador en una rifa de 100 números.
Propiedades: Si X∼U{1,2,...,N},
N( N + 1) N2 − 1
µX = y σ 2X =
2 12
Bernoulli Distribution
1 Event prob.
0.1
0.8 0.3
probability
0.5
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1
x
Aplicaciones: Un ensayo Bernoulli es aquel experimento en el que sólo hay
2 posibles resultados.
X = asigna el valor de 1 si al lanzar una moneda honesta sale “sol”.
Y = asigna el valor de 1 si me saco el melate y 0 si no.
Propiedades: Si X∼Ber(p),
µX = p y σ 2X = p(1 − p )
x
Binomial Distribution
0.4 p,n
0.1,10
0.3,10
0.3
probability
0.5,10
0.2
0.1
0
0 2 4 6 8 10
x
Aplicaciones:
X = número de éxitos en n ensayos Bernoulli.
Propiedades: Si X∼Bi(n,p),
µ X = np y σ 2X = np(1 − p )
Poisson Distribution
0.18 Mean
5
0.15 10
probability
0.12 30
0.09
0.06
0.03
0
0 10 20 30 40 50 60
x
Propiedades: Si X∼Po(λ),
µX = λ y σ 2X = λ
Uniform Distribution
0.5 L.lim, U.lim
0,2
0.4 -1.0,2
0,4
density
0.3
0.2
0.1
0
-1 0 1 2 3 4
x
Aplicaciones:
X = tiempo en ser atendido por un servidor en la oficina de SAT.
Y = tiempo en llegar desde mi casa al INE.
Propiedades: Si X∼U[a,b],
µX =
a+b
y σ 2X =
(b − a)
2
2 12
Normal Distribution
0.8 Mean,Std. de
0,1
-1.0,0.5
0.6
1,1.5
density
0.4
0.2
0
-7 -3 1 5 9
x
Aplicaciones:
X = cantidad de calor en una barra metálica al ser calentada por el centro.
Y = demanda mensual por un determinado producto.
Propiedades: Si X∼N(µ,σ2),
µX = µ y σ 2X = σ 2
Exponential Distribution
2 Mean
0.5
1.6 1
1.5
density
1.2
0.8
0.4
0
0 2 4 6 8 10
x
Propiedades: Si X∼ Exp(θ),
µX = θ y σ 2X = θ 2