Mu Iea 03
Mu Iea 03
Mu Iea 03
Septiembre de 2011
1 Objetivos
2 Estimador de Horvitz-Thompson
Ejemplo. Estimación de y U . Diseño MAS(N ,
n) Ejemplo. Estimación de y U . Diseño MB(N ,
p) Reducción de Varianza
Método de Sampford
5 Bibliografía
Estimador de Horvitz-Thompson.
Diseños Muestrales ΠPS.
Estimador de Háyek.
Muestreo con Reemplazamiento. Estimador de Hansen-Hurwitz.
Muestreos PPS.
Ponderaciones o Pesos.
1
ωi =
πi
Estimador de Horvitz-Thompson o π-estimador.
Xyi X
tb = = ωy
yπ
i ∈m
πi i ∈m
i
Estimador Insesgado.
hX i h i X X
yi yi y y
E [bty π ] = E =E = E [Ii i = π i i = ty
X π i
Ii π ]
i
π i π i
i ∈m i ∈U i ∈U i ∈U
Fórmulas Generales
Varianza.
y y
V [bty π ] =X ∆iij j
π
π
ij ∈U
i j
Estimador de Horvitz-Thompson.
1 X
b y
y Uπ = i
π
i ∈m i
N
Varianza.
X
V [ybU π ] = 12 y y
∆ij i j
N π
ij ∈U πi j
Vb [ybU π ] = 1 X ∆ij yi yj
N2 πij πi πj
ij ∈m
Varianza.
X yi yj 1 X f (1 − f ) 2
V [ybU π ] = 1 ∆ij = 2 y
π
πi j N i ∈U n2 /N 2 i
ij ∈U
N2
1 X f (1 − f ) 1−f
yi y =
− 2 = ···
N N (N − 1)n2 /N 2 n
yU
i =j ∈U
Estimación de la Varianza.
1 X ∆ij yi 1−f 2
yj
Vb [ybU π ] = = ··· Sym
πij πi πj n
ij ∈m
N2
Varianza.
1 X yi yj 1 X p (1 − p ) 1−p X 2
V [yb Uπ] = ∆ij = 2 yi = y
πj N 2 i ∈U p2 p N 2 i ∈U i
ij ∈U πi
N2
Estimación de la Varianza.
1 X ∆ij yi 1 X p(1 − p ) 1−p X
yj 2
2
Vb [ybU π ] = = yi = yi
πij πi πj N 2 i ∈m p2 p p2 N 2
i ∈m
ij ∈m
N2
Si πi = αyi , ∀i ∈ U
yi yj
2
− = 0, ∀i , j ∈ U ⇒ V [bty π ] = 0 ⇒ NO HAY ERROR
πi πj
πi ∝ Xi , ∀i ∈ U
P
Al ser πi = n, se cumple,
U
nXi
πi = , ∀i ∈ U
tx
πi = nαi
Aproximación de orden N −4 calculada por Asok y Sukhatme,
X
2 2
πij ≈ n(n − 1)αi αj 1 + [(αi + αj ) − kα ] + [2(α
i +j α2 )
k
X X X
−2 αk3 − (n − 2)αi αj + (n − 3)(αi + αj ) k α2 − (n − 3)( k α2 )2 ]
k ∈U k ∈U k
Método de Sunter.
Método de Madow. Tipo Sistemático. Auditorías.
Método de Brewer. Implementado en SPSS y SAS.
Método de Hanurav-Vijayan. Implementado en SPSS y SAS.
Método de Midzuno.
Y un largo etcétera.
Expresando, X
N= 1
i ∈U
es decir, el total de la variable UNO sobre la población, podemos
estimarlo también mediante el estimador de Horvitz-Thompson,
X1
Nb =
π π
i ∈m i
ybU HJ = X = iX
∈m
= =y
1/p n(m) m
i ∈m
1/πi
i ∈m
INSTITUTO DE ESTADÍSTICA DE ANDALUCÍA. Curso de Muestreo. Septiembre 2011
Estimadores de Horvitz-Thompson, Hájek y Hansen-Hurwitz CB 16/26
Muestreo con Reemplazamiento
Varianza.
h i
1X 2 1 X 2
V z)
y=
i n
pi =
2n
p p (z
i ∈U pi i j ∈U
pi ∝ yi , i = 1, . . . , N
LA VARIANZA ES NULA.
Casuística similar a la del estimador de Horvitz-Thompson. Se
consigue una reducción de la varianza eligiendo las pi
proporcionales a una variable X relacionada con la Y . Método
PPS [Probabilidades de Selección proporcionales al Tamaño].
Varianza Estimada.
Vb [ybU HH ] 1= 2 S 1 2S
zm = ym
n n
Similar a la que se obtiene en el caso de muestreo aleatorio
simple sin reemplazamiento, salvo el factor (1 − f ). Esta
cantidad suele denominarse factor de corrección por
población finita.
INSTITUTO DE ESTADÍSTICA DE ANDALUCÍA. Curso de Muestreo. Septiembre 2011
Estimadores de Horvitz-Thompson, Hájek y Hansen-Hurwitz CB 21/26
Eficiencia en Relación al MAS(N , n)
El error difiere del obtenido para el muestreo aleatorio simple sin
reemplazamiento básicamente por el factor 1 − f .
1−f 2 1 2
VMAS = SyU y VMASR = σ
n n yU
se tiene,
1−f 2 N −n 2
VMAS SyU SyU N −n
= n = N = <1 si n > 1
VMASR 1 σ2 N−1 2 N−1
yU SyU
n N
El reemplazamiento hace disminuir la eficiencia pues aumenta la
varianza de la estimación. Este aumento de la varianza es menos
acentuado conforme la población es mayor y no suele ser muy
grande en condiciones normales. Por ejemplo, si N = 1.000.000 y
n = 400, se tiene,
N −n 999.600
= = 00 999600999 próximo a 1
N−1 999.999
INSTITUTO DE ESTADÍSTICA DE ANDALUCÍA. Curso de Muestreo. Septiembre 2011
Estimadores de Horvitz-Thompson, Hájek y Hansen-Hurwitz CB 22/26
Utilidad del Muestreo con Reemplazamiento
OBSERVACIONES
Esta metodología NO AUMENTA LA VARIANZA DE LA
ESTIMACIÓN, que es la que es, sino que proporciona una
sobrestimación de dicha varianza, siendo ello preferible a no dar
ninguna estimación y por lo tanto no poder calcular el error de
muestreo.
No tiene sentido aplicarla si el muestreo es tal que las πij se
tienen o son fáciles de calcular, pues en tal caso se emplea la
expresión propia sin mayor problema. Por ejemplo, para el
muestreo aleatorio simple sabemos que,
n(n − 1)
π ij =
N (N − 1)