Trabajo Final Analisis

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 20

“UNIVERSIDAD NACIONAL AGRARIA LA MOLINA”

FACULTAD DE ECONOMÍA Y PLANIFICACIÓN

DEPARTAMENTO ACADÉMICO DE ESTADÍSTICA INFORMÁTICA

TRABAJO FINAL:
"PROPIEDADES DE LOS ESTIMADORES"

ANÁLISIS ESTADÍSTICO

INTEGRANTES:
Anaya Jayo, Jairo Adair – 20220754
Jesus Mamani, Angelo Miguel - 20220767
Prado Alhuay, Rommel Isac - 20220775

DOCENTE:

Mg. Samuel Huamaní Flores

La molina, junio del 2024


ÍNDICE

1. Insesgabilidad.................................................................................................................................3
1.1. Definición y Ejemplos...............................................................................................................3
1.2. Demostración Matemática.........................................................................................................4
2. Consistencia....................................................................................................................................5
2.1. Definición y Propiedades...........................................................................................................5
2.1.1 Estimadores consistentes..................................................................................................5
2.1.2 Relación entre consistencia y tamaño de la muestra.........................................................5
2.2. Ejemplo Práctico........................................................................................................................6
3. Suficiencia........................................................................................................................................7
3.1. Concepto y Ejemplos.................................................................................................................7
3.2. Teorema de Factorización..........................................................................................................8
4. Eficiencia..........................................................................................................................................9
4.1. Definición y Comparación.........................................................................................................9
4.2. Ejemplo con Varianza Mínima................................................................................................10
5. Preguntas.......................................................................................................................................10
5.1. Insesgabilidad vs. Consistencia...............................................................................................10
5.2. Eficiencia y Suficiencia...........................................................................................................11
5.2.1 Relación entre eficiencia y suficiencia...........................................................................11
5.2.2 ¿Un estimador suficiente siempre es eficiente?..............................................................12
6. Estudio de caso............................................................................................................................13
6.1. Problema de Estimación Real..................................................................................................13
6.2. Análisis Comparativo..............................................................................................................13

2
1. Insesgabilidad

1.1. Definición y Ejemplos


1.1.1. Definición:
- Si el valor esperado del estadístico muestral es igual al parámetro poblacional que se
estima, se dice que el estadístico muestral es un estimador insesgado del parámetro
poblacional - Guía Análisis Estadístico
- La insesgabilidad es una propiedad fundamental en la teoría de la estimación en
estadística. Un estimador es insesgado si, en promedio, coincide con el parámetro que
intenta estimar. Formalmente, un estimador θ^ de un parámetro θ es insesgado si su valor
esperado es igual al parámetro

E(θ^)=θ
1.1.2. Ejemplo:
- Tenemos una población finita que está compuesta por los siguientes valores de una
variable aleatoria: X={4,8,6,10,12}
- Primero calculamos la media poblacional haciendo uso de la fórmula:

donde N: Tamaño de población


.- Calculamos la media poblacional:
μ = (4 + 6 + 8 + 10 + 12)/5 = 8
Por ello decimos que la media poblacional es 8

- Seguidamente se toma todas las muestras posibles de tamaño n=2 de la población ya


mencionada, por ende se hace uso de combinatorias, para una población de tamaño 5 se
tiene: 5C2=10, por ende 10 combinaciones posibles:
- {4,8}
- {4,6}
- {4,10}
- {4,12}
- {8,6}
- {8,10}
- {8,12}
- {6,10}
- {6,12}
- {10,12}
- Seguidamente haremos el cálculo de la media muestral(Xˉ) para cada muestra
- {4,8} → Xˉ=4+8/2=6
- {4,6} → Xˉ=4+6/2=5

3
- {4,10} → Xˉ=4+10/2=7
- {4,12} → Xˉ=4+12/2=8
- {8,6} → Xˉ=8+6/2=7
- {8,10} → Xˉ=8+10/2=9
- {8,12} → Xˉ=8+12/2=10
- {6,10} → Xˉ=6+10/2=8
- {6,12} → Xˉ=6+12/2=9
- {10,12} → Xˉ=10+12/2=11
- Para demostrar que la media muestral es un estimador insesgado, debemos calcular
el valor esperado de la media muestra:
1
𝐸(𝑋)= (6 + 5 + 7 + 8 + 7 + 9 + 10 + 8 + 9)
1

𝐸(𝑋)= 80 = 8
1
- En conclusión, el valor esperado de la media muestral es 8, que es igual a la media
poblacional μ. Por lo tanto, hemos demostrado que la media muestral
𝑋 es un estimador insesgado de la media poblacional μ

1.2. Demostración Matemática


- Media Muestral:
- Demostramos que 𝑋 es un estimador insesgado de μ
𝑛

𝑖=1
𝑋= � 𝑋𝑖
- Calculamos el valor esperado de 𝑋
𝑛

𝑖=1
𝐸(𝑋) = 𝐸( � 𝑋𝑖)
- Debido a la linealidad del operador de la esperanza matemática.
𝑛

𝑖=1
𝐸(𝑋) = �𝐸(𝑋𝑖)
- Si Xi son variables aleatorias independientes e idénticamente distribuidas con
𝐸(𝑋) = μ:
𝑛

𝑖=1 1
𝐸(𝑋) = µ= (𝑛µ) = µ
𝑛 𝑛

- Por lo tanto, 𝑋 es un estimador insesgado de μ

4
2. Consistencia
2.1. Definición y Propiedades:

2.1.1 Estimadores consistentes


Si, a medida que aumenta el tamaño de la muestra, el valor del estimador coincide con
el valor del parámetro, podemos decir que el estimador es consistente.
Tenemos:
θ(𝑋1 ,𝑋2, 𝑋3…,𝑋𝑛)

Es un estimador consistente de θ si se cumple:

θ(𝑋1 ,𝑋2, 𝑋3…,𝑋𝑛)

Es decir, un estimador es consistente cuando al incrementar el tamaño de la muestra


el estimador se aproxima al valor real del parámetro.

Dicho de otra manera, el estimador θ𝑛 es consistente para θ sí converge en


probabilidad a θ. Es decir:

𝑃(|θ𝑛 − θ| < ε) = 1, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 ε > 0.

𝑃(|θ𝑛 − θ| ≥ ε) = 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 ε > 0.

La consistencia es una propiedad deseable y muy importante de los estimadores


cuando se usan muestras grandes. Si son pequeñas no tiene relevancia.

2.1.2 Relación entre consistencia y tamaño de la muestra

2.1.2.1 Consistencia en la probabilidad


Es la relación más concreta. Se podría decir que una muestra, cuanto más
grande sea, las estimaciones serán más precisas y con menos riesgo de error.
Pero a su vez, debemos considerar que este escenario demandará mayor
esfuerzo, inversión y tal vez se reduzca el control en la recogida de datos

5
2.1.2.2 Variabilidad
La variabilidad del estimador tiende a disminuir con tamaños de muestras más
grandes, haciendo que la estimación sea más precisa. El parámetro estadístico
que permite valorar esta variabilidad, debida al error estándar, es el intervalo de
confianza.

2.1.2.3 Ley de los grandes números


Esta ley nos indica que si repetimos muchas veces (tendiendo al infinito) un
mismo experimento (observaciones independientes e idénticamente distribuidas
- i.i.d.), la frecuencia de que suceda un cierto evento tiende a ser una
constante. Esta es una forma de manifestación de la consistencia.

2.2. Ejemplo Práctico

El ejemplo más recurrente de un estimador consistente es la media muestral


𝑋. Hagamos la demostración:

Sea 𝑋1 ,𝑋2, 𝑋3…,𝑋𝑛 una muestra aleatoria de una población 𝑁(𝜇, 𝜎²), se
define la media muestral:
𝑛
1
𝑋= ∑ 𝑋 ,

�𝑖=1
mostremos que este es un estimador consiste para la media 𝜇. Entonces veamos
que 𝑙𝑖𝑚𝑛→∞𝐸(𝑥 − 𝜇)² = 0 en efecto:

𝐸(𝑥 − 𝜇)² = 𝐸(𝑥² − 2𝑥𝜇 + 𝜇²) = 𝐸(𝑥²) − 2𝜇𝐸(𝑥) + 𝜇²


Pero:

𝑉(𝑥) = 𝐸²(𝑥) − 𝐸(𝑥²) ⇒ 𝐸(𝑥 − 𝜇)² = 𝑉(𝑥) + 𝐸²(𝑥) − 2𝜇𝐸(𝑥) + 𝜇²

Luego,

𝐸(𝑥 − 𝜇)² = 𝑉(𝑥) + 𝐸²(𝑥) − 2𝜇𝐸(𝑥) + 𝜇² = 𝜎² 𝜎²


+ 𝜇² − 2𝜇² + 𝜇² = 𝑛
𝑛

Ahora bien
𝜎²
𝐸(𝑥 − 𝜇)² = � = 0

6
Proposición:
Las condiciones suficientes para que θ𝑛 sea consistente son:

- Sea insesgado:
(𝐸 θ 𝑛 = θ)

o asintóticamente insesgado:

( 𝐸 θ 𝑛 = θ)

- Al aumentar n, su varianza tiende a cero:

( 𝑉𝑎𝑟 θ 𝑛 = θ)

Por tanto, podemos decir que La media muestral es estimador consistente de la media
poblacional.

3. Suficiencia
3.1. Concepto y
Ejemplos:
3.1.1.Definición:
Un estimador suficiente encapsula toda la información relevante que una
muestra puede proporcionar sobre un parámetro específico de la población. Es
decir, es la mejor representación de los datos disponibles, incluso sin conocer
los valores individuales de la muestra. Por ejemplo, la media muestral actúa
como un estimador suficiente para la media poblacional. Al disponer de la
media de la muestra, los datos individuales se vuelven redundantes, ya que la
media proporciona la estimación más precisa del parámetro poblacional.

3.1.2.Ejemplo: Estimación de la Media de una Distribución Normal


Supongamos que tenemos una muestra de 5 datos obtenidos de una
distribución normal con media desconocida µ y varianza conocida
σ2 = 4. Los datos son:
𝑋 = {5, 7, 6, 8, 9}
Queremos estimar la media μ

Estadístico Suficiente: Media Muestral


Para una distribución normal con varianza conocida, un estimador suficiente
para la media μ es la media muestral 𝑋.

- Cálculo de la Media Muestral:

7
𝑛
1
𝑋= ∑ 𝑋 �
�𝑖=1
La media muestral es:
𝑋 = 1 (5 + 6 + 7 + 8 + 9) = 7
5

La media muestral 𝑋 = 7 es un estimador suficiente para la media μ


de la población. Esto significa que 𝑋 contiene toda la información
relevante de la muestra acerca del parámetro μ.

3.2. Teorema de
Factorización
3.2.1.Definición:
El teorema de factorización de Neyman-Fisher es un teorema central en la
teoría de la estimación y, en particular, se utiliza para identificar estadísticos
suficientes. Un estadístico suficiente sabe todo lo que se necesita para saber
sobre el parámetro de interés al observar una muestra aleatoria. El teorema
de factorización proporciona una forma sencilla y útil de verificar si un
estadístico es suficiente.

3.2.2.Explicación:
Sea x1,x2,…,xn una muestra aleatoria de una distribución con función de
densidad de probabilidad f(x;θ), donde θ es un parámetro desconocido. Un
estadístico T(x1,x2,…,xn) es suficiente para el parámetro θ si y sólo si la
función de verosimilitud L(θ;x1,x2,…,xn) puede factorizarse en la forma:

L(θ;x1,x2,…,xn) = g(T(x1,x2,…,xn);θ) ⋅ h(x1,x2,…,xn)


donde:
● g(T(x1,x2,…,xn);θ) es una función que depende del estadístico T y del
parámetro θ
● h(x1,x2,…,xn) es una función que depende solo de los datos x1,x2,…,xn
y no del parámetro θ

3.2.3.Ejemplo:
Supongamos que tenemos una muestra x 1,x2,…,xn de una distribución normal
N(μ,σ2) con varianza conocida σ2. Queremos identificar un estadístico
suficiente para μ
● Función de Verosimilitud: La función de verosimilitud es una forma de
combinar las probabilidades de los datos observados para estimar los
parámetros de la distribución que generó esos datos. Se maximiza para
encontrar los estimadores más probables de esos parámetros, lo que se
conoce como estimación por máxima verosimilitud.

8
La función de verosimilitud para una muestra x1,x2,…,xn es:
𝑛 2

L(μ;x ,x ,…,x ) = ∏ 1 𝑒𝑥𝑝(− (𝑥𝑖−µ)


)
1 2 n 2

𝑖=1 2πσ

● Factorización de la función de verosimilitud:


𝑛 1 𝑛 2
L(μ;x ,x ,…,x ) = ( 1

1 2 n ) 𝑒𝑥𝑝(− ∑ (𝑥 − 𝑢) )
2πσ 2 𝑖
2 𝑖=1

Simplificamos el exponente:
𝑛 𝑛 𝑛
1 2 2 2
− ∑ (𝑥 − 𝑢) =
1
(∑ 𝑥 − 2µ ∑ 𝑥 + 𝑛µ )
2
2 − 𝑖
2 𝑖 𝑖 𝑖=1
𝑖=1 2 𝑖=1

Entonces, la función de verosimilitud se convierte en:


𝑛
L(μ;x ,x ,…,x ) = ( 1
𝑛 𝑛
1 2 1 2
∑𝑥 ) ( − 2µ ∑ 𝑥 ))
1 2 n ) 𝑒𝑥𝑝( 2 2
2πσ
− 2σ 𝑖=1 𝑒𝑥𝑝(− 𝑛µ 𝑖=1
𝑖
𝑖 2σ

Simplificando:

L(μ;x1,x2,…,xn) = h(x1,x2,…,xn) ⋅ g(𝑥;µ)


𝑛
donde 𝑥 = 1
∑ 𝑥 es la media muestral
�𝑖=1 𝑖

● Verificación de la factorización:

La función de verosimilitud se ha factorizado en dos partes: una que


depende solo de la muestra h(x1,x2,…,xn) y otra que depende de 𝑥 y µ

Esto muestra que 𝑥 es un estadístico suficiente para μ porque:

L(μ;x1,x2,…,xn) = h(x1,x2,…,xn) ⋅ g(𝑥;µ)

En este ejemplo, 𝑥 es un estimador suficiente para μ en una


distribución normal con varianza conocida. Toda la información
relevante sobre el parámetro μ que está contenida en la muestra se
captura completamente por 𝑥, la media muestral.

9
4. Eficiencia
4.1. Definición y Comparación
¿Qué significa que un estimador sea eficiente? Compara dos
estimadores insesgados y explica cómo determinar cuál es más
eficiente.

- Se dice que un estimador θ1 es más eficiente que otro, θ2, si se verifica que la
varianza del primero es menor o igual que del segundo para cualquier tamaño
muestral, es decir θ1 es más eficiente que θ2 si

- Por último se dice que un estimador posee propiedades asintóticas cuando las
propiedades mencionadas anteriormente se cumplen si el tamaño de muestra tiende al
infinito, así se puede hablar de estimadores asintóticamente insesgados,
asintóticamente eficientes, etc.
- La eficiencia relativa se mide por la relación:
𝑉𝑎𝑟(θ1)
𝑉𝑎𝑟(θ2)
Hay una limitación que afecta a la eficiencia de los estimadores y estas son las
características de la distribución de probabilidad de la muestra de la cual proceden.
De aquí podemos decir que un estimador es eficiente cuando hay una correcta
verificación de que este(estimador), es insesgado y posee varianza mínima.
- Por cierta parte ya tenemos solucionado la condición de que el estimador sea
insesgado y para solucionar el problema de la varianza mínima se hace uso de la Cota
de Cramér-Rao.
- La varianza de un estimador verifica siempre la Cota de Cramér-Rao:
𝑉(θ) ≥ 𝐶𝐶𝑅 , finalmente un estimador será eficiente si 𝑉(θ) = 𝐶𝐶𝑅
La cota resulta
2
(1−𝑏(θ))
𝑉(θ) ≥ 𝐶𝐶𝑅 =
2
ϑ𝑙𝑛𝐿(𝑥,θ)
𝑛𝐸( )
ϑ

- Para un estimador insesgado 𝑏(θ) = 0

10
𝑉(θ) ≥ 𝐶𝐶𝑅 = 1
ϑ𝑙𝑛𝐿(𝑥,θ)
𝑛𝐸( 2
ϑθ
)
- Y en muestras aleatorias simples se cumple el mismo valor ya observado
anteriormente:
2
𝑉(θ) ≥ 𝐶𝐶𝑅 = (1−𝑏(θ))
ϑ𝑙𝑛𝐿(𝑥,θ)
𝑛𝐸( 2
ϑθ
)
- Cabe destacar que la Cota de Cramer-Rao(CCR) no tiene por qué tomar siempre un valor
muy pequeño (cercano a cero)

- 4.2. Ejemplo con Varianza Mínima


Da un ejemplo de un estimador eficiente en términos de varianza mínima y justifica
tu elección.
- Para ahondar en este punto haremos un ejemplo práctico.
EJEMPLO:

- Se desea estimar la media μ de una población normal con varianza conocida


σ ,2 para ello consideraremos dos estimadores de μ:
𝑋1+𝑋2+𝑋3
- u^1= 3
𝑋1+2𝑋2
- u^2= 3
X1,X2,X3 son muestras independientes de la población
- Calculamos la varianza de ambos estimadores:
- Para u^1
Var(u^1)=Var( 𝑋1+𝑋2+𝑋3 )=
1
3 2 2
((𝑉𝑎𝑟(𝑋1) + 𝑉𝑎𝑟(𝑋2) + 𝑉𝑎𝑟(𝑋3)) = 1
9 (3σ ) = σ /3
9
- Para u^2
Var(u^2)=Var( 𝑋1+2𝑋2 )=
1
3 2 2 2
((𝑉𝑎𝑟(𝑋1) + 4𝑉𝑎𝑟(𝑋2)) = 1

9
(σ + 4σ ) = 5σ /9
9
- Finalmente haciendo la comparación de varianzas se puede ver que
Var(u^1)<Var(u^2) por lo tanto es un estimador más eficiente

5. Preguntas
5.1. Insesgabilidad vs. Consistencia
¿Puede un estimador ser insesgado pero no consistente? Justifica tu
respuesta con un ejemplo o contraejemplo.

11
Sí, un estimador puede ser insesgado pero no consistente. Para justificar nuestra
respuesta, haremos un breve repaso puntual de ambas definiciones, vistas
anteriormente:

- Un estimador θ^ de un parámetro θ es insesgado si:


𝐸[θ^] = θ

- Un estimador θ^𝑛 de un parámetro θ es consistente si θ^𝑛 converge en


probabilidad a θ, siempre y cuando el tamaño de muestra 𝑛 tiende a infinito. Es decir:

𝑃(|θ𝑛 − θ| < ε) = 1, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 ε > 0.

𝑃(|θ𝑛 − θ| ≥ ε) = 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 ε > 0.

Según esta definición, deducimos que un estimador insesgado pero no consistente, es


aquel cuya esperanza matemática es igual al parámetro que estima (insesgado), pero
que no converge en probabilidad al valor verdadero del parámetro conforme aumenta
el tamaño de la muestra (no consistente).

Vamos a sostener lo mencionado a través de un ejemplo:

Consideremos un estimador θ^𝑛 para la varianza σ² de una distribución


normal 𝑁(μ, σ²):
𝑛
θ^𝑛 = 1
∑ (𝑋𝑖 − 𝑋𝑛)²
�𝑖=1

Donde:

- 𝑋1, 𝑋2, …, 𝑋𝑛 son observaciones independientes de 𝑁(μ, σ2)


𝑛
1
- 𝑋= ∑ 𝑋 es la media muestral de 𝑛 observaciones
𝑛 𝑖
𝑖=1

θ^𝑛 es insesgado si:

𝑛
𝐸[θ^𝑛] = 𝐸[ ∑ (𝑋𝑖 − 𝑋𝑛)²]
1

�𝑖=1

Usando propiedades de la distribución normal y la independencia 𝑋𝑖 :

12
𝐸[θ^𝑛] = 𝑛−1
σ²

Por lo tanto, θ^𝑛 es un estimador insesgado para σ².

Para verificar la consistencia, evaluemos la varianza de θ^𝑛:

𝑉𝑎𝑟(θ^𝑛) = 2σ4

Según la ley de grandes números, la media muestral 𝑋 converge en


𝑛
probabilidad a μ, pero (𝑋𝑖 − 𝑋𝑛)² no necesariamente converge en
probabilidad a σ² debido a la influencia de la varianza σ² en el término
cuadrático. Esto significa que:

θ^𝑛≠σ²

En consecuencia, θ^𝑛 no es consistente, a pesar de ser insesgado, ya que su valor


esperado no converge a σ² a medida que 𝑛 tiende a infinito.

5.2. Eficiencia y Suficiencia

5.2.1 Relación entre eficiencia y suficiencia.

Partamos con lo explicado en líneas anteriores:

Un estimador es eficiente si tiene una varianza relativamente baja, es decir, si es


cercano al valor verdadero del parámetro y tiene menor dispersión en sus
estimaciones en comparación con otros estimadores. Es decir, tiene una mayor
capacidad para proporcionar estimaciones precisas del parámetro de interés.

Un estimador es suficiente cuando contiene toda la información relevante sobre


el parámetro poblacional que se desea estimar, dado el conjunto completo de datos
observados.

Ahora, si un estimador θ^ es suficiente y además tiene la menor varianza


posible dentro de una clase específica de estimadores, entonces se dice que
es eficiente. Esto se debe a que, al ser suficiente, θ^ utiliza toda la
información relevante contenida en los datos para estimar θ, y si además
tiene la menor varianza, no hay otro estimador dentro de la misma clase que pueda
superarlo en términos de precisión.

13
Por tanto, podemos decir que algunos estimadores suficientes son eficientes, pero …
¿Un estimador suficiente siempre es eficiente?. Vamos a responder a esta pregunta en
el siguiente punto.

5.2.2 ¿Un estimador suficiente siempre es eficiente?

No siempre. Aunque un estimador suficiente captura toda la información contenida en


la muestra sobre el parámetro θ, no garantiza necesariamente que sea el estimador con
la menor varianza. Puede haber otros estimadores que, aunque no son suficientes,
pueden tener varianzas menores en ciertas situaciones.

Veamos un breve ejemplo:

Consideremos una muestra aleatoria simple 𝑋1 , 𝑋2, 𝑋3…, 𝑋𝑛 de una


distribución Exp(λ), donde λ es el parámetro de interés.

Para un estimador suficiente:


𝑛
La suma de las observaciones 𝑇(𝑋) = ∑ 𝑋𝑖 es un estimador suficiente
𝑖=1
para λ. Este estadístico resume toda la información relevante contenida en la muestra
sobre el parámetro λ.

Para un estimador no eficiente:

Consideremos el estimador de la media muestral,

𝑛
1
- λ= ∑ 𝑋
�𝑖=1 �

Este estimador es insesgado para λ, es decir, 𝐸[λ^] = λ, por lo tanto, es


suficiente. Sin embargo, no es eficiente.

Comparación
Comparado con λ^ = 𝑋𝑛 , el estimador de máxima verosimilitud (MLE) tiene
una varianza menor.
La varianza del MLE es:
𝑉𝑎𝑟(λ^𝑀𝐿𝐸) = λ²

Mientras que la varianza de λ^ es:

14
𝑉𝑎𝑟(λ^) = λ²
𝑥 1

𝑛 𝑛
que es más alta.

En conclusión, λ^
es suficiente pero no eficiente. Aunque utiliza toda la
información relevante de la muestra para estimar λ^,existen otros
estimadores (como el MLE) que tienen una varianza más baja y, por lo tanto, son más
eficientes en este contexto.

6. Estudio de caso
6.1. Problema de Estimación Real:
Para abordar el problema de la estimación de la varianza poblacional σ 2 con una
muestra de datos {x1,x2,…,xn} tomada de una población con media μ y varianza σ2,
vamos a analizar las propiedades de los estimadores y considerar cuales son las más
importantes.
● Insesgabilidad:

Un estimador θ es insesgado si su valor esperado es igual al valor del


parámetro que está estimando, es decir, E[θ]=θ.

Para la varianza poblacional σ2, el estimador insesgado más común es


𝑛
2 2
la varianza muestral S , definida como: 𝑆 =
2 1
∑ (𝑋
�− 𝑋)
𝑛 �
𝑖=1
𝑛
donde 𝑋 es la media muestral: 𝑋= 1
∑ 𝑋
𝑖
�𝑖=1

Demostración de Insesgabilidad: Para demostrar que S2 es un estimador


insesgado de σ2, calculamos su valor esperado:
𝑛
2 1 2
𝐸[𝑆 ] = 𝐸[ 𝑛−1
∑ (𝑋 𝑖 − 𝑋) ]
𝑖=1

Sabemos que:

𝑛
2 2
𝐸[ ∑ (𝑋
�−

𝑋) ] = (𝑛 − 1)σ
𝑖=1

Por lo tanto:

𝐸[𝑆 2 1
2 2
] = 𝐸[ (𝑛 − 1)σ ] = σ
𝑛

15
Esto confirma que S2 es un estimador insesgado de σ2, por lo tanto esto
asegura que, en promedio, estamos consiguiendo el valor correcto de la
varianza.

Importancia: La insesgabilidad es relevante porque asegura que, en


promedio, el estimador dará el valor real del parámetro. Esto es esencial en
la estimación de la varianza poblacional ya que garantiza que no estemos
sistemáticamente subestimando o sobrestimando la varianza.

● Consistencia:

Un estimador θn es consistente si, a medida que el tamaño de la


muestra n aumenta, θn converge en probabilidad al verdadero valor del
parámetro θ. Matemáticamente, esto se expresa como:

θ → θ cuando 𝑛 → ∞
𝑛

Para el estimador S2:

𝑆 2→ σ 2cuando 𝑛 → ∞

Demostración de Consistencia: La consistencia de S2 puede demostrarse


y el hecho de que la varianza muestral converge en
distribución a la varianza poblacional. A medida que 𝑛 → ∞, la media
muestral converge en probabilidad a la media poblacional μ

Importancia: En la estimación de la varianza poblacional, esto significa


que el estimador de la varianza se acercará cada vez más a la verdadera
varianza poblacional a medida que se incrementa el tamaño de la muestra.

● Eficiencia:

Un estimador es eficiente si tiene la menor varianza posible entre todos


los estimadores insesgados. La varianza de un estimador

insesgado θ debe ser mínima en comparación con otros estimadores insesgados


de θ.

Importancia: nos proporciona estimaciones con la menor incertidumbre


posible, mejorando la precisión de nuestros resultados.

16
6.2. Análisis Comparativo
Vamos a realizar un análisis comparativo detallado de dos estimadores de la varianza
poblacional σ2:

- Varianza muestral corregida (S2):


𝑛
2 1 2
𝑆 ∑ (𝑋 − 𝑋)
𝑛−1 𝑖
𝑖=1
=
2
- Varianza muestral no corregida (𝑆 ):
𝑛
𝑛 2
2 1
𝑆 𝑛
∑ (𝑋 − 𝑋)
𝑖
=
𝑛

𝑖=1
● Insesgabilidad:
- Varianza muestral corregida (S2):
𝑛
2 1 2
𝑆 ∑ (𝑋 − 𝑋)
𝑛−1 𝑖
𝑖=1
Sabemos que: =

𝑛 𝑛
2 2
∑ (𝑋
� − 𝑋) = ∑ (𝑋 � − µ + µ − 𝑋)
� �
𝑖=1 𝑖=1
Resolvemos el término:

𝑛 𝑛
2 2
∑ (𝑋
� − 𝑋) = ∑ ((𝑋 � − µ) − (𝑋 − µ))
� �
𝑖=1 𝑖=1
𝑛 𝑛
2 𝑛 2
= ∑ (𝑋 − µ) − 2 ∑ (𝑋 − µ)(𝑋 − µ) + ∑ (𝑋 − µ)
𝑖 𝑖
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛
2 2
= ∑ (𝑋 − µ) − 2 ∑ (𝑋 − µ)(𝑋 − µ) + 𝑛(𝑋 − µ)
� �
� �
𝑖=1 𝑖=1

Como 𝐸[𝑋] = µ, tenemos:


𝑛
2 2
𝐸[ ∑ (𝑋 − 𝑋) ] = (𝑛 − 1)σ


𝑖=1

Luego:

𝐸[𝑆 2 1
2 2
] = 𝐸[ (𝑛 − 1)σ ] = σ
𝑛

Por lo tanto, S2 es un estimador insesgado de σ2

17
2
- Varianza muestral no corregida (𝑆 ):
𝑛
2
Para el estimador 𝑆 :
𝑛

18
𝑛
2 1
2
𝑆 𝑛
∑ (𝑋 − 𝑋)
𝑖
=
𝑛

𝑖=1
Su valor esperado es:
2
𝐸[𝑆 ] = 𝑛
1
2
𝑛 𝐸[ ∑ (𝑋 − 𝑋)
𝑛 𝑖=1
𝑖 ]
2 𝑛−1 2
= 1
(𝑛 − 1)σ = σ
𝑛
2 �
Por lo tanto, 𝑆 es un estimador sesgado de σ ,2 subestimando
𝑛
sistemáticamente la varianza.

● Consistencia:
- Varianza muestral corregida (S2):

Para el estimador S2:

𝑆 2→ σ 2cuando 𝑛 → ∞

Como S2 es insesgado y su varianza tiende a cero cuando 𝑛 aumenta, S2 es un


estimador consistente. Formalmente, si demostramos que:

𝑉𝑎𝑟(𝑆 )2 → 0 cuando 𝑛 → ∞

entonces:
2 2
𝑆 →σ
2
- Varianza muestral no corregida (𝑆 ):
𝑛

2
Para 𝑆 aunque es sesgado, su sesgo disminuye a medida que 𝑛
𝑛
aumenta. Es decir:

Sesgo( 2 2 2

𝑆 )2 𝑛−1
σ − σ =−
σ
𝑛 = 𝑛 𝑛

Y:

𝑉𝑎𝑟(𝑆 2
) → 0 cuando 𝑛 → ∞
𝑛

2 2
Por lo tanto, 𝑆 también es un estimador consistente de σ
𝑛

19
● Suficiencia:

2 2
Ambos estimadores, 𝑆 y 𝑆 , están basados en 𝑛
𝑛
∑ (𝑋 − 𝑋) ,2que es


𝑖=1
2
un estadístico suficiente para σ en una distribución normal.

● Eficiencia:
- Varianza muestral corregida (S2):
Un estimador eficiente tiene la menor varianza posible entre todos los
estimadores insesgados. La varianza de S2 es:
2 4

𝑉𝑎𝑟(𝑆 ) =
𝑛−1
2
- Varianza muestral no corregida (𝑆 ):
𝑛
2
Para 𝑆 , su varianza es:
𝑛
4
𝑉𝑎𝑟(𝑆 2) = 2σ
𝑛 𝑛
2 2
Aunque 𝑆 tiene una varianza ligeramente menor que 𝑆 , sigue siendo
𝑛
2
sesgado. En comparación, 𝑆 es el estimador insesgado de mínima varianza (es
decir, es eficiente).

En base a la comparación de la varianza entre ambos estimadores, se puede concluir


2
que la varianza muestral corregida (𝑆 ) es preferida debido a su insesgabilidad,
consistencia y eficiencia entre los estimadores insesgados.
2
Aunque la varianza muestral no corregida (𝑆 ) puede tener una varianza
𝑛
ligeramente menor, su sesgo hace que sea menos adecuado para la estimación precisa
de la varianza poblacional.

20

También podría gustarte