Trabajo Final Analisis
Trabajo Final Analisis
Trabajo Final Analisis
TRABAJO FINAL:
"PROPIEDADES DE LOS ESTIMADORES"
ANÁLISIS ESTADÍSTICO
INTEGRANTES:
Anaya Jayo, Jairo Adair – 20220754
Jesus Mamani, Angelo Miguel - 20220767
Prado Alhuay, Rommel Isac - 20220775
DOCENTE:
1. Insesgabilidad.................................................................................................................................3
1.1. Definición y Ejemplos...............................................................................................................3
1.2. Demostración Matemática.........................................................................................................4
2. Consistencia....................................................................................................................................5
2.1. Definición y Propiedades...........................................................................................................5
2.1.1 Estimadores consistentes..................................................................................................5
2.1.2 Relación entre consistencia y tamaño de la muestra.........................................................5
2.2. Ejemplo Práctico........................................................................................................................6
3. Suficiencia........................................................................................................................................7
3.1. Concepto y Ejemplos.................................................................................................................7
3.2. Teorema de Factorización..........................................................................................................8
4. Eficiencia..........................................................................................................................................9
4.1. Definición y Comparación.........................................................................................................9
4.2. Ejemplo con Varianza Mínima................................................................................................10
5. Preguntas.......................................................................................................................................10
5.1. Insesgabilidad vs. Consistencia...............................................................................................10
5.2. Eficiencia y Suficiencia...........................................................................................................11
5.2.1 Relación entre eficiencia y suficiencia...........................................................................11
5.2.2 ¿Un estimador suficiente siempre es eficiente?..............................................................12
6. Estudio de caso............................................................................................................................13
6.1. Problema de Estimación Real..................................................................................................13
6.2. Análisis Comparativo..............................................................................................................13
2
1. Insesgabilidad
E(θ^)=θ
1.1.2. Ejemplo:
- Tenemos una población finita que está compuesta por los siguientes valores de una
variable aleatoria: X={4,8,6,10,12}
- Primero calculamos la media poblacional haciendo uso de la fórmula:
3
- {4,10} → Xˉ=4+10/2=7
- {4,12} → Xˉ=4+12/2=8
- {8,6} → Xˉ=8+6/2=7
- {8,10} → Xˉ=8+10/2=9
- {8,12} → Xˉ=8+12/2=10
- {6,10} → Xˉ=6+10/2=8
- {6,12} → Xˉ=6+12/2=9
- {10,12} → Xˉ=10+12/2=11
- Para demostrar que la media muestral es un estimador insesgado, debemos calcular
el valor esperado de la media muestra:
1
𝐸(𝑋)= (6 + 5 + 7 + 8 + 7 + 9 + 10 + 8 + 9)
1
𝐸(𝑋)= 80 = 8
1
- En conclusión, el valor esperado de la media muestral es 8, que es igual a la media
poblacional μ. Por lo tanto, hemos demostrado que la media muestral
𝑋 es un estimador insesgado de la media poblacional μ
4
2. Consistencia
2.1. Definición y Propiedades:
5
2.1.2.2 Variabilidad
La variabilidad del estimador tiende a disminuir con tamaños de muestras más
grandes, haciendo que la estimación sea más precisa. El parámetro estadístico
que permite valorar esta variabilidad, debida al error estándar, es el intervalo de
confianza.
Sea 𝑋1 ,𝑋2, 𝑋3…,𝑋𝑛 una muestra aleatoria de una población 𝑁(𝜇, 𝜎²), se
define la media muestral:
𝑛
1
𝑋= ∑ 𝑋 ,
�
�𝑖=1
mostremos que este es un estimador consiste para la media 𝜇. Entonces veamos
que 𝑙𝑖𝑚𝑛→∞𝐸(𝑥 − 𝜇)² = 0 en efecto:
Luego,
Ahora bien
𝜎²
𝐸(𝑥 − 𝜇)² = � = 0
6
Proposición:
Las condiciones suficientes para que θ𝑛 sea consistente son:
- Sea insesgado:
(𝐸 θ 𝑛 = θ)
o asintóticamente insesgado:
( 𝐸 θ 𝑛 = θ)
( 𝑉𝑎𝑟 θ 𝑛 = θ)
Por tanto, podemos decir que La media muestral es estimador consistente de la media
poblacional.
3. Suficiencia
3.1. Concepto y
Ejemplos:
3.1.1.Definición:
Un estimador suficiente encapsula toda la información relevante que una
muestra puede proporcionar sobre un parámetro específico de la población. Es
decir, es la mejor representación de los datos disponibles, incluso sin conocer
los valores individuales de la muestra. Por ejemplo, la media muestral actúa
como un estimador suficiente para la media poblacional. Al disponer de la
media de la muestra, los datos individuales se vuelven redundantes, ya que la
media proporciona la estimación más precisa del parámetro poblacional.
7
𝑛
1
𝑋= ∑ 𝑋 �
�𝑖=1
La media muestral es:
𝑋 = 1 (5 + 6 + 7 + 8 + 9) = 7
5
3.2. Teorema de
Factorización
3.2.1.Definición:
El teorema de factorización de Neyman-Fisher es un teorema central en la
teoría de la estimación y, en particular, se utiliza para identificar estadísticos
suficientes. Un estadístico suficiente sabe todo lo que se necesita para saber
sobre el parámetro de interés al observar una muestra aleatoria. El teorema
de factorización proporciona una forma sencilla y útil de verificar si un
estadístico es suficiente.
3.2.2.Explicación:
Sea x1,x2,…,xn una muestra aleatoria de una distribución con función de
densidad de probabilidad f(x;θ), donde θ es un parámetro desconocido. Un
estadístico T(x1,x2,…,xn) es suficiente para el parámetro θ si y sólo si la
función de verosimilitud L(θ;x1,x2,…,xn) puede factorizarse en la forma:
3.2.3.Ejemplo:
Supongamos que tenemos una muestra x 1,x2,…,xn de una distribución normal
N(μ,σ2) con varianza conocida σ2. Queremos identificar un estadístico
suficiente para μ
● Función de Verosimilitud: La función de verosimilitud es una forma de
combinar las probabilidades de los datos observados para estimar los
parámetros de la distribución que generó esos datos. Se maximiza para
encontrar los estimadores más probables de esos parámetros, lo que se
conoce como estimación por máxima verosimilitud.
8
La función de verosimilitud para una muestra x1,x2,…,xn es:
𝑛 2
1 2 n ) 𝑒𝑥𝑝(− ∑ (𝑥 − 𝑢) )
2πσ 2 𝑖
2 𝑖=1
Simplificamos el exponente:
𝑛 𝑛 𝑛
1 2 2 2
− ∑ (𝑥 − 𝑢) =
1
(∑ 𝑥 − 2µ ∑ 𝑥 + 𝑛µ )
2
2 − 𝑖
2 𝑖 𝑖 𝑖=1
𝑖=1 2 𝑖=1
Simplificando:
● Verificación de la factorización:
9
4. Eficiencia
4.1. Definición y Comparación
¿Qué significa que un estimador sea eficiente? Compara dos
estimadores insesgados y explica cómo determinar cuál es más
eficiente.
- Se dice que un estimador θ1 es más eficiente que otro, θ2, si se verifica que la
varianza del primero es menor o igual que del segundo para cualquier tamaño
muestral, es decir θ1 es más eficiente que θ2 si
- Por último se dice que un estimador posee propiedades asintóticas cuando las
propiedades mencionadas anteriormente se cumplen si el tamaño de muestra tiende al
infinito, así se puede hablar de estimadores asintóticamente insesgados,
asintóticamente eficientes, etc.
- La eficiencia relativa se mide por la relación:
𝑉𝑎𝑟(θ1)
𝑉𝑎𝑟(θ2)
Hay una limitación que afecta a la eficiencia de los estimadores y estas son las
características de la distribución de probabilidad de la muestra de la cual proceden.
De aquí podemos decir que un estimador es eficiente cuando hay una correcta
verificación de que este(estimador), es insesgado y posee varianza mínima.
- Por cierta parte ya tenemos solucionado la condición de que el estimador sea
insesgado y para solucionar el problema de la varianza mínima se hace uso de la Cota
de Cramér-Rao.
- La varianza de un estimador verifica siempre la Cota de Cramér-Rao:
𝑉(θ) ≥ 𝐶𝐶𝑅 , finalmente un estimador será eficiente si 𝑉(θ) = 𝐶𝐶𝑅
La cota resulta
2
(1−𝑏(θ))
𝑉(θ) ≥ 𝐶𝐶𝑅 =
2
ϑ𝑙𝑛𝐿(𝑥,θ)
𝑛𝐸( )
ϑ
10
𝑉(θ) ≥ 𝐶𝐶𝑅 = 1
ϑ𝑙𝑛𝐿(𝑥,θ)
𝑛𝐸( 2
ϑθ
)
- Y en muestras aleatorias simples se cumple el mismo valor ya observado
anteriormente:
2
𝑉(θ) ≥ 𝐶𝐶𝑅 = (1−𝑏(θ))
ϑ𝑙𝑛𝐿(𝑥,θ)
𝑛𝐸( 2
ϑθ
)
- Cabe destacar que la Cota de Cramer-Rao(CCR) no tiene por qué tomar siempre un valor
muy pequeño (cercano a cero)
9
(σ + 4σ ) = 5σ /9
9
- Finalmente haciendo la comparación de varianzas se puede ver que
Var(u^1)<Var(u^2) por lo tanto es un estimador más eficiente
5. Preguntas
5.1. Insesgabilidad vs. Consistencia
¿Puede un estimador ser insesgado pero no consistente? Justifica tu
respuesta con un ejemplo o contraejemplo.
11
Sí, un estimador puede ser insesgado pero no consistente. Para justificar nuestra
respuesta, haremos un breve repaso puntual de ambas definiciones, vistas
anteriormente:
Donde:
𝑛
𝐸[θ^𝑛] = 𝐸[ ∑ (𝑋𝑖 − 𝑋𝑛)²]
1
�𝑖=1
12
𝐸[θ^𝑛] = 𝑛−1
σ²
�
𝑉𝑎𝑟(θ^𝑛) = 2σ4
θ^𝑛≠σ²
13
Por tanto, podemos decir que algunos estimadores suficientes son eficientes, pero …
¿Un estimador suficiente siempre es eficiente?. Vamos a responder a esta pregunta en
el siguiente punto.
𝑛
1
- λ= ∑ 𝑋
�𝑖=1 �
Comparación
Comparado con λ^ = 𝑋𝑛 , el estimador de máxima verosimilitud (MLE) tiene
una varianza menor.
La varianza del MLE es:
𝑉𝑎𝑟(λ^𝑀𝐿𝐸) = λ²
14
𝑉𝑎𝑟(λ^) = λ²
𝑥 1
𝑛 𝑛
que es más alta.
En conclusión, λ^
es suficiente pero no eficiente. Aunque utiliza toda la
información relevante de la muestra para estimar λ^,existen otros
estimadores (como el MLE) que tienen una varianza más baja y, por lo tanto, son más
eficientes en este contexto.
6. Estudio de caso
6.1. Problema de Estimación Real:
Para abordar el problema de la estimación de la varianza poblacional σ 2 con una
muestra de datos {x1,x2,…,xn} tomada de una población con media μ y varianza σ2,
vamos a analizar las propiedades de los estimadores y considerar cuales son las más
importantes.
● Insesgabilidad:
Sabemos que:
𝑛
2 2
𝐸[ ∑ (𝑋
�−
�
𝑋) ] = (𝑛 − 1)σ
𝑖=1
Por lo tanto:
𝐸[𝑆 2 1
2 2
] = 𝐸[ (𝑛 − 1)σ ] = σ
𝑛
15
Esto confirma que S2 es un estimador insesgado de σ2, por lo tanto esto
asegura que, en promedio, estamos consiguiendo el valor correcto de la
varianza.
● Consistencia:
θ → θ cuando 𝑛 → ∞
𝑛
𝑆 2→ σ 2cuando 𝑛 → ∞
● Eficiencia:
16
6.2. Análisis Comparativo
Vamos a realizar un análisis comparativo detallado de dos estimadores de la varianza
poblacional σ2:
𝑖=1
● Insesgabilidad:
- Varianza muestral corregida (S2):
𝑛
2 1 2
𝑆 ∑ (𝑋 − 𝑋)
𝑛−1 𝑖
𝑖=1
Sabemos que: =
𝑛 𝑛
2 2
∑ (𝑋
� − 𝑋) = ∑ (𝑋 � − µ + µ − 𝑋)
� �
𝑖=1 𝑖=1
Resolvemos el término:
𝑛 𝑛
2 2
∑ (𝑋
� − 𝑋) = ∑ ((𝑋 � − µ) − (𝑋 − µ))
� �
𝑖=1 𝑖=1
𝑛 𝑛
2 𝑛 2
= ∑ (𝑋 − µ) − 2 ∑ (𝑋 − µ)(𝑋 − µ) + ∑ (𝑋 − µ)
𝑖 𝑖
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛
2 2
= ∑ (𝑋 − µ) − 2 ∑ (𝑋 − µ)(𝑋 − µ) + 𝑛(𝑋 − µ)
� �
� �
𝑖=1 𝑖=1
Luego:
𝐸[𝑆 2 1
2 2
] = 𝐸[ (𝑛 − 1)σ ] = σ
𝑛
17
2
- Varianza muestral no corregida (𝑆 ):
𝑛
2
Para el estimador 𝑆 :
𝑛
18
𝑛
2 1
2
𝑆 𝑛
∑ (𝑋 − 𝑋)
𝑖
=
𝑛
𝑖=1
Su valor esperado es:
2
𝐸[𝑆 ] = 𝑛
1
2
𝑛 𝐸[ ∑ (𝑋 − 𝑋)
𝑛 𝑖=1
𝑖 ]
2 𝑛−1 2
= 1
(𝑛 − 1)σ = σ
𝑛
2 �
Por lo tanto, 𝑆 es un estimador sesgado de σ ,2 subestimando
𝑛
sistemáticamente la varianza.
● Consistencia:
- Varianza muestral corregida (S2):
𝑆 2→ σ 2cuando 𝑛 → ∞
𝑉𝑎𝑟(𝑆 )2 → 0 cuando 𝑛 → ∞
entonces:
2 2
𝑆 →σ
2
- Varianza muestral no corregida (𝑆 ):
𝑛
2
Para 𝑆 aunque es sesgado, su sesgo disminuye a medida que 𝑛
𝑛
aumenta. Es decir:
Sesgo( 2 2 2
𝑆 )2 𝑛−1
σ − σ =−
σ
𝑛 = 𝑛 𝑛
Y:
𝑉𝑎𝑟(𝑆 2
) → 0 cuando 𝑛 → ∞
𝑛
2 2
Por lo tanto, 𝑆 también es un estimador consistente de σ
𝑛
19
● Suficiencia:
2 2
Ambos estimadores, 𝑆 y 𝑆 , están basados en 𝑛
𝑛
∑ (𝑋 − 𝑋) ,2que es
�
�
𝑖=1
2
un estadístico suficiente para σ en una distribución normal.
● Eficiencia:
- Varianza muestral corregida (S2):
Un estimador eficiente tiene la menor varianza posible entre todos los
estimadores insesgados. La varianza de S2 es:
2 4
2σ
𝑉𝑎𝑟(𝑆 ) =
𝑛−1
2
- Varianza muestral no corregida (𝑆 ):
𝑛
2
Para 𝑆 , su varianza es:
𝑛
4
𝑉𝑎𝑟(𝑆 2) = 2σ
𝑛 𝑛
2 2
Aunque 𝑆 tiene una varianza ligeramente menor que 𝑆 , sigue siendo
𝑛
2
sesgado. En comparación, 𝑆 es el estimador insesgado de mínima varianza (es
decir, es eficiente).
20