0% encontró este documento útil (0 votos)
36 vistas59 páginas

Estadistica Tema 1 PDF

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 59

Tema 1.

Comprobación de hipótesis
estadísticas y estimación de parámetros

1. Introducción a la inferencia estadística


2. Distribución muestral
3. Contraste de hipótesis
3.1. Introducción: lógica del contraste
3.2. Hipótesis estadísticas
3.3. Estadístico de contraste, región crítica y criterio de decisión
3.4. Contrastes unilaterales y bilaterales
3.5. Tipos de error y potencia del contraste
4. Estimación de parámetros
4.1. Estimación puntual
4.2. Estimación por intervalos
1
1. Introducción a la estadística inferencial

Proceso de inferencia estadística

extraída
MUESTRA POBLACIÓN

descrita

descrita

ESTADÍSTICO inferencia
PARÁMETRO
(calculado) Cálculo de (desconocido)
Probabilidades

ESTADÍSTICA
ESTADÍSTICA

DESCRIPTIVA

INFERENCIAL
2
1. Introducción a la estadística inferencial

•  El objetivo es obtener información sobre los parámetros (o la


forma) de las distribuciones de las variables en la población
•  Estos parámetros pueden referirse a una única variable en una
única población, a la comparación de una misma variable en
distintas poblaciones o a la relación entre variables en una o
varias poblaciones correlacion

•  Para obtener información sobre los parámetros, salvo que


tengamos acceso a toda la población y podamos tomar
medidas de todos los individuos, disponemos de la
información obtenida en una muestra: el valor del estadístico
•  El problema es que de una misma población pueden extraerse
diferentes muestras y, por tanto, el valor del estadístico puede
variar de una a otra
•  Para resolver este problema se construye la distribución
muestral de un estadístico
3
2. Distribución muestral de un estadístico

2.1. Introducción

Ejemplo “Número de veces que una madre gorila se aproxima a la cría”


M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 M11 M12 M13 M14 M15 M16 M17 M18 M19 M20

1 1 1 2 2 3 3 3 3 4 4 4 4 4 5 5 5 5 5 5
M21 M22 M23 M24 M25 M26 M27 M28 M29 M30 M31 M32 M33 M34 M35 M36 M37 M38 M39 M40

6 6 6 6 6 7 7 7 7 7 7 7 8 8 8 8 9 9 9 10

µ x = 5'43
Podemos extraer diferentes muestras de tamaño n=3 y en cada una de ellas podemos
obtener un valor del estadístico diferente
M1, M10, M35 X = 4'33
M11, M18, M23 X =5
Podemos obtener
El valor menor que podemos obtener en muestras de tamaño n=3: valores que van desde 1
€ hasta 9’3, con
M1, M2, M3 X =1 diferentes

El valor mayor que podemos obtener en muestras de tamaño n=3: probabilidades, siendo
más probables los
M38, M39, M40 X = 9'3 valores en torno a 5’43
4
2. Distribución muestral de un estadístico

las medias muestrales se aproximan mas al parámetro, menos variabilidad

M1 M2 M3 M4 M5 M6 M7 M8 M9 M10 M11 M12 M13 M14 M15 M16 M17 M18 M19 M20

1 1 1 2 2 3 3 3 3 4 4 4 4 4 5 5 5 5 5 5
M21 M22 M23 M24 M25 M26 M27 M28 M29 M30 M31 M32 M33 M34 M35 M36 M37 M38 M39 M40

6 6 6 6 6 7 7 7 7 7 7 7 8 8 8 8 9 9 9 10

µ x = 5'43
Podemos extraer diferentes muestra de tamaño n=6 y en cada una de ellas
podemos obtener un valor del estadístico diferente

M1, M4, M8, M17, M29, M37 X = 4'5


M3, M9, M17, M22, M23, M31 X = 4'66
Podemos obtener
El valor menor que podemos obtener en muestras de tamaño n=6: valores que van desde
M1, M2, M3, M4, M5, M6€ X = 1'66
1’66 hasta 8’82, con
diferentes

El valor mayor que podemos obtener en muestras de tamaño n=6: probabilidades, siendo
más probables los
M35, M36, M37, M38, M39, M40 X = 8'82 valores en torno a 5’43
5
2. Distribución muestral de un estadístico

Por tanto:
•  Los valores del estadístico varían de una muestra a otra
•  Los valores dependen del tamaño de la muestra que se extraiga:
•  Cuanto mayor es el tamaño de la muestra menor es la mas parecido al
parametro
variabilidad de los posibles valores que se pueden obtener (más
se parecen los valores que obtengo en las diferentes muestras)
•  Los valores más probables son los valores más próximos al valor
del parámetro que se pretende estimar mediante el estadístico
entorno a la media

6
2. Distribución muestral de un estadístico

2.2. Definición

•  Es una distribución teórica que asigna una probabilidad discretas


concreta (o densidad de probabilidad) a cada uno de los
variables continuas (probabilidad de un valor ocncreto es 0)
valores que puede tomar un estadístico en las diferentes
muestras de tamaño n que pueden extraerse de una población
•  Para un estadístico existen tantas distribuciones muestrales
como tamaños de muestra se puedan extraer
•  Es una distribución teórica obtenida mediante algún modelo
matemático o mediante técnicas de remuestreo por
procedimientos de simulación

7
2. Distribución muestral de un estadístico

n =12 Distribución de la variable:


Distribución de la variable: X 1 = 4,17
“Número medio de
“Número de acercamientos de una madre a acercamientos” en las
la cría” en la Población diferentes muestras de
tamaño 12 que pueden
X: “Número de acercamientos” extraerse de la población

X 2 = 6,58

X: “Número de acercamientos”

X 3 = 5,08

X: “Número de acercamientos”
X: “Número de acercamientos” X: “nº MEDIO de acercamientos”
X 4 = 5,08
Observad que la media de la población desviación típica de la
coincide con la media de las medias de distribución muestral:
las diferentes muestras error típico de estimación
µX = µX €
X: “Número de acercamientos” si coges muestra 40 (todos los valores)
no ay ningun error pq hemos hecho el 8
….. mismo calculo que del parametro
2. Distribución muestral de un estadístico

Distribución de la variable: “Número Distribución de la variable: “Número


de acercamientos de una madre a la cría” en la medio de acercamientos” en las diferentes
Población muestras de tamaño 12 que pueden
extraerse de la población

Función de frecuencias empírica


pero desconocida, sobre la que se
hacen ciertas suposiciones:
supuestos que hay que cumplir

X: “nº MEDIO de acercamientos”


X: “Número de acercamientos” Función teórica que se deriva:
- Matemáticamente a partir de cierto supuestos
X 1 = 4,17 de la distribución de la variable en la
€ población
- Por técnicas de remuestreo (mediante
Se extrae un única muestra simulaciones con ordenador)
9
2. Distribución muestral de un estadístico

•  La distribución muestral de un estadístico no tiene porqué ser igual


a la distribución de la v.a. en la población, aunque dependa de ella
(ejemplo anterior)
•  En general, se asume el muestreo aleatorio simple (m.a.s.), que
implica la independencia de las observaciones
•  Se denomina error típico de estimación a la desviación típica de la
distribución muestral (lo que se separan los distintos valores de los
estadísticos del valor del parámetro)
•  Cuanto mayor es el tamaño de la muestra menor es la
variabilidad de los posibles valores que se pueden obtener (más
se parecen los valores que obtengo en las diferentes muestras):
menor es el error típico
10
3. Contraste de hipótesis

•  Basándonos en la distribución muestral de un estadístico, existen


dos formas, estrechamente ligadas, de obtener información sobre
los parámetros de la población
ü Comprobación de hipótesis estadísticas (contraste de hipótesis)
ü Estimación de parámetros
✘  Puntual
✘  Construcción de intervalos de confianza

11
3.1. La lógica del contraste de hipótesis

Se trata de decidir si cierto estado hipotético en la población


parece razonable a la luz de la información obtenida en la muestra

Hipótesis sobre un
estado en la población

Decidimos si puede
mantenerse la hipótesis Extraemos una muestra
sobre la población

Estado en la muestra

12
3.1. La lógica del contraste de hipótesis

Ejemplo 1

PROBLEMA:
¿Cuál es la inteligencia media de los estudiantes de psicología madrileños?

Hipótesis: el CI medio de
los estudiantes de psicología
madrileños es de 110

¿Podemos sostener la hipótesis Seleccionamos una muestra


de que el CI medio de los representativa de la
estudiantes de psicología población de estudiantes de
madrileños es de 110? psicología madrileños

El CI medio obtenido en la
muestra es de 101 13
3.1. La lógica del contraste de hipótesis

Ejemplo 2

PROBLEMA:
¿Qué método de enseñanza de la lectura Hipótesis: Un nuevo
es mejor: el nuevo método (A) método de enseñanza
o el método tradicional (B)? mejora el rendimiento
de los alumnos en la
lectura

¿Podemos mantener la Seleccionamos dos muestras


hipótesis de que el nuevo representativas de la población de
método es mejor? alumnos y les aplicamos,
respectivamente, cada uno de los
métodos

El grupo enseñado con el


método A obtiene una
puntuación media en lectura
superior, en 5 puntos, al grupo
enseñando por el método B 14
3.1. La lógica del contraste de hipótesis

Contraste de hipótesis

Proceso de toma de decisión en la que una hipótesis estadística se


contrasta con los datos empíricos para ver si es compatible con ellos

Proceso del contraste de hipótesis

1. Formulación estadística de la hipótesis científica


2. Búsqueda de evidencia empírica relevante
Si la hipótesis es correcta la probabilidad de que en la muestra se
de un resultado en la misma dirección que el planteado en la
hipótesis es muy grande
3. Establecimiento de una regla de decisión (en términos de
probabilidad)
La discrepancia entre la hipótesis y el resultado muestral puede
deberse a
•  Fluctuaciones debidas al azar 15
•  La hipótesis es incorrecta
3.2. Hipótesis estadísticas

Definición

Toda proposición o afirmación que se formula a priori sobre la


forma de la función de probabilidad o densidad de probabilidad de
una o varias variables aleatorias o sobre los valores de los
parámetros de la distribución poblacional

Ejemplos

“La variable aleatoria en la población sigue una distribución binomial/


normal “ (sobre la forma de la distribución poblacional)
“La ansiedad en la población de neuróticos presenta μ=50 y
σ2=7” (sobre los valores de los parámetros)
16
3.2. Hipótesis estadísticas

Hipótesis estadística frente a hipótesis científica

•  Hipótesis científica: Kirk (1995): conjetura que puede ser contrastable


y que se adopta de forma tentativa para explicar ciertos hechos y
para guiarnos en la investigación de otros
û  Interés científico
û Se puede comprobar sin necesidad de técnicas estadísticas
(aunque habitualmente se utilizan)
•  Hipótesis estadística: enunciados respecto a parámetros poblacionales
desconocidos
û Interés científico sólo si lo tiene el problema planteado
û Suelen surgir después de las hipótesis científicas
17
3.2. Hipótesis estadísticas

De una misma hipótesis científica se pueden derivar varias hipótesis


estadísticas

Por ejemplo,
Hipótesis científica: “dos métodos, A y B, son igual de eficaces para el
aprendizaje”
Hipótesis estadística 1: “el nivel medio de aprendizaje después de
aplicar el método A es igual al nivel medio después de aplicar
el método B”
µ A = µB
Hipótesis estadística 2: “el porcentaje de sujetos que aprueban después
de aplicar el método A es igual el porcentaje de sujetos que
aprueban después
€ de aplicar el método B”
π A = πB 18
3.2. Hipótesis estadísticas

Hipótesis nula frente a hipótesis alternativa

•  Hipótesis nula (H0): considerada provisionalmente como verdadera y


que sometemos a comprobación, es una afirmación concreta
Una vez obtenidos los datos muestrales, la mantenemos o rechazamos
¦ 

•  Hipótesis alternativa (H1): hipótesis planteada junto a la nula que aspira


a sustituirla en caso de que sea rechazada; es la negación de la
hipótesis nula

H0 : µ1 = µ2 H0 : µ1 = µ2 H0 : µ = 50
H1 : µ1 > µ2 H1 : µ1 ≠ µ2 H1 : µ > 50

19
3.3. Estadístico de contraste, región
crítica y criterio de decisión

Proceso del contraste de hipótesis (cont.)

2. Búsqueda de evidencia empírica relevante


•  Se pretende obtener evidencia empírica para poder someter a
comprobación la hipótesis
•  Para ello, se extrae una/s muestra/s de la/s población/es y se
analizan los resultados obtenidos en la/s misma/s

Estadístico de contraste (EC)

•  Resultado muestral con información empírica relevante sobre


lo que se afirma en H0
•  Su distribución muestral es conocida (se conoce la variabilidad
del estadístico de una muestra a otra)

µ → X ;σ 2 → s! 2 ;Π → p 20
3. 3. Estadístico de contraste, región
crítica y criterio de decisión

Procedimiento

•  Se construye la distribución muestral del estadístico de


contraste suponiendo que la H0 es cierta (partiendo del valor
propuesto para el parámetro en H0)
Se deriva de forma teórica (o mediante técnicas de simulación)
•  Para poder derivar la distribución muestral del estadístico es
necesario que se cumplan una serie de supuestos sobre la/s
distribución/es de la/s variable/s en la población, que se
especifican en cada prueba de análisis de datos
Supuestos: conjunto de afirmaciones que necesitamos establecer acerca de
la población y de la muestra para poder determinar la
distribución muestral del estadístico y determinar nuestro
criterio de decisión
21
3.3. Estadístico de contraste, región crítica
y criterio de decisión

Proceso del contraste de hipótesis (cont.)

3. Establecimiento de una regla de decisión


•  Criterio para decidir si la H0 planteada debe ser rechazada o no.
•  Se basa en la división de la distribución muestral del EC en dos zonas:
zona de aceptación de la H0 (región no crítica)/zona de rechazo de la H0 (región crítica)
Región crítica (región de rechazo): área de la Región de aceptación: área de la distribución
distribución muestral donde se encuentran muestral donde se encuentran valores del
valores del estadístico de contraste que es muy estadístico de contraste que es probable que
poco probable que ocurran si lo que plantea la ocurran si lo que plantea la H0 es verdadero
H0 es verdadero La probabilidad asociada, 1-α, es el nivel de
La probabilidad asociada, α, es el nivel de confianza
significación
Criterio de decisión:
ü Se rechaza H0 si el E.C. toma un valor
Distribución incluido en la región crítica (hipótesis
muestral del EC 1− α
α /2 no compatible con los datos)
α /2 ü Se mantiene H0, si E.C. toma un valor
zona rechazo zona rechazo incluido en la región de aceptación
€ zona de aceptación
(hipótesis compatible con los datos)
22
3. 3. Estadístico de contraste, región
crítica y criterio de decisión

Procedimiento

•  Se fija el valor de probabilidad por encima del cual se va a considerar que


los datos son “probables”: nivel de significación (α)
(Convenio: se consideran valores poco probables aquellos con probabilidad
menor que 0,05, 0,01 ó 0,001)
•  Se calcula la probabilidad de los datos obtenidos en la muestra, supuesto
que es cierta la H0 (probabilidad asociada al valor del EC obtenido en la
muestra): nivel crítico (p), y se compara con el nivel de significación (α)
ü  Si p >α se mantiene la hipótesis nula como provisionalmente verdadera
El resultado obtenido en la muestra se considera probable y, por tanto, se
mantiene la afirmación de la hipótesis como compatible con los datos
ü  Si p < α se rechaza la hipótesis nula
El resultado obtenido en la muestra se considera improbable y, por tanto, se
rechaza la afirmación de la hipótesis como incompatible con los datos
CUANTO MAYOR SEA LA MUSTRA MAS BAJO SALE P, MAS SE PARECE A LA POBLACION GENERAL PERO TODO SALE 23
(CALCETINES)
3.4. Contraste bilateral y unilateral

El tipo de contraste depende de la región crítica que se especifique


Cuando un investigador se plantea una hipótesis en relación a un parámetro,
pueden ocurrir dos situaciones posibles:
•  Que no prevea la dirección del efecto en el caso de que la hipótesis nula fuese
falsa; es decir, si éste será mayor o menor que el valor propuesto para el
parámetro en H0

H 0 : θ = θ0 Contraste bilateral
1-α
H1 : θ ≠ θ 0 α/2 α/2
zona rechazo zona rechazo
zona de aceptación

€ •  Que prevea la dirección del efecto, supuesto que H0 sea falsa


€H 0 : θ = θ0 H 0 : θ = θ0
H1 : θ < θ 0 H1 : θ > θ 0
Contraste unilateral Contraste unilateral
izquierdo 1-α 1-α
derecho
α
€ α
zona de aceptación zona rechazo
zona rechazo H0 €
zona de aceptación 24
Contraste de hipótesis sobre un media

1. HIPÓTESIS: H 0 : µ = µ0
H1 : µ ≠ µ0
2. Fijar el n.s. α
3. SUPUESTOS:
- Normalidad: la variable Y sigue una distribución Normal en
la población de la que ha sido extraídas la muestra

Y → N( µ , σ 2 )
Comprobación: pruebas de bondad de ajuste a la distribución Normal

- Una m.a.s. de tamaño n


MUESTREO ALEATORIO SIMPLE
25
Contraste de hipótesis sobre un media

4. E.C. estadístico de contraste

X −µ
EC : T = → tn−1
desv tipica muestra s / n − 1 todo ese denominador es el error tipico de estimacion: desv tipica de los errores
si el tamaño muestral es grande la esv va a ser pequeña pq se prece mas a la
realidad

SY → E.T. El estadístico T se distribuye según el modelo de


probabilidad t de Student con n -1 grados de libertad

siendo µ X = E ( X ) = E ( X ) = µ x y σ X2 = var( X ) = S x2 / n − 1

A medida que aumenta n, S → σ y la distribución se aproxima a la Normal


x x
26
Contraste de hipótesis sobre un media

5. REGIÓN CRÍTICA Y CRITERIO DE DECISIÓN


Contraste bilateral
media de T de student es 0 y es simetrica

α /2 α /2
µ0

€ T≤ a/2 t n-1
€ T≥1-a/2 t n-1 se mira en la tabla

- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la


región crítica
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la
región de aceptación 27
Contraste de hipótesis sobre un media

6. NIVEL CRÍTICO

- Contraste bilateral p=2 !"P(t n-1≥ t k )#$


Valor del E.C. obtenido en la p
2
p
2
muestra − tk tk

28
Contraste de hipótesis sobre un media

σx desviación típica de X en la población

µ x = 10

µx X

σ x = S x / n − 1 error típico de estimación


€ €

µx = µx X µx = µx X
n1=3 µx = µx X n3=30
n2=10
€ €
µ X = 10 € µ€X = 10
µ X = 10
σ X = Sx 3−1
€ σ X =€S x 10 − 1 σ X = Sx 30 − 1
29
Ejemplo de contraste de hipótesis sobre
un media

En un estudio realizado por un psicólogo escolar se encuentra que los niños disléxicos obtienen
una media de 190 en un test de desarrollo cognitivo (Xi). El psicólogo cree que si los niños son
sometidos a terapia esa media será distinta. Pone a prueba su hipótesis en un grupo de 65 niños y
obtiene una media igual a 198, siendo la desviación típica de las puntuaciones en ese grupo igual
a 24. ¿Podemos afirmar con un α=0,05 que estos datos apoyan la hipótesis del psicólogo?
1. Formulación de la hipótesis estadística
H 0 : µ = 190 PREGUNTAS ASI EN EL EXAMEN

H1 : µ ≠ 190 BILATERAL

2. α=0,05
3. Suponiendo que la distribución de X en la población de disléxicos es
Normal
4. Estadístico de contraste
X −µ 198 − 190
EC : T = → tn−1 T= = 2,667 → t64
s / n −1 24 / 64
30
Ejemplo de contraste de hipótesis

3. Criterio de decisión

Se rechaza H0
El valor 2,667 se encuentra en la
región crítica o zona de rechazo
0,009<0,05
Los datos apoyan hipótesis
α /2 α /2 = 0,025 del psicólogo
-1,99 t =0 1,99
€ µ = 190 €
2,667
p=0,009

31
3.5. Tipos de error y potencia del contraste

H0

Verdadera Falsa

Acierto Error tipo II


Aceptarla
Probabilidad: 1-α Probabilidad: β
Decisión (Nivel de confianza)
sobre H0 CONTRARIOS

Error tipo I Acierto


Rechazarla Probabilidad: 1-β
Probabilidad: α
(Nivel de significación) (Potencia)

32
3.5. Tipos de error y potencia del contraste

Normalmente se toma como estimación de la hipótesis alternativa


el valor obtenido en la muestra para el estadístico, de forma que se
construyen dos distribuciones muestrales
H0
Contraste unilateral derecho
1-α
α H1
H0
µ0 1-β
1-α
ZONA ACEPTACIÓN ZONA RECHAZO
β
α
H1
µ0

β 1-β

33
3.5. Tipos de error y potencia del contraste

Contraste bilateral

β H1 H0
1-α
1-β

34
3.5. Tipos de error y potencia del contraste

Relación entre α, β y n

Objetivo: minimizar la probabilidad de los dos tipos


de error. Pero si todo lo demás permanece igual,
sαórβ
Si r n, la desviación típica de la distribución (error
típico) será menor
H0
β H1
1-α
1-β

Cuando no es posible incrementar n g ver qué error interesa que sea


pequeño: coste asociado a cada tipo de error (ej. clínico) 35
3.5. Tipos de error y potencia del contraste

Potencia y tipo de contraste

El contraste unilateral y bilateral no tienen la misma potencia (1-β)


Si la H1 se separa de la H0 en la dirección de la región crítica, el
contraste unilateral es más potente que el bilateral
1-β β
1-β β

H1 H0 H1 H0

Bilateral Unilateral 36
3.5. Tipos de error y potencia del contraste

Potencia y tipo de contraste (cont.)

Si H1 se separa de la H0 en la dirección contraria, el contraste bilateral


es más potente que el unilateral

β 1-β
1-β β
H0 H1 H0 H1

Bilateral Unilateral
37
4. Estimación de parámetros

En caso de rechazar la hipótesis nula es necesario proporcionar:


ü  Intervalo de confianza para la estimación del valor del parámetro
(los intervalos de confianza también sirven para comprobar
hipótesis nulas, son procedimientos alternativos)
ü  Tamaño del efecto: informa sobre la importancia desde el punto de
vista científico; algo puede ser estadísticamente distinto del
valor propuesto para el parámetro en la hipótesis nula y no ser
una aportación importante desde el punto de vista científico
•  En cada prueba se determina la forma de estimarlo

38
4. Estimación de parámetros

•  Es un procedimiento de inferencia estadística equivalente y


complementario al contraste de hipótesis, ya que permite abordar
el mismo tipo de problemas y llegar a las mismas conclusiones
pero proporcionando otro tipo de información
•  Todo contraste de hipótesis debe ir acompañado de una
estimación de parámetros
•  El objetivo es inferir el valor del parámetro de la población a partir
de algún estadístico calculado sobre los datos de una muestra
•  Tipos de estimación
ü Puntual
ü Por intervalos de confianza
39
4. 1. Estimación puntual de parámetros

•  Al parámetro poblacional se le asigna el valor de un estadístico


(estimador) calculado en una muestra
Parámetro → θ
Estimador → θˆ
•  En este tipo de estimación se obtiene un único valor como estimador
del valor del parámetro
p. ejemplo, µ → X ;σ 2 → s! 2 ;Π → p;

•  El problema que se plantea es que siempre puede haber más de un


estimador para el mismo parámetro
p. ejemplo, 0̂ de µ : X , Mdn , Moda , ...

•  Para determinar cuál de ellos es el ideal deberemos conocer cuáles


son las propiedades que debe tener un estadístico para ser
40
considerado un buen estimador
4. 1. Estimación puntual de parámetros

Propiedades de un buen estimador

Sea θ un parámetro y θˆ un estimador de dicho parámetro


1.  Carencia de Sesgo
Se dice que un estimador es insesgado, cuando la esperanza matemática de su
distribución es el valor del parámetro; es decir, cuando la media de las estimaciones
obtenidas en las diferentes muestras que se pueden extraer es el valor del parámetro

E(θˆ ) = θ
Algunos estadísticos insesgados Algunos estadísticos sesgados
1. Media aritmética 3. Proporción 1.Varianza sesgada
E( p) = π n −1 2
E(X ) = µ x € E ( S x2 ) = σ x ≠ σ x2
n
2. Varianza insesgada
Infraestima la
E( S˜ x2 ) = σ 2x €˜ 2 n varianza
n

S x = ∑(X i − X ) 2 n −1 S = ∑ ( X i − X )2 n
2
x
i=1 poblacional i =1
41
4.1. Estimación puntual de parámetros

Propiedades de un buen estimador (cont.)

2.  Eficiencia
Un estimador es eficiente cuando la varianza de su distribución
muestral es pequeña. Se dice que un estimador es más eficiente
que otro si la varianza de la distribución muestral del primero es
menor que la del segundo; es decir, si los valores que se obtiene
en las diferentes muestras varían menos
1θˆ es más eficiente que θˆ si 2

σθ2ˆ < σθ2ˆ


1 2

Ejemplo:
S x2 es más eficiente que S˜ 2x ya que
€ σ 2 2 < σ 2˜ 2 42
Sx S x
4.1. Estimación puntual de parámetros

Propiedades de un buen estimador (cont.)


Sesgo y eficiencia

Insesgado Insesgado Sesgado Sesgado


Eficiente Ineficiente Eficiente Ineficiente

43
4.1. Estimación puntual de parámetros

Propiedades de un estimador (cont.)

3.  Consistencia
Un estimador es consistente si al aumentar el tamaño de la
muestra aumenta la probabilidad de que el estimador coincida
con el parámetro
Un estimador es más consistente si

Lim P( θˆ − θ < δ) = 1
n→∞
Lim E(θˆ ) = θ y Lim var(θˆ) = 0
n→∞ n→∞
Ejemplos de estadísticos consistentes:

X , S˜ x2 , S x2 y p 44

4.1. Estimación puntual de parámetros

Propiedades de un buen estimador (cont.)


4.  Suficiencia
Un estimador es suficiente si para estimar el parámetro utiliza
toda la información de la muestra relacionada con el parámetro
Ejemplos de estadísticos suficientes:
X , S˜ x2 , S x2 y p
Ejemplos de estadísticos no suficientes:
Moda, Mediana

5. €
Robustez
Un estimador es robusto si no se ve muy afectado cuando no se
€cumplen las condiciones que se requieren desde el modelo
teórico
45
4.1. Estimación puntual de parámetros

Métodos de estimación

El valor muestral concreto asignado al parámetro dependerá del


método de estimación utilizado
1.  Método de los momentos
Asigna al parámetro el valor de estadístico correspondiente
obtenido en la muestra

2.  Método de mínimos cuadrados


Asigna al parámetro el valor que hace mínimas las distancias al
cuadrado entre el valor estimado y los resultados muestrales
obtenidos

3.  Método de máxima verosimilitud


Asigna al parámetro el valor que hace más probables los datos 46
obtenidos en la muestra
4.2. Estimación por intervalos de confianza

•  Debido a la variabilidad de los estadísticos en las diferentes


muestras que se pueden extraer, es muy probable que haya cierta
discrepancia entre la estimación y el parámetro, esta diferencia se
denomina error muestral

E = θˆ − θ

•  En la estimación puntual desconocemos el tamaño del error


muestral, lo que supone un problema muy importante para
cualquier investigador

•  La estimación por intervalos nos permite resolver este problema
al proporcionar una medida de la precisión de la estimación
47
4.2. Estimación por intervalos de confianza

Estimación por intervalos

Se atribuye al parámetro un conjunto de valores entre los


que se espera que se encuentre el verdadero valor del
parámetro con una probabilidad alta y conocida

Intervalo de confianza (I.C.)

Rango de los valores probables del parámetro obtenidos a partir


de un valor concreto del estimador

LI < θ < LS

Límite inferior Límite superior


48
4.2. Estimación por intervalos de confianza

Nivel de confianza (1-α)


•  Es la probabilidad con la que cabe esperar que el I.C.
construido incluya el verdadero valor de parámetro
P(LI ≤ θ ≤ LS ) = 1− α

•  Para poder calcular esta probabilidad es necesario conocer


la distribución muestral del estadístico

Nivel de riesgo (α)


•  Es la probabilidad complementaria al nivel de confianza
49
4.2. Estimación por intervalos de confianza

•  El I.C. se construye partiendo siempre de la estimación obtenida en


la muestra a la que se le suma y se le resta el error máximo (Emáx)
La diferencia máxima que cabe
esperar encontrar entre el LI = θˆ − E máx
parámetro y el valor de estadístico θˆ ± E máx
utilizado para la estimación, con
una probabilidad concreta LS = θˆ + E máx

Emax Emax NOTA: El intervalo
I.C. € crítico es simétrico si la
LI θˆ € LS distribución es Z ó t (no
Χ2 o F)
si el error tipico es 0 (nunca cometo errores), el maximo tambien es 0

•  Existen tantos posibles intervalos de confianza como valores


del estadístico puedan obtenerse en las diferentes muestras que
EXAMEN puedan extraerse de una población
PREGUNTA
50
si tengo 100 muestras y calculo 100 intervalos de confianza, en cuantas muestras va a esra contenido el parametrosiebndo que 1-alfa es 0,95
4.2. Estimación por intervalos de confianza

Los intervalos de estimadores


situados en la región crítica (zona
roja) no incluirán el valor del
parámetro

θ
θˆ3 θˆ5
θˆ2
θˆ11
θˆ4
θˆ1
€ € θˆ

8 €
θˆ7
€ θˆ6

θˆ9 €
€ θˆ10 51
θˆ12 €
4.2. Estimación por intervalos de confianza

Pasos para construir el intervalo de confianza

1.  Determinar el nivel de confianza (1-α)


Los niveles más habituales son el 95% y el 99%
2.  Calcular el Emáx
•  Se obtiene el E.T. (σ) de la distribución muestral del estimador
•  Se obtienen los valores tipificados de la distribución muestral
asociados a α/2
•  Se calcula Emáx
E máx = valorα / 2 ⋅ σ

3.  Calcular los límites del I.C.


LI = θˆ − E máx LS = θˆ + E máx 52

4.2. Estimación por intervalos de confianza

Aspectos a considerar referidos al I.C.

•  Antes de construir el I.C. puede hablarse de la probabilidad de


que éste incluya al parámetro, una vez construido, lo contiene o
no
•  No es adecuada la expresión: “el I.C. contiene al parámetro con
una probabilidad igual al nivel de confianza”
•  La expresión adecuada es: “se estima con un nivel de confianza
que el verdadero valor del parámetro se encuentra entre los
límites del I.C.” (de cada 100 intervalos que se construyan en las
mismas condiciones, 95 incluirán al parámetro)

53
4.2. Ejemplo de estimación por intervalos

En un estudio realizado por un psicólogo escolar en un grupo de


65 niños disléxicos, se obtiene una media en desarrollo cognitivo
(Xi) igual a 198, siendo la desviación típica de las puntuaciones en
ese grupo igual a 24. Obtener el intervalo de confianza de la
media en desarrollo cognitivo en la población de disléxicos con
un nivel de confianza del 95% (suponemos que la distribución de la
prueba de desarrollo cognitivo en la población de disléxicos es normal)

X → tn−1 (Xi normal y varianza desconocida) 1− α


µX = µx
σ X2 = S x2 / n − 1 α /2
€ α /2

Distribución muestral de X
µ t n −1
€ € 54
4.2. Estimación por intervalos de confianza

1. (1 − α ) = 0'95
2. Emax
1− α
E.T . → σ X = Sx / n − 1 = 24 / 64 = 3
tn−1,α /2 = t64,0,025 = −1, 99
tn−1,(1−α /2) = t64,0,975 = 1, 99 α /2
€ α /2
Emax = σ X . t64,0,025 = 3.1, 99 = 5, 97

3. LI = θˆ − Emáx = 198 − 5, 97 = 192, 03


µ t n −1
€ t64,0,025 -1,99 1,99 t64,0,975
LS = θˆ + Emáx = 198 + 5, 97 = 203, 97 €
I.C. [192, 03;203, 97] Distribución muestral de X
€ €
5, 97 5, 97
I.C.
203, 97
192, 03 X = 198 55
4.2. Estimación por intervalos de confianza

Propiedades del I.C.

•  Es tanto más útil (informativo), más preciso, cuanto menor


sea su amplitud
•  La amplitud depende del nivel de confianza
ü  En igualdad de condiciones, si aumenta el nivel de
confianza también lo hace la amplitud del intervalo
ü  Para conseguir intervalos con menor amplitud y el mismo
nivel de confianza, hay que disminuir el E.T. aumentar
el tamaño de la muestraa

56
4.2. Estimación por intervalos de confianza

N=65 N=500
E.T.→ σ X = 24 / 64 = 3 E.T.→ σ X = 24 / 499 = 1,07

t64,0,025 -1,99
t 500,0,025 -1,96
L I = θˆ − E máx = 198 − −1,99⋅ 3 = 198 − 5,97 = 192,03
L = θˆ + E
S máx
= 198 + −1,99⋅ 3 = 198 + 5,97 = 203,97

L I = θˆ − E máx = 198 − −1,95 ⋅1,07 = 198 − 2,08 = 195,9


LS = θˆ + E máx = 198 + −1,95 ⋅1,07 = 198 + 2,4 = 200,4
57
4.2. Estimación por intervalos de confianza


Contraste de hipótesis e I.C.

ü Rechazamos la H0:
Ø  Si el valor que se propone para el parámetro en la
hipótesis nula no está dentro del I.C.
ü Mantenemos la H0:
Ø  Si el valor que se propone para el parámetro en la
hipótesis nula está dentro del I.C.

58
Ejemplo de contraste de hipótesis e I.C.

Contraste de hipótesis e I.C.

Distribución muestral
centrada en el valor
propuesto para el parámetro
en la hipótesis nula

µ = 190
X = 198

Valor propuesto para el Valor del estadístico



parámetro en la hipótesis € LI:192,03 LS:203,97 obtenido en la muestra
nula
Como el valor 190 no está dentro del rango 192,03 y
203,97, se rechaza la hipótesis nula 59

También podría gustarte