0% encontró este documento útil (0 votos)
3 vistas7 páginas

Esta Di Stica

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 7

ESTIMACIÓN E INTERVALOS DE CONFIANZA

INTRODUCCIÓN
Actualmente se debe estar bien consciente de que las poblaciones son generalmente muy
grandes como para ser estudiadas en su totalidad. Su tamaño requiere que se seleccionen
muestras, las cuales se pueden utilizar más adelante para hacer referencia sobre las
poblaciones.
Hay por lo menos dos tipos de estimadores que se utilizan:
● Un estimador puntual
● Un estimador por intervalo

Por definición
Un estimador puntual utiliza un número único o valor para localizar una estimación del
parámetro. Es decir, es un estadístico calculado a partir de información de la muestra para
estimar el parámetro poblacional.

La media muestral: Es el estimador puntual de la media poblacional.


La media muestral, no es el único estimador puntual de un parámetro poblacional.
Por ejemplo:
● p, una proporción muestral, es un estimador puntual de la proporción poblacional
● s, la desviación estándar muestral, es un estimador puntual de la desviación
estándar poblacional.

PROPIEDADES DE LOS ESTIMADORES PUNTUALES


1. Estimador insesgado
Si tenemos un gran número de muestras de tamaño n y obtenemos el valor del
estimador en cada una de ellas, sería deseable que la media de todas estas
estimaciones coincidiera con el valor de μ .Se dice que un estimador es insesgado si
su esperanza matemática coincide con el valor del parámetro a estimar.

2. Estimador eficiente
Se dice que los estimadores son eficientes cuando generan una distribución
muestral con el mínimo error estándar ,es decir, entre dos estimadores insesgados
de un parámetro dado es más eficiente el de menor varianza

3. Estimador consistente
Un estimador se dice consistente cuando su valor tiende hacia el verdadero valor del
parámetro a medida que aumenta el tamaño de la muestra . Es decir, la probabilidad
de que la estimación sea el verdadero valor del parámetro tiende a 1.

DEFINICIÓN
Conjunto de valores que se forma a partir de una muestra de datos de forma que exista la
posibilidad de que el parámetro poblacional ocurra dentro de dicho conjunto con una
probabilidad específica. La probabilidad específica recibe el nombre de nivel de confianza.

Para calcular el intervalo de confianza, consideraremos dos situaciones:


● Utilizamos los datos de la muestra para calcular 𝜇 con 𝑋,mientras que la desviación
estándar de la población σ es conocida.
● Utilizamos los datos de la muestra para calcular 𝜇 con 𝑋, mientras que la desviación
estándar de la población es desconocida. En este caso, sustituimos la desviación
estándar de la(s) muestra(s) por la desviación estándar de la población (𝜎).

DEFINICIÓN
Un intervalo de confianza para una proporción es un rango de valores que probablemente
contenga una proporción de población con un cierto nivel de confianza.

Para crear el intervalo de confianza de una proporción, es necesario cumplir con los
siguientes supuestos:
1. Las condiciones binomiales, han quedado satisfechas.
a) Los datos de la muestra son resultado de conteos.
b) Sólo hay dos posibles resultados (lo normal es referirse a uno de los resultados
como éxito y al otro como fracaso).
c) La probabilidad de un éxito permanece igual de una prueba a la siguiente.
d) Las pruebas son independientes. Esto significa que el resultado de la prueba no
influye en el resultado de otra.

2. Los valores 𝒏𝝅 𝒚 𝒏 (𝟏 − 𝝅) deben ser mayores o iguales que 5.


Esta condición permite recurrir al teorema central del límite y emplear la distribución
normal estándar, es decir, z, para completar un intervalo de confianza.

DISTRIBUCIÓN t
DEFINICIÓN
La distribución t de Student o distribución t es un modelo teórico utilizado para aproximar el
momento de primer orden de una población normalmente distribuida cuando el tamaño de la
muestra es pequeño y se desconoce la desviación típica.
En otras palabras, la distribución t es una distribución de probabilidad que estima el valor de
la media de una muestra pequeña extraída de una población que sigue una distribución
normal y de la cual no conocemos su desviación típica.

Dada una variable aleatoria continua L, decimos que la frecuencia de sus observaciones
puede aproximarse satisfactoriamente a una distribución t con g grados de libertad tal que:
La variable aleatoria L sigue una distribución t con g grados de libertad.

Aplicación
La distribución t se utiliza cuando:
● Queremos estimar la media de una población normalmente distribuida a partir de
una muestra pequeña.
● Tamaño de la muestra es inferior a 30 elementos, es decir, n < 30.
A partir de 30 observaciones, la distribución t se parece mucho a la distribución
normal y, por tanto, utilizaremos la distribución normal.
● No se conoce la desviación típica o estándar de una población y tiene que ser
estimada a partir de las observaciones de la muestra.
Representación
La representación de la distribución t se parece mucho a la distribución normal salvo que la
distribución normal tiene las colas más anchas y es más apuntalada. En otras palabras,
deberíamos añadir más grados de libertad a la distribución t para que la distribución
“crezca” y se parezca más a la distribución normal.

ASIMETRÍA: Esta medida nos permite identificar si los datos se distribuyen de forma
uniforme alrededor del punto central (media aritmética).

CURTOSIS: Esta medida determina el grado de concentración que presentan los valores
en la región central de la distribución.
● Leptocúrtica: gran concentración de valores
● Mesocúrtica: concentración normal.
● Platicúrtica: baja concentración.

Para crear un intervalo de confianza de la media poblacional con una desviación estándar
desconocida:
1. Suponga que la población muestreada es normal o aproximadamente normal.
2. Estime la desviación estándar de la población (σ) con la desviación estándar de la
muestra (s).
3. Utilice la distribución t en lugar de la distribución z.

La decisión de utilizar t o z se basa en el hecho de que se conozca , la desviación


estándar poblacional. Si se conoce, se utiliza z. Si no se conoce, se debe utilizar t.

Valores de z y t para el nivel de confianza de 95 por ciento

Elección del tamaño adecuado de una muestra


Una variable importante cuando se trabaja con intervalos de confianza es el tamaño de la
muestra. Sin embargo, en la práctica, no es una variable, sino una decisión que se toma
para que la estimación del parámetro de población sea bueno. Esta decisión se basa en tres
variables:
1. El margen de error que tolerará el investigador.
2. El nivel de confianza deseado.
3. La variabilidad o dispersión de la población que se estudia (variación estándar).

Margen de error
El máximo error admisible, designado E, es la magnitud que se suma y resta de la media
muestral (o proporción muestral) para determinar los puntos extremos del intervalo de
confianza. El margen de error es la magnitud del error que se tolerará al estimar un
parámetro poblacional. Existe una compensación entre el margen de error y el tamaño de la
muestra. Un margen de error pequeño requiere de una muestra más grande y de más
tiempo y dinero para recolectarla. Un margen de error más grande permitirá tener una
muestra más pequeña y un intervalo de confianza más amplio.

Nivel de confianza
Al trabajar con un intervalo de confianza, lógicamente se elegirán niveles de confianza
relativamente altos como de 95 y 99%, que son los más comunes. Para calcular el tamaño
de la muestra, se necesitará un estadístico z que corresponda al nivel de confianza elegido..

Tamaño de muestra
El tercer factor en la determinación del tamaño de una muestra es la desviación estándar de
la población. Si la población se encuentra muy dispersa, se requiere una muestra grande.
Por el contrario, si se encuentra concentrada (homogénea), el tamaño de muestra que se
requiere será menor.

Tamaño de la muestra para calcular una media poblacional


Para calcular una media poblacional, se puede expresar la interacción entre estos tres
factores y el tamaño de la muestra se expresa con la fórmula siguiente. Note que esta
fórmula es el margen de error que se utiliza para calcular los puntos extremos de los
intervalos de confianza para estimar una media poblacional.

CORRELACIÓN-REGRESIÓN LINEAL

¿QUÉ ES EL ANALISIS DE CORRELACION?


La idea básica del análisis de correlación es reportar la asociación entre dos variables. Por
lo general, el primer paso es trazar los datos en un diagrama de dispersión.

Cuando se estudia la relación entre dos variables en escala de intervalo (o de razón), es


usual comenzar con un diagrama de dispersión. Este procedimiento proporciona una
representación visual de la relación entre las variables.

El siguiente paso suele ser calcular el coeficiente de correlación, que brinda una medida
cuantitativa de la fuerza de la relación entre dos variables.

ANÁLISIS DE CORRELACIÓN:
Grupo de técnicas para medir la asociación entre dos variables

Tipos de correlación lineal


A) Correlación simple que consiste en dos variables, una dependiente (y) y la otra
independiente (x)
Dentro de esta categoría tenemos:
● Correlación directa. Esta correlación consiste en el incremento en una variable la
cuales acompañada por el incremento de otra variable (correlación positiva)

● Correlación inversa. Esta correlación consiste en el incremento de una variable la


cual es acompañada por el incremento de otra (correlación negativa)

● Correlación no lineal. Es esta correlación hay una asociación entre las dos
variables pero la función que describe los datos es mas complicada que una recta y
puede ser una parábola, un polinomio, función senoidal, entre otras.

B) Correlación múltiple. Aquí, hay más de dos variables. Una variable es dependiente
(y), mientras que las otras son independientes 𝑥1, 𝑥2…..𝑥𝑛

Coeficiente de correlación
El coeficiente de correlación, creado por Karl Pearson, describe la fuerza de la relación
entre dos conjuntos de variables en escala de intervalo o de razón. Se designa con la letra r,
y con frecuencia se le conoce como r de Pearson y/o coeficiente de correlación
producto - momento. Puede adoptar cualquier valor de -1.00 a +1.00,inclusive. Un
coeficiente de correlación de -1.00 o bien de +1.00 indica una correlación perfecta.

En el siguiente diagrama se resumen la fuerza y la dirección del coeficiente de


correlación.

REGRESIÓN LINEAL SIMPLE Y MÚLTIPLE


La regresión y la correlación son las dos herramientas estadísticas más poderosas y
versátiles que se pueden utilizar para solucionar problemas comunes en los negocios.
Muchos estudios se basan en la creencia de que se pueden identificar y cuantificar alguna
relación funcional entre dos o más variables. Se dice que una variable depende de otra. Se
pueden decir que Y depende de X en donde Y y X son dos variables cualquiera:

● Variable dependiente: Es la variable que se desea explicar o predecir; también se


le denomina regresando ó variable de respuesta.
● Variable independiente: Es la variable independiente; también se le denomina
variable explicativa o regresor.

Regresión lineal simple


El modelo de regresión lineal poblacional que describe la relación entre la respuestas o
variable dependiente Y o regresora X es:

También podría gustarte