Esta Di Stica
Esta Di Stica
Esta Di Stica
INTRODUCCIÓN
Actualmente se debe estar bien consciente de que las poblaciones son generalmente muy
grandes como para ser estudiadas en su totalidad. Su tamaño requiere que se seleccionen
muestras, las cuales se pueden utilizar más adelante para hacer referencia sobre las
poblaciones.
Hay por lo menos dos tipos de estimadores que se utilizan:
● Un estimador puntual
● Un estimador por intervalo
Por definición
Un estimador puntual utiliza un número único o valor para localizar una estimación del
parámetro. Es decir, es un estadístico calculado a partir de información de la muestra para
estimar el parámetro poblacional.
2. Estimador eficiente
Se dice que los estimadores son eficientes cuando generan una distribución
muestral con el mínimo error estándar ,es decir, entre dos estimadores insesgados
de un parámetro dado es más eficiente el de menor varianza
3. Estimador consistente
Un estimador se dice consistente cuando su valor tiende hacia el verdadero valor del
parámetro a medida que aumenta el tamaño de la muestra . Es decir, la probabilidad
de que la estimación sea el verdadero valor del parámetro tiende a 1.
DEFINICIÓN
Conjunto de valores que se forma a partir de una muestra de datos de forma que exista la
posibilidad de que el parámetro poblacional ocurra dentro de dicho conjunto con una
probabilidad específica. La probabilidad específica recibe el nombre de nivel de confianza.
DEFINICIÓN
Un intervalo de confianza para una proporción es un rango de valores que probablemente
contenga una proporción de población con un cierto nivel de confianza.
Para crear el intervalo de confianza de una proporción, es necesario cumplir con los
siguientes supuestos:
1. Las condiciones binomiales, han quedado satisfechas.
a) Los datos de la muestra son resultado de conteos.
b) Sólo hay dos posibles resultados (lo normal es referirse a uno de los resultados
como éxito y al otro como fracaso).
c) La probabilidad de un éxito permanece igual de una prueba a la siguiente.
d) Las pruebas son independientes. Esto significa que el resultado de la prueba no
influye en el resultado de otra.
DISTRIBUCIÓN t
DEFINICIÓN
La distribución t de Student o distribución t es un modelo teórico utilizado para aproximar el
momento de primer orden de una población normalmente distribuida cuando el tamaño de la
muestra es pequeño y se desconoce la desviación típica.
En otras palabras, la distribución t es una distribución de probabilidad que estima el valor de
la media de una muestra pequeña extraída de una población que sigue una distribución
normal y de la cual no conocemos su desviación típica.
Dada una variable aleatoria continua L, decimos que la frecuencia de sus observaciones
puede aproximarse satisfactoriamente a una distribución t con g grados de libertad tal que:
La variable aleatoria L sigue una distribución t con g grados de libertad.
Aplicación
La distribución t se utiliza cuando:
● Queremos estimar la media de una población normalmente distribuida a partir de
una muestra pequeña.
● Tamaño de la muestra es inferior a 30 elementos, es decir, n < 30.
A partir de 30 observaciones, la distribución t se parece mucho a la distribución
normal y, por tanto, utilizaremos la distribución normal.
● No se conoce la desviación típica o estándar de una población y tiene que ser
estimada a partir de las observaciones de la muestra.
Representación
La representación de la distribución t se parece mucho a la distribución normal salvo que la
distribución normal tiene las colas más anchas y es más apuntalada. En otras palabras,
deberíamos añadir más grados de libertad a la distribución t para que la distribución
“crezca” y se parezca más a la distribución normal.
ASIMETRÍA: Esta medida nos permite identificar si los datos se distribuyen de forma
uniforme alrededor del punto central (media aritmética).
CURTOSIS: Esta medida determina el grado de concentración que presentan los valores
en la región central de la distribución.
● Leptocúrtica: gran concentración de valores
● Mesocúrtica: concentración normal.
● Platicúrtica: baja concentración.
Para crear un intervalo de confianza de la media poblacional con una desviación estándar
desconocida:
1. Suponga que la población muestreada es normal o aproximadamente normal.
2. Estime la desviación estándar de la población (σ) con la desviación estándar de la
muestra (s).
3. Utilice la distribución t en lugar de la distribución z.
Margen de error
El máximo error admisible, designado E, es la magnitud que se suma y resta de la media
muestral (o proporción muestral) para determinar los puntos extremos del intervalo de
confianza. El margen de error es la magnitud del error que se tolerará al estimar un
parámetro poblacional. Existe una compensación entre el margen de error y el tamaño de la
muestra. Un margen de error pequeño requiere de una muestra más grande y de más
tiempo y dinero para recolectarla. Un margen de error más grande permitirá tener una
muestra más pequeña y un intervalo de confianza más amplio.
Nivel de confianza
Al trabajar con un intervalo de confianza, lógicamente se elegirán niveles de confianza
relativamente altos como de 95 y 99%, que son los más comunes. Para calcular el tamaño
de la muestra, se necesitará un estadístico z que corresponda al nivel de confianza elegido..
Tamaño de muestra
El tercer factor en la determinación del tamaño de una muestra es la desviación estándar de
la población. Si la población se encuentra muy dispersa, se requiere una muestra grande.
Por el contrario, si se encuentra concentrada (homogénea), el tamaño de muestra que se
requiere será menor.
CORRELACIÓN-REGRESIÓN LINEAL
El siguiente paso suele ser calcular el coeficiente de correlación, que brinda una medida
cuantitativa de la fuerza de la relación entre dos variables.
ANÁLISIS DE CORRELACIÓN:
Grupo de técnicas para medir la asociación entre dos variables
● Correlación no lineal. Es esta correlación hay una asociación entre las dos
variables pero la función que describe los datos es mas complicada que una recta y
puede ser una parábola, un polinomio, función senoidal, entre otras.
B) Correlación múltiple. Aquí, hay más de dos variables. Una variable es dependiente
(y), mientras que las otras son independientes 𝑥1, 𝑥2…..𝑥𝑛
Coeficiente de correlación
El coeficiente de correlación, creado por Karl Pearson, describe la fuerza de la relación
entre dos conjuntos de variables en escala de intervalo o de razón. Se designa con la letra r,
y con frecuencia se le conoce como r de Pearson y/o coeficiente de correlación
producto - momento. Puede adoptar cualquier valor de -1.00 a +1.00,inclusive. Un
coeficiente de correlación de -1.00 o bien de +1.00 indica una correlación perfecta.