Teoría Estadística
Teoría Estadística
Teoría Estadística
2. Variables aleatorias.
Una variable aleatoria es una función que asigna un valor numérico a cada suceso elemental
del espacio muestral.
Propiedades:
Distribución de Poisson
Se define experimento de Poisson como aquel en el que se obtiene el número de sucesos que
ocurren de manera independiente y aleatoria durante un intervalo de tiempo dado o región
especificada. Así,una variable X se dice que sigue una distribución de Poisson cuando se
define como el número de sucesos en un experimento de Poisson conocida una tasa media de
ocurrencia.
Distribución normal
Diremos que una variable aleatoria X, de tipo continuo, sigue una distribución normal de
parámetros (media) y (desviación típica).
Ji-cuadrado de Pearson
T de Student
F de Fisher-Snedecor
TEMA 2
Estimación puntual
Nos vamos a centrar en los valores de algunos parámetros poblacionales que caracterizan, en
cierta forma, la distribución.
Para ello haremos uso de los estimadores. Un estimador será una función de las variables que
componen la m.a.s. (muestra aleatoria simple: conjunto de variables aleatorias independientes
e igualmente distribuidas).
Inconveniente: No hay información sobre lo que la estimación difiere del verdadero valor del
parámetro desconocido.
Cuanto más pequeño sea el intervalo de confianza (menor amplitud) para un nivel de
confianza fijo, mejor será la estimación obtenida. Reciprocamente, dados dos intervalos de
confianza con la misma amplitud, uno constituye una estimación mejor que la que
proporciona el otro si su nivel de confianza es mayor.
Para el caso de intervalo de confianza para la media poblacional, cuando aumenta el tamaño
de la muestra, la amplitud del intervalo disminuye y cuando aumenta el nivel de confianza,
aumenta la amplitud del intervalo.
Para construir un intervalo de confianza se utiliza el método de la cantidad pivotal. Dada una
distribución F(x;θ), donde θ es un parámetro desconocido, una cantidad pivotal o pivote,
T(X1,...,Xn;θ), es una función del parámetro y de las observaciones de la muestra, cuya
distribución muestral no depende del parámetro.
El método consiste en obtener un pivote a partir del cual construir el intervalo de confianza.
2. Contrastes de Hipótesis.
Hipótesis estad́ ıstica: Afirmación o conjetura (verdadera o falsa) sobre una caracteŕıstica
desconocida de una o mas poblaciones.
Contraste o test de hipótesis: Se usa para tomar decisiones acerca de determinadas
caracteŕısticas poblacionales.
Contrastes paramétricos y contrastes no paramétricos.
Tipos de errores
Fases a seguir en un contraste de hipótesis
1. Formulación de hipótesis.
2. Obtención del estadıstico adecuado para el contraste.
3. Selección del nivel de significación (α).
4. Determinación ́n de la región crítica
5. Selección aleatoria de la muestra y cálculo del estadístico de prueba o experimental.
6. Utilizar la regla de decisión.
P-valor o valor probabiĺıstico es el menor nivel de significacion para el cual la hipótesis nula
es rechazada.
• Si P-valor ≤ α, entonces se rechaza H0 (con igualdad, se recomienda aumentar el tamaño
muestral).
• Si P -valor > α, entonces no hay evidencias para rechazar H0.
Un contraste de bondad de ajuste se emplea para verificar si una muestra aleatoria procede de
una población con una cierta distribución de probabilidad. Existen diferentes test de bondad
de ajuste. Vemos aquí el test X de Pearson:
Se utiliza para contrastar si una muestra aleatoria procede o no de una población con una
determinada distribución. Si denotamos por F(x) a dicha distribución.
Una vez distribuidos los datos muestrales en k categorías, se trata de ver la diferencia entre
las frecuencias observadas en cada categoría y las frecuencias que se esperan bajo H0.
1. Contraste de aleatoriedad
● ÉXITO
● FRACASO
2. Contraste de Normalidad
Una población
Dos poblaciones
1. ANOVA de un factor
Aunque existen muchos y muy diferentes modelos de ANOVA, puede obtenerse una
clasificación bastante simple de los mismos atendiendo a tres criterios: el número de factores,
el tipo de aleatorización utilizada y el tipo de muestreo efectuado sobre los niveles de los
factores.
Número de Factores
Se llama factor a una cualidad o propiedad según la cual se clasifican los datos objeto de
estudio.
Tipo de aleatorización
Muestreo de niveles
El objetivo del análisis de varianza es comparar las medias de varias distribuciones a partir
del estudio de la varianza.
Para poder aplicar ANOVA es necesario suponer que se verifican las hip ́otesis que se
enumeran a continuación:
1. Independencia: los individuos estudiados han de ser independientes unos de otros.
2. Aleatoriedad: las muestras de subpoblaciones o grupos estudiados deben haberse obtenido
de forma aleatoria.
3. Normalidad: las subpoblaciones o grupos que se contrastan deben seguir una distribución
Normal.
4. Homocedasticidad: igualdad de varianzas en las subpoblaciones o grupos estudiados.
ANOVA de un factor
El análisis de la varianza de un factor sirve para comparar varios grupos en una variable
cuantitativa. Se trata, por tanto, de una generalizacíon de la prueba T para dos muestras
independientes al caso de disen ̃os con ḿas de dos muestras. A la variable cateǵorica
(nominal u ordinal) que define los grupos que se desea comparar se le llama independiente
(VI) o factor. A la variable cuantitativa (de intervalo o razón) en la que se desea comparar los
grupos se le llama dependiente (VD).
Método de Scheffé
Supongamos que una vez aplicado el ańalisis de la varianza ha resultado que la hiṕotesis nula
H0 se ha rechazado, y por tanto se acepta la hiṕotesis alternativa. Pero el hecho de aceptar la
hipotesis alternativa lo unico que nos dice es que existen al menos dos medias diferentes
μi≠μj, pero no nos dice cúales son.
En esta situación podríamos pensar en analizar cada par de medias por separado para ver si
presentan diferencias significativas, utilizando para ello un test t-Student, pues σ es
desconocida, pero esto no es lo adecuado ya que nos podemos encontrar con un número
elevado de posibles contrastes y ademas se produce una acumulacion de errores de tipo I que
llega a ser bastante grande.
Para resolver esta situacion existen metodos espećıficos como por ejemplo, el metodo de
Tukey y el ḿetodo de Scheffe entre otros. El método de Tukey no es aplicable cuando los
tamaños muestrales no son iguales, por eso aqúı desarrollaremos el método de Scheffe que es
el que tiene menos restricciones.
Cuando se rechaza la hipótesis nula por Kruskal-Wallis significa que no son idénticas. Puede
interesar la diferencia y por eso hacemos el Wilcoxon-Mann Whitney para cada par de
muestras.