GL Osario

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 19

ESTADISTICA APLICADA

Glosario

SEMESTRE 2022-I
La Prueba de Anova

La prueba ANOVA o análisis de varianza es un método estadístico que permite descubrir si los
resultados de una prueba son significativos, es decir, permiten determinar si es necesario
rechazar la hipótesis nula o aceptar la hipótesis alternativa.
ANOVA es el nombre corto para Análisis de Varianza (Analysis Of Variance). También se suele
llamar one-way ANOVA o ANOVA unifactorial.

Cuándo hacer un Anova

Usamos ANOVA de un factor cuando queremos saber si las medias de una variable son diferentes
entre los niveles o grupos de otra variable. Por ejemplo, si comparamos el número de hijos entre
los grupos o niveles de clase social: los que son clase baja, clase trabajadora, clase media-baja,
clase media-alta y clase alta.
Anova de un Factor (a una vía)

El análisis de varianza (ANOVA) de un factor es un método estadístico para examinar las


diferencias en las medias de tres o más grupos.

Utilidad del Anova

Es un método estadístico que se utiliza para probar la hipótesis de que las medias de dos o más
poblaciones son iguales.

Para qué sirve el Anova

La técnica de análisis de varianza (ANOVA) también conocida como análisis factorial


y desarrollada por Fisher en 1930, constituye la herramienta básica para el estudio del efecto de
uno o más factores (cada uno con dos o más niveles) sobre la media de una variable continua.
Cómo funciona a Anova
El análisis de varianza (ANOVA) de un factor es un método estadístico para examinar las diferencias en
las medias de tres o más grupos.
El análisis de la varianza con un factor (ANOVA) permite contrastar la hipótesis nula de que las medias
de K poblaciones (K >2) son iguales, frente a la hipótesis alternativa de que por lo menos una de las
poblaciones difiere de las demás en cuanto a su valor esperado.
Cómo se calcula Anova
Se obtiene como la suma de los cuadrados de las desviaciones de la media de cada proveedor respecto
de la media general, ponderando cada diferencia al cuadrado por el número de observaciones de cada
grupo.

Por qué se llama Anova


En estadística, el análisis de la varianza (ANOVA por sus siglas en inglés, ANalysis Of VAriance) es una
colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está
particionada en ciertos componentes debidos a diferentes variables explicativas.
Uso del Anova de dos factores
Análisis de la varianza de dos vías. Es un diseño de Anova que permite estudiar simultáneamente los
efectos de dos fuentes de variación. En un Anova de dos vías se clasifica a los individuos de acuerdo
a dos factores (o vías) para estudiar simultáneamente sus efectos.

Qué es el Análisis de Regresión


El análisis de regresión es una técnica de análisis que calcula la relación estimada entre una variable
dependiente y una o varias variables explicativas.

Para qué sirve el Análisis de Regresión


Con el análisis de regresión, es posible modelar la relación entre las variables elegidas, así como
predecir valores basándose en el modelo.
Cálculo de la suma total de cuadrados
La suma de cuadrados representa una medida de variación o desviación con respecto a la media.
Se calcula como una suma de los cuadrados de las diferencias con respecto a la media. El cálculo
de la suma total de los cuadrados considera tanto la suma de los cuadrados de los factores como la
de aleatoriedad o error.

Suma de Cuadrados Total (SCT)


Su fórmula de cálculo es la siguiente:
Yi = Valores reales u observados de la variable que intenta explicar el modelo.
Yi* = Valores Estimados de la variable que intenta explicar el modelo.
ȳ = Valor medio de la la variable y.
STC = SCR + SCE.
∑(Yi - ȳ)2 =∑(Yi –Y*)2 +∑(Y*- ȳ)2
STC = Suma total de cuadrados.
El Diseño de Tratamientos

Diseño de tratamientos es la selección de los factores a estudiar, sus niveles y la combinación de


ellos. El diseño de tratamientos es independiente del diseño experimental que indica la manera en
que los tratamientos se aleatorizan a las diferentes u.e. y las formas de controlar la variabilidad
natural de las mismas.

Tratamiento

Conjunto de acciones que se aplican sobre las unidades experimentales y que son objeto de
comparación. El término error experimental se refiere a la diferencia entre el valor observado de la
variable respuesta sobre una unidad experimental y su valor esperado (de acuerdo a un modelo).

¿Qué pasa si no se cumplen los supuestos del Anova?

Cuando los datos no cumplen con estos supuestos disminuye la capacidad de detectar efectos reales
(afecta al p-valor, al tamaño del efecto y a los intervalo de confianza estimados). Toda la
interpretación de tus datos puede ser errónea.
SC = Suma de cuadrados

Calculo de la SCTR: SCTR= Suma de cuadrados de los tratamientos.


Calculo de la SCBL: SCBL= Suma de cuadrados de los bloques.
Calculo de la SCE: SCE=Suma de Cuadrados de Error (SCE)
Calcula la suma de los errores al cuadrado de la función de predicción.
SCE = SCT - SCTR – SCBL
El promedio resultante de cada tratamiento, es decir, de cada columna se resta de la gran media.
Sus grados de libertad son el número de tratamientos menos la unidad gl=c-1.

SCT = SCTR + SCBL + SCE.


𝑟 𝑘 𝑘 𝑟 𝑟 𝑘
2
෍ ෍(𝑥𝑖𝑗 − 𝑥)ҧ 2 = ෍ 𝑟𝑗 (𝑥𝑗ҧ − 𝑥)Ӗ 2 + ෍ 𝑘𝑖 𝑥ҧ 𝑖 − 𝑥Ӗ 2 + ෍ ෍ 𝑥𝑖𝑗 − 𝑥𝑗ҧ
𝑖=1 𝑗=1 𝑗=1 𝑖=1 𝑖=1 𝑗=1
¿Qué pasa si no se cumplen los supuestos del Anova?

Cuando los datos no cumplen con estos supuestos disminuye la capacidad de detectar efectos
reales (afecta al p-valor, al tamaño del efecto y a los intervalo de confianza estimados). Toda la
interpretación de tus datos puede ser errónea.

El valor de F en Anova
El ANOVA utiliza la prueba F para determinar si la variabilidad entre las medias de los
grupos es mayor que la variabilidad de las observaciones dentro de los grupos. Si ese cociente es lo
suficientemente grande, se puede concluir que no todas las medias son iguales.

Suma de Cuadrados de Error (SCE)


Calcula la suma de los errores al cuadrado de la función de predicción.
El diseño Experimental de Estimación

El diseño experimental es una técnica estadística. Esta consiste en manipular intencionalmente la


variable independiente de un modelo para observar y medir sus efectos en la variable dependiente.
Qué pasa si un supuesto del análisis de regresión no se cumple, si no se cumplen esos supuestos,
tendrás igualmente una bonita recta que ajusta más o menos los datos (de hecho, tendrás la
recta que mejor ajusta esos datos), pero no podrás concluir muchas cosas sobre la bondad del ajuste
o la significatividad del término independiente o las pendientes de los factores.

Cuando no hay homocedasticidad


Si un modelo no cumple el supuesto de homocedasticidad, entonces sus errores tienen
heterocedasticidad y se presenta lo siguiente: Existencia de errores en los cálculos de las matrices
correspondientes a los estimadores. Se pierde eficiencia y fiabilidad del modelo.
Causas frecuentes de ausencia de homocedasticidad. Esto generalmente ocurre cuando se ha
dispuesto arbitrariamente el orden de las observaciones generando, casualmente, que existan
observaciones con grandes valores en una determinada variable explicativa y lo mismo con valores
pequeños de esta misma variable.
Diferencia entre la varianza de una vía con la varianza de dos vías
El ANOVA de una vía compara tres o más niveles (condiciones) de un factor. Por otro lado, ANOVA
de dos vías compara el efecto de múltiples niveles de dos factores. En ANOVA de una vía, el
número de observaciones no tiene que ser igual en cada grupo, mientras que debe ser igual en el
caso de ANOVA de dos vías.

Para qué sirve la distribución F Fisher

En teoría de probabilidad y estadística, la distribución F, también conocida como distribución de


Fisher-Snedecor (nombrada por Ronald Fisher y George Snedecor), es una distribución
de probabilidad continua, aparece frecuentemente como la distribución nula de una prueba
estadística, especialmente en el análisis de varianza.

¿Qué es el estadístico de prueba?


Un estadístico de prueba es una variable aleatoria que se calcula a partir de datos de muestra y se
utiliza en una prueba de hipótesis. Puede utilizar los estadísticos de prueba para determinar si
puede rechazar la hipótesis nula. El estadístico de prueba compara sus datos con lo que se espera
bajo la hipótesis nula.
Qué es un valor crítico
Un valor crítico es un punto en la distribución del estadístico de prueba bajo la hipótesis nula que
define un conjunto de valores que apoyan el rechazo de la hipótesis nula. ... Por lo general, las
pruebas unilaterales tienen un valor crítico y las pruebas bilaterales tienen dos valores críticos.

Características de la distribución F
F tiene valores no negativos; es igual a cero o positiva. F es asimétrica; está sesgada a la derecha.
Existen muchas distribuciones F, de manera semejante a las distribuciones t.

El valor crítico de F
El valor crítico de la prueba F es una prueba estadística científica para determinar la distribución de
datos en virtud de la teoría del valor predeterminado, y es la forma en que los datos se estructuran
sobre la base de la hipótesis de los estándares corrientes.

El r2 en estadística
Es el coeficiente de determinación, que permite calcular el cuadrado de r, el coeficiente de
correlación producto-momento de Pearson de un conjunto de datos.
¿Cuándo se cumple la homocedasticidad?
La homocedasticidad en un modelo estadístico predictivo ocurre si en todos los grupos de datos
de una o más observaciones, la varianza del modelo respecto de las variables explicativas (o
independientes) se mantiene constante.

¿Qué es heterocedasticidad y homocedasticidad?


La heterocedasticidad es, en estadística, cuando los errores no son constantes a lo largo de toda la
muestra. El término es contrario a homocedasticidad.

¿Qué es Adeva?
Es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza
está particionada en ciertos componentes debidos a diferentes variables explicativas.
Cuál de las siguientes afirmaciones son verdaderas y cuales son falsas:

La sumatoria de la desviación Explicada es menor a cero ∑(Y*- ȳ)<0


La sumatoria de la desviación total es igual a cero ∑(Yi - ȳ)=0
La sumatoria de la desviación de Regresión es inferior a cero ∑(Yi –Y*)<0
La sumatoria de la desviación Explicada es diferente a cero ∑(Y*- ȳ)≠0
La sumatoria de la desviación de Regresión es igual a cero ∑(Yi –Y*)=0
La sumatoria de la desviación total es mayor a cero ∑(Yi - ȳ)>0
La sumatoria de la desviación de Regresión es diferente a cero ∑(Yi –Y*)≠0
La sumatoria de la desviación total es menor e igual a cero ∑(Yi - ȳ) ≤ 0
La sumatoria de la desviación Explicada es mayor a cero ∑(Y*- ȳ)>0
La sumatoria de la desviación de Regresión es mayor e igual a cero ∑(Yi –Y*)≥0
La sumatoria de la desviación Explicada es igual a cero ∑(Y*- ȳ)=0
La sumatoria de la desviación total es distinto a cero ∑(Yi - ȳ) ≠0
Cuál de las siguientes afirmaciones son verdaderas y cuales son falsas:

La SCR es menor a la SCE ∑(Y*- ȳ)2 < ∑(Yi –Y*)2


La SCT es mayor a la SCR ∑(Yi - ȳ)2 > ∑(Yi –Y*)2
La SCE es menor que la SCR ∑(Yi –Y*)2 < ∑(Y*i –- ȳ)2
La SCR es mayor que la SCE ∑(Y*- ȳ)2 > ∑(Yi - ȳ)2
La SCR es menor que la SCT ∑(Y*- ȳ)2 < ∑(Yi –ȳ)2
෡ ) + (𝒀
ഥ ) = (𝒀𝒊 - 𝒀
(𝒀𝒊 - 𝒚 ෡-𝒚
ഥ) ෡ ) = (𝒀𝒊 - 𝒚
(𝒀𝒊 - 𝒀 ෡-𝒚
ഥ ) + (𝒀 ഥ)

෡-𝒚
(𝒀 ഥ) = (𝒀𝒊 - 𝒚 ෡)
ഥ ) = (𝒀𝒊 - 𝒀 ෡ ) = ∑(𝒀𝒊 - 𝒚
∑(𝒀𝒊 - 𝒀 ෡-𝒚
ഥ ) + ∑(𝒀 ഥ)
෡ ) = ∑(𝒀𝒊 - 𝒚
∑(𝒀𝒊 - 𝒀 ෡-𝒚
ഥ ) + ∑(𝒀 ഥ) ෡-𝒚
∑(𝒀 ഥ) = ∑(𝒀𝒊 - 𝒚 ෡)
ഥ ) = ∑(𝒀𝒊 - 𝒀

෡ )2 = ∑(𝒀𝒊 - 𝒚
∑(𝒀𝒊 - 𝒀 ෡-𝒚
ഥ )2 + ∑(𝒀 ഥ )2 ෡-𝒚
∑(𝒀 ഥ)2 = ∑(𝒀𝒊 - 𝒚 ෡ )2
ഥ )2 = ∑(𝒀𝒊 - 𝒀

෡ )2 = ∑(𝒀𝒊 - 𝒚
∑(𝒀𝒊 - 𝒀 ෡-𝒚
ഥ )2 + ∑(𝒀 ഥ )2 ෡ )2 = ∑(𝒀𝒊 - 𝒚
∑(𝒀𝒊 - 𝒀 ෡-𝒚
ഥ )2 - ∑(𝒀 ഥ )2
෡ )2 = ∑(𝒀𝒊 - 𝒚
∑(𝒀𝒊 - 𝒀 ෡-𝒚
ഥ )2 - ∑(𝒀 ഥ )2 ෡-𝒚
∑(𝒀 ഥ)2 = ∑(𝒀𝒊 - 𝒚 ෡ )2
ഥ )2 - ∑(𝒀𝒊 - 𝒀
Identifique el significado del coeficiente de correlación de Pearson: de

R= -0.9824 es una correlación inversa grande y perfecta.


R= 0.71927 es una correlación positiva alta
R= -0.59203 es una correlación negativa moderada.
R= 0.22717 es una correlación inversa baja
R= 0.6999 es una correlación directa alta.
R= 0.00007 es una correlación indefinida.
R= 0.9824 es una correlación positiva grande y perfecta.
R= -0.71927 es una correlación inversa alta
R= -0.59203 es una correlación negativa moderada.
R= 0.52717 es una correlación directa moderada
R= - 0.6999 es una correlación directa alta.
R= 0.899901 es una correlación positiva grande y perfecta.
( ) ∑(Yi - ȳ)2 = SCT Suma de cuadrados total

( ) ∑(Yi - ȳ)2 = SCR Suma de cuadrados de regresión

( ) La suma de cuadrados representa una medida de desviación con respecto a la media.

( ) Se calcula como el cuadrados de las diferencias con respecto a la media.

( ) ∑(Yi - ȳ)2 = SCE Suma de cuadrados de error

( ) ∑(Yi –Y*)2 = SCR Suma de cuadrados de regresión

( ) ∑(Yi –Y*)2 = SCT Suma de cuadrados total

( ) ∑(Yi –Y*)2 = SCE Suma de cuadrados de error

( ) ∑(Y*- ȳ)2 = SCE Suma de cuadrados de error

( ) ∑(Y*- ȳ)2 = SCT Suma de cuadrados total


( ) ∑(Y*- ȳ)2 = SCR Suma de cuadrados de regresión

( ) σ𝑘𝑗=1 𝑟𝑗 (𝑥𝑗ҧ − 𝑥)Ӗ 2 SCTR = Suma de cuadrados de los tratamientos.

( ) σ𝑘𝑖=1 𝑘𝑖 𝑥ҧ𝑖 − 𝑥Ӗ 2 SCBL = Suma de cuadrados de los bloques.

2
( ) σ𝑟𝑖=1 σ𝑘𝑗=1 𝑥𝑖𝑗 − 𝑥𝑗ҧ SCE = Suma de Cuadrados de Error (SCE)

2
( ) σ𝑟𝑖=1 σ𝑘𝑗=1 𝑥𝑖𝑗 − 𝑥ҧ SCE = Suma de Cuadrados de Error (SCE)
MUCHAS
GRACIAS

También podría gustarte