Estadistica Curso Ing. Alimentos Analisis Sensorial

Descargar como ppt, pdf o txt
Descargar como ppt, pdf o txt
Está en la página 1de 73

INFERENCIA ESTADÍSTICA

Una de las aplicaciones de la estadística es extraer inferencias en poblaciones a


partir del estudio de muestras. Este proceso recibe el nombre de Estadística
Inferencial y sus estudios pretenden deducir (inferir) propiedades o características
de una población a partir de una muestra representativa.
En la inferencia destaca como uno de los aspectos principales la estimación de
parámetros estadísticos. Por ejemplo, para averiguar la media de las estaturas de
todos los adolescentes de 14 años, se extrae una muestra y se obtiene su media.
La media de la muestra (media muestral) será un estimador de la media
poblacional. Si el proceso de muestreo está bien realizado (es decir, la muestra
dispone del tamaño adecuado y ha sido seleccionada aleatoriamente), entonces el
valor de la media poblacional, desconocido, puede ser inferido a partir del valor de
la media muestral.
Otro de los aspectos que permite hacer la inferencia es determinar si existe o no
asociación entre diferentes variables. Para realizar este proceso se suele partir de
hipótesis, es decir, de unas suposiciones cuya validez cabe confirmar o rechazar. Y
para llevar a cabo esta comprobación aplicamos unas pruebas estadísticas o tests,
que permiten contrastar la veracidad o falsedad de las hipótesis enunciadas desde
el punto de vista estadístico. Este tipo de pruebas se clasifican en
pruebas paramétricas y pruebas no paramétricas.
1
Test de Hipótesis
Muchas veces el problema en el que se enfrenta un científico o
ingeniero, no es tanto la estimación de parámetros sino mas bien
en el poder o procedimiento de tomar una decisión acerca de una
conjetura o hipótesis y en base a la información que se tiene de
una muestra tomar la decisión de aceptar o rechazar dicha
hipótesis. Por ejemplo un medico debe tomar la decisión sobre la
base de una experiencia si tomar café disminuye el cáncer de
pulmón o un ingeniero sobre la base de los datos que se tiene,
debe tomar la decisión si hay diferencia por ejemplo entre la
media de dos tipos de mediciones. En ambos casos se postula
una hipótesis y en base a la información que se tiene en la
muestra tanto el medico como si el ingeniero tendrán que ser
capases de tomar una decisión de aceptar o rechazar la conjetura
o hipótesis planteada.
2
Test de Hipótesis

O sea que otra manera de hacer inferencia es


haciendo una afirmación acerca del valor que
el parámetro de la población bajo estudio
puede tomar. Esta afirmación puede estar
basada en alguna creencia o experiencia
pasada que será contrastada con la evidencia
que nosotros obtengamos a través de la
información contenida en la muestra. Esto es a
lo que llamamos Prueba de Hipótesis
3
Test de Hipótesis

ELEMENTOS DE UN TEST DE HIPOTESIS

• HIPOTESIS NULA
• HIPOTESIS ALTERNATIVA
• PRUEBA ESTADISTICA
• REGION DE RECHAZO

4
La Hipótesis Nula, denotada como H0 siempre
especifica un solo valor del parámetro de la
población si la hipótesis es simple o un conjunto de
valores si es compuesta (es lo que queremos
desacreditar)

La Hipótesis Alternativa, denotada como H1 es la


que responde nuestra pregunta, la que se establece
en base a la evidencia que tenemos.

5
Test de Hipótesis

Como las conclusiones a las que lleguemos se


basan en una muestra, hay posibilidades de que nos
equivoquemos.
Dos decisiones correctas son posibles:
Rechazar H0 cuando es falsa
No Rechazar H0 cuando es verdadera.
Dos decisiones incorrectas son posibles:
Rechazar H0 cuando es verdadera
No Rechazar H0 cuando es falsa.
6
Test de Hipótesis

Tamaño de los errores al tomar una decisión


incorrecta en una Prueba de Hipótesis
Ho VERDADERA HO FALSA

RECHAZAMOS HO ERROR TIPO I DECISIÓN CORRECTA


P(ERROR TIPO I) = α

ERROR TIPO Ii
NO RECHAZAMOS HO DECISIÓN CORRECTA P(ERROR TIPO I) = β

7
Test de Hipótesis

La Probabilidad de cometer un error Tipo I se


conoce como Nivel de Significancia, se
denota como α y es el tamaño de la región de
rechazo El complemento de la región de
rechazo es 1−α y es conocido como el
Coeficiente de Confianza En una prueba de
Hipótesis de dos colas la región de no rechazo
corresponde a un intervalo de confianza para
el parámetro en cuestión
8
Test de Hipótesis

La Región de Rechazo es el conjunto de valores


tales que si la prueba estadística cae dentro de este
rango, decidimos rechazar la Hipótesis Nula Su
localización depende de la forma de la Hipótesis
Alternativa:

9
Test de Hipótesis
HIPOTESIS QUE SE PLANTEAN EN FORMA GENERAL:
HIPOTESIS UNILATERALES
H 0 :    0
A) RECHAZO H 0 SI Z obs   Z critico
 H1 :    0
H 0 :    0
B) RECHAZO H 0 SI Z obs  Z critico
 H1 :    0
HIPOTESIS BILATERAL
H 0 :    0
C ) RECHAZO H 0 SI Z obs  Z critico
 H1 :    0
Z obs  Estadístic o de prueba en la cual nos basamos para tomar una decisión
ˆ   0
donde : Z obs  y Z criticovalor de tabla
 ˆ
10
Test de Hipótesis

CASO A:

11
Test de Hipótesis

GRAFICAMENTE:
CASO B:

12
Test de Hipótesis

CASO C:

13
Test de Hipótesis

Conclusiones de una Prueba de Hipótesis

Si rechazamos la Hipótesis Nula, concluimos que


“hay suficiente evidencia estadística para inferir
que la hipótesis nula es falsa”

Si no rechazamos la Hipótesis Nula, concluimos que


“no hay suficiente evidencia estadística para
inferir que la hipótesis nula es falsa”

14
Test de Hipótesis
PASOS A SEGUIR EN UN TEST DE HIPOTESIS

1 - DEFINIR LA HIPOTESIS
2 - ESTABLECER EL ESTADISTICO DE PRUEBA
3 – DEFINIR EL NIVEL DE SIGNIFICACIÓN DE
PRUEBA
4 - CALCULAR EL ESTADISTICO DE PRUEBA
5 – DECIDIR SI SE RECHAZA O NO HO
6 – CONCLUIR EN TERMINOS DEL CONTEXTO
DEL PROBLEMA.
15
DEFINICIÓN DEL P-VALOR

• “El valor p es una probabilidad, y así es como se calcula”.


• El valor p (p-value) se puede definir como el menor nivel
de significación al que se puede rechazar una hipótesis
nula cuando es verdadera.
• El avance de la tecnología permitió que los paquetes
estadísticos reportaran el valor p.
• El investigador podrá fijar de antemano el nivel de
significación 0.05 ó 0,01, y con el resultado que reporta el
soft decidir sobre el rechazo, o no, de la hipótesis nula.
• Si el p-valor es menor a 0.05 ó menor a 0.01 según se
fije el nivel de significación, entonces se rechaza la
hipótesis nula por el contrario si el p-valor es mayor
que 0.05 ó 0,01 no se rechaza la hipótesis nula.
16
TESTS PARA LA DIFERENCIA DE MEDIAS DE DOS
POBLACIONES

La prueba de hipótesis sobre de igualdad de medias es uno de las


aplicaciones más usadas por los investigadores. En esta clase
veremos procedimientos para contrastar si las diferencias numéricas
obtenidas al comparar dos tratamientos (o dos poblaciones) son lo
suficientemente grande como para que su única causa se deba al
azar. Este tipo de prueba se suele usar cuando se elige una muestra
de individuos que han seguido cierto tratamiento ( por ejemplo un
placebo ) y otra muestra que ha recibido otro tratamiento por ejemplo (
un fármaco de prueba ) Dependiendo de como se constituyan ambas
muestras, clasificamos el experimento en dos clases:
1- Muestras Independientes: Cuando puede suponerse que los
individuos en un grupo de tratamiento, han sido extraídos
independientemente de los del otro.
2- Muestras Apareadas: Cuando para cada observación de un grupo,
tenemos una observación asociada en el segundo grupo.
17
MUESTRAS INDEPENDIENTES
Sirven para tratar el problema como el de si el nivel de
hierro es similar en los individuos que padecen,
determinada enfermedad frente a los individuos sanos. Para
ello podríamos elegir una muestra de individuos enfermos y
otra de individuos sanos y comparar si los valores de una
muestra, tienen tendencia a ser mayores que los de la otra.
Otro ejemplo sería: querer saber si hay alguna evidencia de
que un aumento en la cantidad de Calcio en la dieta puede
reducir la presión sanguínea. En un experimento médico un
grupo de hombres recibió diariamente un suplemento de
calcio, mientras el grupo control recibió un placebo. y
comparar si los valores que recibieron la dieta, tienen
tendencia a ser distintos que los que recibieron el placebo.
O bien se esta interesado en estudiar si el salario mensual
promedio es diferente entre las mujeres que los hombres 18
En los contrastes para muestras independientes:
Se especifica una hipótesis nula (H0), en la mayoría de los casos se
propone que las medias de las dos poblaciones son iguales y se
establece la hipótesis alternativa (H1) de que son diferentes.
Hay varias formas de realizar este tipo de contrastes:
1- La prueba t-Student para dos muestras. Se basa en contrastar
si las medias de los dos grupos son similares. Este tipo de
contraste es válido cuando se da alguna de las siguientes
condiciones:
 Las varianzas son similares y las observaciones de cada
muestras son normales e independientes.
Las varianzas son similares y los tamaños de muestras son
grandes .
Hay diferencias notables entre las varianzas de cada grupo,
pero los tamaños de cada muestra son similares y además la
muestras son grandes o aproximadamente normales.
2- Cuando no se cumplen cualquiera de los supuestos
mencionados anteriormente se utilizan transformaciones en los 19

datos o pruebas no parámetricas.


EJEMPLO: RENDIMIENTO LECHERO DE VACAS
Supongamos una población definida de la siguiente
manera: VACAS DE UNA DETERMINADA RAZA
LECHERA DE CIERTA EDAD. El objetivo de la
investigación consiste en comparar los efectos de dos
dietas distintas sobre el rendimiento lechero diario de las
vacas en cuestión. La investigación se lleva a cabo en un
campo experimental del INTA donde se cuenta con un
rodeo de 500 vacas con estas características. Para
efectuar la experiencia el investigador toma una muestra
de 20 vacas y asigna aleatoriamente 10 vacas a cada una
de las dietas en estudio. Después de un período
considerable, mide la producción lechera diaria de cada
vaca con el objetivo de determinar si existe diferencia
entre los promedios de producción lechera para los dos
grupos considerados. Supongamos que la producción
lechera de las 10 vacas sometidas a cada una de las
dietas en un día en particular fue la siguiente:
20
TABLA DE DATOS
DIETA A DIETA B
25 22
25 20
28 22
24 23
25 18
27 25
27 23
28 21
25 24
24 21
21
SUPUESTOS

1 LAS VARIABLES DEBEN SER NO CORRELACIONADAS

2 LAS VARIANZAS DEBEN SER IGUALES PARA LOS DOS


GRUPOS Y LAS MUESTRAN DEBEN SER NORMALES

que se cumpla la igualdad o no de las varianzas en los dos grupos,


es importante, pues los resultados no serán iguales en ambos
casos. Si asumimos igualdad de varianzas podremos calcular un
estimador único y más estable de la varianza poblacional a partir de
las varianzas muestrales. Si las varianzas no son iguales no
podremos hacer esto. El procedimiento Comparar medias realiza
automáticamente un test de hipótesis para la igualdad de las
varianzas.
Cuando no se cumplen estos 2 supuestos se aplican test no
paramétricos que se verán en el ultimo modulo de este curso
22
23
TABLA DE DATOS
DIETA A DIETA B
25 22
25 20
28 22
24 23
25 18
27 25
27 23
28 21
25 24
24 21
24
EN STATGRAPHICS SERA:
SNAPSTAT COMPARAR DOS MUESTRAS
EN MUESTRA 1 PONEMOS DIETA A
EN MUESTRA 2 PONEMOS DIETA B

25
SnapSt at: Comp aración d e D os M uest ras
DIET A A
DIET A A DIET A B
Re cuent o 10 10 4
Promedio 25,8 21,9
De sviación Est ándar 1,54919 2,02485
Co eficiente de Variación 6,00463% 9,24587%
M ínimo 24 18 2
M áximo 28 25
Rango 4 7
Sesgo Est andarizado 0,532407 -0,559823
0

4
17 19 21 23 25 27 29
DIET A B

Gráfico Caja y B igot es


Intervalos de conf ianza d el 95%
Dif . de medias: 3,9 +/- 1,69382 [2,20618; 5,59382]
Razón de varianzas: [0,145397; 2,35668]
Co mparación de Med ias
DIET A A
Hipót esis N ula: difer encia = 0
estadístico t = 4,83735 Valor-P B ilateral = 0,0001 Hipotesis C
Co mparación de Sigmas
Hipót esis N ula: razón = 1
Est adíst ico F = 0,585366 Valo r-P B ilat eral = 0,4372 Hipotesis B
DIET A B
Diagnóst icos
Valores-P Shapiro-Wilk = 0,0582 y 0,9511 Hipotesis A

18 20 22 24 26 28

Gráfico de Cuantiles Gráfico de Probabilid ad Normal


proporción

1 99,9 Variables

porcentaje
DIET A A
99 DIET A B
0,8
95
80
0,6
50
0,4
20
5
0,2
1
0 0,1
18 20 22 24 26 28 18 20 22 24 26 28

26
ACTIVIDAD 6: Supongamos que se desea
comparar el efecto de dos dietas. Es decir queremos
saber si el cambio de peso (kg. adelgazados) de
distintas personas obesas, que han seguido o bien
la dieta 1 o bien la dieta 2, depende de la dieta
seguida por cada uno.

DIETA 1: 19 28 17 15 16 2 27 18 15 10 10 2 12 13
19 9 29 35 38
DIETA 2: 23 23 5 14 22 20 4 12 18 33 19

27
SnapStat: Comp aración d e D os Muestras
1
Datos/Variable: PESO
DIET A=1 DIET A=2 3
Re cuento 19 11
Promedio 17,5789 17,5455
De sviación Estándar 9,98508 8,43046 2
Co eficiente de Variación 56,8013% 48,0493%
Mínimo 2 4
Máximo 38 33 1
Rango 36 29
Sesgo Estandarizado 0,876181 -0,152679 0

3
0 10 20 30 40
2

Gráfico Caja y B igotes


Intervalos de confianza d el 95%
Dif. de medias: 0,0334928 +/- 7,34109 [-7,3076; 7,37458]
Razón de varianzas: [0,406215; 4,02099]
Co mparación de Med ias
Hipótesis N ula: difer encia = 0
1 estadístico t = 0,00934562 Valor-P Bilateral = 0,9926
Co mparación de Sigmas
Hipótesis N ula: razón = 1
Estadístico F = 1,40281 Valor-P Bilate ral = 0,5951
Diagnósticos
2 Valores-P Shapiro-Wilk = 0,3934 y 0,6395
Autocorrelación en R etraso 1 = 0,3570 +/- 0,4496, 0,0982 +/- 0,5910

0 10 20 30 40
PESO

Gráfico de Cuantiles Gráfico de Probabilid ad Normal

1 99,9 DIET A
1
99 2
0,8 95
80
0,6
50
0,4
20
5
0,2
1
0 0,1
0 10 20 30 40 0 10 20 30 40
28
PESO PESO
Análisis de la varianza de un factor
• Supongamos que tenemos K poblaciones y queremos
comparar un determinado parámetro en cada una de
ellas. Dicho parámetro se modelará, para cada una de las
poblaciones, como una variable aleatoria. Llamaremos a
las correspondientes medias poblacionales para cada
población.
• De cada población extraemos una muestra aleatoria de
tamaño , respectivamente. Denominaremos al valor de
la observación j-ésima en la población i-ésima. Así, y .
La hipótesis nula que deseamos contrastar es la de
igualdad de medias poblacionales, es decir,

H 0 : 1   2  3   4  5
H1 : i   j de que alguna de las medias sea distinta
29
TABLA DE ANALISIS DE VARIANZA

Fuente de Suma de Grados de Cuadrados F0


Variación Cuadrados Libertad Medios

Entre
Tratamientos K-1 CMG CMG
SCG
CMD

Error
(Dentro de N-K CMD
Tratamientos) SCD

Total N-1
SCT

30
Con:

Denominados suma de cuadrados entre , dentro y total respectivamente

Denominados cuadrados medios entre y dentro respectivamente

F tiene una distribución F con K-1 grados de libertad en el numerador


y n – K grados de libertad en el denominador

Estadístico de prueba 31
Supuestos del ANOVA

• Observaciones Independientes.
• Distribución Normal.
• Varianzas Homogéneas.

32
Independencia de las Observaciones

• Con el fin de obtener inferencias válidas, resulta importante


determinar si los errores se encuentran correlacionados.

• El supuesto más importante es la independencia de las


observaciones, pues si no hubo asignación aleatoria de
tratamientos a unidades experimentales, entonces los resultados
pueden incluir un efecto persistente de factores no considerados en
el análisis. Esto invalida el experimento

33
Normalidad

• No es tan importante como la Independencia de las


Observaciones, pues el ANOVA es robusto. Esto
quiere decir que, aunque las observaciones no sean
normales, las medias de los tratamientos son
aproximadamente normales debido al Teorema
Central del Limite.

• Ante la falta de normalidad se puede optar por el uso


de transformaciones o, como último recurso, el uso de
métodos no paramétricos.

34
Homogeneidad de varianzas

• Esta prueba resulta fundamental, pues cualquier situación de


heterogeneidad de las varianzas invalida las inferencias
realizadas.

• Cuando existe el problema de heterogeneidad de varianzas,


lo apropiado es emplear transformaciones o métodos no
paramétricos.

35
36
ANALISIS DE VARIANZA
Un Ejemplo: En una determinada fábrica de galletas se desea saber
si las harinas de sus cuatro proveedores producen la misma
viscosidad en la masa. Para ello, produce durante un día 16 masas,
4 de cada tipo de harina, y mide su viscosidad (m2/s). Los
resultados obtenidos son:

Proveedor A Proveedor B Proveedor C Proveedor D


88 85 92 96
97 80 90 92
92 79 97 95
90 81 99 98

37
EN STATGRAPHICS SERA:
COMPARAR ANALISIS VARIANZA ANOVA
SIMPLE
EN VARIABE DEPENDIENTE PONEMOS VISCOCIDAD
EN FACTOR PONEMOS PROVEEDOR
LUEGO HCEMOS CLIC EN:
RESUMEN ESTADISTICO
TABLA ANOVA
TABLA MEDIAS
PRUEBA MULTIPLES RANGOS
VERIFICACION VARIANZA
GRAFICO MEDIAS
GRAFICO CAJA Y BIGITES
GRAFICA DE RESIDUOS
38
39
40
Tabla de Medias para viscosidad por proveedor con intervalos de confianza del
95,0%
Error Est.
proveedor Casos Media (s agrupada) Límite Inferior Límite Superior
A 4 91,75 1,69097 88,1893 95,3107
B 4 81,25 1,69097 77,6893 84,8107
C 4 94,5 1,69097 90,9393 98,0607
D 4 95,25 1,69097 91,6893 98,8107
Total 16 90,6875

41
TABLA DEL ANOVA
Tabla ANOVA para viscosidad por proveedor
Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P
Entre grupos 502,188 3 167,396 14,64 0,0003
Intra grupos 137,25 12 11,4375
Total (Corr.) 639,438 15

Como el p-valor = 0,003 es menor al 5% concluimos que hay diferencia entre los proveedores al 5%,
lo que no sabemos es quien con quien

42
COMPARACIONES MULTIPLES O
TEST APOSTERIORI
• TEST DE TUKEY
• TEST DE SCHEFFÉ
• TEST DE DUNCAN SI SE COMPARA CON UN
CONTROL
• TEST DE DUNNETT
• TEST DE NEWMAN-KEULS
• TEST DE BONFERRONI
• TEST LSD

¿Qué método usar? 43


COMPARACIONES MULTIPLES
METODO LSD

Pruebas de Múltiple Rangos para viscosidad por proveedor

Método: 95,0 porcentaje LSD


proveedor Casos Media Grupos Homogéneos
B 4 81,25 X
A 4 91,75 X
C 4 94,5 X
D 4 95,25 X

Contraste Sig. Diferencia +/- Límites


A-B * 10,5 5,2104
A-C -2,75 5,2104
A-D -3,5 5,2104
B-C * -13,25 5,2104
B-D * -14,0 5,2104
C-D -0,75 5,2104
* indica una diferencia significativa.

44
METODO DE TUCKEY

Pruebas de Múltiple Rangos para viscosidad por proveedor

Método: 95,0 porcentaje Tukey HSD


proveedor Casos Media Grupos Homogéneos
B 4 81,25 X
A 4 91,75 X
C 4 94,5 X
D 4 95,25 X

Contraste Sig. Diferencia +/- Límites


A-B * 10,5 7,12144
A-C -2,75 7,12144
A-D -3,5 7,12144
B-C * -13,25 7,12144
B-D * -14,0 7,12144
C-D -0,75 7,12144
* indica una diferencia sign

45
COMPROBACIÓN DE LA IDONEIDAD
DEL MODELO
Verificación de Varianza
Prueba Valor-P
Levene's 1,01578 0,419763

Comparación Sigma1 Sigma2 F-Ratio P-Valor


A/B 3,86221 2,62996 2,15663 0,5441
A/C 3,86221 4,20317 0,84434 0,8927
A/D 3,86221 2,5 2,38667 0,4936
B/C 2,62996 4,20317 0,391509 0,4615
B/D 2,62996 2,5 1,10667 0,9356
C/D 4,20317 2,5 2,82667 0,4162

SE CUMPLE LA HOMOGENEIDAD DE LAS VARIANZAS Y Y ADEMAS LA COMPARACION DE


LOS ERRORES ESTANDARES O DESVIOS PARA CADA PAR DE MUESTRAS NO ES
SIGNIFICATIVA

46
LOS RESIDUOS SON INDEPENDIENTES Y CON VARIANZA CONSTANTE
47
• PARA VERIFRICAR EL SUPUESTO DE
NORMALIDAD HACEMOS:
GRAFICOS GRÁFICOS EXPLORATORIOS
GRAFICO DE PROBABILIDAD NORMAL
EN DATOS PONGO VISCOCIDAD
Resumen Estadístico para viscocidad
Recuento 16
Promedio 90,6875
Mediana 92,0
Desviación Estándar 6,5291
Coeficiente de Variación 7,19956%
Mínimo 79,0
Máximo 99,0
Rango 20,0
Sesgo Estandarizado -0,994632
Curtosis Estandarizada -0,629979

48
Gráfico de Probabilidad Normal
con 95% límites

99,9
n:16
99 Media:90,6875
Sigma:6,5291
95
W:0,913784
P:0,1339
80
porcentaje

50

20

5
1

0,1
79 83 87 91 95 99
viscocidad

49
Otro ejemplo:
Tres grupos de seis cerdos de guinea fueron
inyectados, respectivamente con 0,5 mg, 1,0 mg y
1,5 mg de un nuevo tranquilizante y las siguientes
cifras son los tiempos en minutos que tardaron en
dormirse
0,5 mg: 21, 23, 19, 24, 25, 23
1,0 mg: 19, 21, 20, 18, 22, 20
1,5 mg: 15, 10, 13, 14, 11, 15
¿Hay diferencia entre las dosis aplicadas al 5% de
significación? Verifique los supuestos de
normalidad del modelo planteado.
50
GRAFICOS

GRAFICO DE MEDIAS
26

23
TIEMPO

20

17

14

11
0,5 1,0 1,5
TRATAMIENTO

51
Gráfico de Cajas y Bigotes
25

22
TIEMPO

19

16

13

10
0,5 1,0 1,5
TRATAMIENTO

52
TABLA DEL ANOVA
Tabla ANOVA para TIEMPO según TRATAMIENTO

Análisis de la Varianza
------------------------------------------------------------------------------
Fuente Sumas de cuad. Gl Cuadrado Medio Cociente-F P-Valor
------------------------------------------------------------------------------
Entre grupos 291,0 2 145,5 39,32 0,0000
Intra grupos 55,5 15 3,7
------------------------------------------------------------------------------
Total (Corr.) 346,5 17

Como el p-valor es menor al 5% hay diferencia entre los tratamientos

53
CONTRASTES MULTIPLES
Contraste Múltiple de Rango para TIEMPO según TRATAMIENTO

--------------------------------------------------------------------------------
Método: 95,0 porcentaje HSD de Tukey
TRATAMIENTO Frec. Media Grupos homogéneos
--------------------------------------------------------------------------------
1,5 6 13,0 X
1,0 6 20,0 X
0,5 6 22,5 X
--------------------------------------------------------------------------------
Contraste Diferencias +/- Límites
--------------------------------------------------------------------------------
0,5 - 1,0 2,5 2,89688
0,5 - 1,5 *9,5 2,89688
1,0 - 1,5 *7,0 2,89688
--------------------------------------------------------------------------------
* indica una diferencia significativa.

54
VERIFICACION DE LOS SUPUESTOS
DE NORMALIDAD DE LOS RESIDUOS

Gráfico de Residuos para TIEMPO


4,5

2,5
residuo

0,5

-1,5

-3,5
0,5 1,0 1,5
TRATAMIENTO

EL GRÁFICO MUESTRA QUE LOS RESIDUOS SON HOMOCEDASTICOS


55
Verificación de Varianza
Prueba Valor-P
Levene's 0,824742 0,4573

Comparación Sigma1 Sigma2 F-Ratio P-Valor


0.5 / 1.0 2,16795 1,41421 2,35 0,3700
0.5 / 1.5 2,16795 2,09762 1,06818 0,9441
1.0 / 1.5 1,41421 2,09762 0,454545 0,4072

NORMALIDAD

Gráfico de Probabilidad Normal


con 95% límites

99,9
n:18
99 Media:18,5
Sigma:4,51468
95
W:0,943473
P:0,3319
80
porcentaje

50

20

5
1

0,1
10 13 16 19 22 25
TIEMPO

56
• TEST DE FRIEDMANN PARA K MUESTRAS DEPENDIENTES

En estadística la prueba de Friedman es una prueba no paramétrica


desarrollado por el economista Milton Friedman. Esta prueba puede
utilizarse en aquellas situaciones en las que se seleccionan n grupos
de k elementos de forma que los elementos de cada grupo sean lo
más parecidos posible entre sí, el método consiste en ordenar los
datos por filas o bloques, reemplazándolos por su respectivo orden.

Hipótesis:
• H0: No existen diferencias entre los grupos.

• Ha: Existen diferencias entre los grupos

57
• Para resolver el contraste de hipótesis anterior,
Friedman propuso un estadístico que se distribuye
como una Chi-cuadrado con K - 1 grados de
libertad, siendo K el número de variables
relacionadas; se calcula mediante la siguiente
expresión

58
Estadístico de Prueba

En la expresión anterior:

• X2r = estadístico calculado del análisis de varianza


por rangos de Friedman.

• H = representa el número de elementos o de bloques


(numero de hileras)

• K = el número de variables relacionadas

• ∑ Rc2 = es la suma de rangos por columnas al


cuadrado.
• EJEMPLO:
• Un estudio pretende determinar si existe diferencia
en como de bueno consideran los consumidores
que es un vino dependiendo de la hora del día en
la que lo toman. Para ello se selecciona a un
grupo de 7 sujetos a los que se les da a probar un
vino por la mañana, por la tarde y por la noche. En
cada degustación se valora del 1 al 11 el vino (los
degustadores no saben que es el mismo vino).Los
datos son los siguientes:
• Mañana: 9, 5, 2, 6, 3, 1, 5
• Tarde: 5, 5, 11, 5, 1, 8, 4,
• Noche: 3, 10, 4, 1, 7, 3, 4
60
EN STATGRAPHICS SERA:
COMPARAR VARIAS MUESTRAS
COMPARACION DE VARIAS MUESTRAS
MULTIPLES COLUMNAS DE DATOS
EN MUESTRAS PONEMOS MAÑANA TARDE Y NOCHE

LUEGO HCEMOS CLIC EN:


RESUMEN ESTADISTICO
PRUEBA DE KRUSKALL WALLIS Y FRIEDMANN
GRAFICO CAJA Y BIGITES

HACEMOS DOBLE CLIC EN LA VENTANA QUE DICE


KRUSKAL WALLIS Y CON EL BOTON DERECHO DEL
MOUSE HACEMOS CLIC Y ELEGIMOS FRIEDMANN
61
62
Prueba de Friedman
Tamaño de Muestra Rango Promedio
Mañana 7 2,85714
tarde 7 1,85714
Noche 7 1,28571
Estadístico = 10,3333 Valor-P = 0,00570355

intervalos de confianza del 95,0%


Contraste Sig. Diferencia +/- Límites
Mañana - tarde 1,0 1,27964
Mañana - Noche * 1,57143 1,27964
tarde - Noche 0,571429 1,27964
* indica una diferencia significativa.

63
PRUEBA CHI CUADRADO
• JAMON
Es la pierna trasera del cerdo, recortada en forma
especial con o sin hueso, fraccionada, curada en
seco o con salmuera, cocida o cruda,
condimentada o no, ahumada o no forjada o no en
molde rígido o flexible en forma tradicional.

64
Especificaciones organolépticas:

a) Color: rosado característico.


b) Olor: agradable, característico, exento de olores
extraños.
c) Sabor: agradable, característico, exento de
sabores extraños.
d) Consistencia: firme, compacta y el aspecto del
producto debe ser terso.

65
MUESTRAS

•A: CAPISTRANO

•B: ZWAN

•C: KIR

66
OBJETIVO:
• Identificar si hay diferencias entre las muestras de
jamón Kir, Capistrano y Zwan (Prueba A no A).

• La prueba A no A es una prueba discriminativa, en


la que se presenta al juez una muestra “A” para
que memorice sus características. Posteriormente,
más de dos muestras problema son presentadas
al juez, pudiendo, una o mas de ellas, ser o no
igual a “A”.
HIPÓTESIS
• Ho: NO hay diferencia entre las muestras
• Ha: SI hay diferencia entre las muestras
67
• El estadístico de prueba para las hipotesis
anteriores es:
X = (│4a- 2f│- 3)
8n
a = aciertos
f = fallas o errores
n = nro. de jueces

68
CUESTIONARIO

69
MUESTRAS

70
520 Y R

936

580

71
• EN STATGRAPHICS SERIA:
DESCRIBIR DATOS CATEGORICOS TABULACION
CRUZADA
EN FILA PONGO CATEGORIA Y EN COLUMNA PONGO
JAMON (TAMBIEN PUEDE SER AL REVES)
ELEGIMOS:
TABLA DE FRECUENCIAS
PRUEBA DE INDEPENDENCIA
DIAGRAMA DE BARRA
• HACEMOS CLIC EN EL TERCER ICONO DE LA
SEGUNDA FILA RECORRIDA DE IZQUIERDA A DERECHA
QUE ESTA DEBAJO DEL MENU PRINCIPAL Y ELEGIMOS
PRUEBA DE INDEPENDENCIA
72
Tabla de Frecuencias para CATEGORIA por JAMON
A B C Total por Fila
DIFERENTE 11 19 15 45
13,58% 23,46% 18,52% 55,56%
IGUAL 16 8 12 36
19,75% 9,88% 14,81% 44,44%
Total por Columna 27 27 27 81
33,33% 33,33% 33,33% 100,00%
Contenido de las celdas:
Frecuencia Observada
Porcentaje de la Tabla

Pruebas de Independencia
Prueba Estadístico Gl Valor-P
Chi-Cuadrada 4,800 2 0,0907

73

También podría gustarte