Coeficientes Phi y Kappa

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

Coeficientes phi y Kappa

2 observadores se ponen a observar a un niño para ver si se levanta de su mesabanco en el horario de


clases.
Se realizaron 20 intervalos de 10 segundos cada uno, para registrar dicha conducta .
Al finar de los 10 segundos los observadores checaban si el niño estaba parado o no.

Observador 1 / / / / / / / / /

Observador 2 / / / / / / /
Coeficientes phi

Pasos para Calcular el Coeficiente phi:

1. Se traza la matriz.
2. Se ponen incisos a cada casilla.
Observador 1
0 1
Observador 2

0 a b h
1 c d g
e f n
3. Se ve la formula.

ad – bc
Φ= ( a + c)(b + d) (a + b)(c + d)
4. Se sustituye la formula y se calcula el Coeficiente phi.
5. Interpretación del Coeficiente phi,
El coeficiente phi
Otro indice utilizado para estimar la confiabilidad entre observadores es el
coeficiente phi ( Φ): Este coeficiente mide la asociación entre los registros de los 2
observadores. Phi puede calcularse mediante la siguiente formula:
Fórmula: ad – bc Observador 2
5. Φ= 0 1

Observador 1
( a + c)(b + d) (a + b)(c + d) 0 (a ) 11 (b) 2 13
1 (c) 0 (d) 7 7
11 9 20

(a) Es la frecuencia observada en la casilla superior izquierda; (b) Es la frecuencia observada en la casilla superior derecha;
(c) Es la frecuencia observada en la casilla inferior izquierda; y (d) Es la frecuencia observada en la casilla inferior Izquierda
(11)(7) – (2)(0)
5. Φ= 77 77 77
= =
( 11 + 0)(2+7) (11 + 2)(0+7) =
( 11)(9) (13)(7) 9,009 95
Φ= 0.81 Sustitución de la Fórmula
Interpretación:

La confiabilidad entre el Observador 1 y 2 es muy buena


Interpretación para el Coeficiente Fi y Kappa

Landis y Koch propusieron unos márgenes para valorar


el grado de acuerdo en función del índice kappa:

grado de acuerdo de kappa

<0 sin acuerdo


0 − 0.2 insignificante
0.21 − 0.4 bajo
0.41 − 0.6 moderado
0.61 − 0.8 bueno
0.81 − 1.0 muy bueno
Coeficientes Kappa
Pasos para Calcular la Chi- Cuadrada:

1. Se traza la matriz.
2. Se ponen incisos a cada casilla.

0 1
0 a b h
1 c d g
e f n
3. Se ve la formula. K= Po - Pc
1 - Pc
4. Se calcula la Proporción de acuerdos entre observadores.
Po = a + d
n
6. Se calcula la proporción de acuerdos por el azar (Pc)
Pc= (h x e) + (g x f)/n
n
7. Se sustituye la fórmula y se calcula del Coeficiente Kappa.
8. Interpretación del Coeficiente Kappa
El coeficiente phi
Otro indice utilizado para estimar la confiabilidad entre observadores es el
coeficiente phi ( Φ): Este coeficiente mide la asociación entre los registros de los 2
observadores. Phi puede calcularse mediante la siguiente formula:
Fórmula: ad – bc Observador 2
5. Φ= 0 1

Observador 1
( a + c)(b + d) (a + b)(c + d) 0 (a ) 11 (b) 2 13
1 (c) 0 (d) 7 7
11 9 20

(a) Es la frecuencia observada en la casilla superior izquierda; (b) Es la frecuencia observada en la casilla superior derecha;
(c) Es la frecuencia observada en la casilla inferior izquierda; y (d) Es la frecuencia observada en la casilla inferior Izquierda
(11)(7) – (2)(0)
5. Φ= 77 77 77
= =
( 11 + 0)(2+7) (11 + 2)(0+7) =
( 11)(9) (13)(7) 9,009 95
Φ= 0.81 Sustitución de la Fórmula
Interpretación:

La confiabilidad entre el Observador 1 y 2 es muy buena


Coeficiente Kappa

El coeficiente Kappa (K) es otro estadístico utilizado para calcular el acuerdo entre
2 observadores al registrarse una categoría conductual.

La sustracción del factor de acuerdo por azar, tanto del numerador como del
denominador, hace que este estadístico sea mas potente, puesto que elimina el
peso de los acuerdos por azar. La formula de K, es: K= Po - Pc
Observador 2 1 - Pc
Observador 1

0 1 K= 0.90 – 0.51
0 (a) 11 (b)2 (h) 13 1 – 0.51
1 (c) 0 (d) 7 (g) 7 K= 0.39
(e) 11 (f)9 (n) 20 0.49
K= 0.80
Po = Proporción de acuerdos entre Observadores; o es la
suma de los acuerdos dividido por N
Po = (a)11 + (d)7 = 18 = 0.90 K= 0.80
(n) 20 20
Interpretación:
Pc = Proporción de acuerdos por el azar.
La confiabilidad entre el Observador 1
Pc =h13xe11 + g7Xf9/ n20 = 143 + 63/20 = 10.3 = 0.51
n 20 20 20
y 2 es buena
Interpretación para el Coeficiente Fi y Kappa

Landis y Koch propusieron unos márgenes para valorar


el grado de acuerdo en función del índice kappa:

grado de acuerdo de kappa

<0 sin acuerdo


0 − 0.2 insignificante
0.21 − 0.4 bajo
0.41 − 0.6 moderado
0.61 − 0.8 bueno
0.81 − 1.0 muy bueno

También podría gustarte