Fiabilidad (Psicometría)

Descargar como txt, pdf o txt
Descargar como txt, pdf o txt
Está en la página 1de 4

Fiabilidad (psicometr�a)

Ir a la navegaci�nIr a la b�squeda
En el campo de la psicolog�a, la educaci�n y la investigaci�n social, la fiabilidad
(tambi�n llamada t�cnicamente confiabilidad) es una propiedad psicom�trica que hace
referencia a la ausencia de errores de medida, o lo que es lo mismo, al grado de
consistencia y estabilidad de las puntuaciones obtenidas a lo largo de sucesivos
procesos de medici�n con un mismo instrumento.

En el mundo industrial moderno, el concepto de confiabilidad es sumamente


importante.

La Confiabilidad es la "capacidad de un �tem de desempe�ar una funci�n requerida,


en condiciones establecidas durante un per�odo de tiempo determinado". Es decir,
que habremos logrado la Confiabilidad requerida cuando el "�tem" hace lo que
queremos que haga y en el momento que queremos que lo haga. Al decir "�tem" podemos
referirnos a una m�quina, una planta industrial, un sistema y hasta una persona. La
Confiabilidad impacta directamente sobre los resultados de la empresa, debiendo
aplicarse no s�lo a m�quinas o equipos aislados sino a la totalidad de los procesos
que constituyen la cadena de valor de la organizaci�n.

�ndice
1 Consideraciones generales
2 La teor�a cl�sica de los tests
3 Coeficiente de fiabilidad
4 Estimaci�n emp�rica del coeficiente de fiabilidad
4.1 Formas paralelas
4.2 Test-retest
4.3 Dos mitades
4.4 Otros m�todos basados en la consistencia interna
5 Relaciones entre fiabilidad y otros factores
6 V�ase tambi�n
7 Referencias
8 Bibliograf�a
Consideraciones generales
A partir de la variabilidad en las puntuaciones encontradas tras una serie de
mediciones repetidas puede determinarse el �ndice de precisi�n, consistencia y
estabilidad de un instrumento. En el supuesto de que el resto de condiciones se
mantengan inalteradas, puede concluirse que, a mayor variabilidad de resultados,
menor fiabilidad del instrumento de medici�n.1?

No obstante, uno de los principales problemas que se presentan en el campo de la


investigaci�n en ciencias sociales tiene que ver con la dificultad de conseguir que
las distintas medidas se realicen exactamente en las mismas condiciones. Las
condiciones personales de los sujetos, como la motivaci�n, la maduraci�n o el grado
de atenci�n, pueden variar de una medici�n a otra, por lo que resulta
imprescindible establecer un procedimiento estandarizado de medici�n que permita
reducir al m�nimo las variables extra�as que puedan influir en los resultados
finales. Por lo tanto, la fiabilidad hace referencia a la estabilidad y
consistencia de las mediciones en aquellos casos en los que no existen razones
te�ricas o emp�ricas que nos hagan suponer que la variable que se mide se haya
visto modificada de forma significativa por los sujetos, por lo que se asume su
estabilidad.2?

La teor�a cl�sica de los tests


En el marco de la teor�a cl�sica de los tests, seg�n el modelo lineal cl�sico
propuesto por Charles Spearman (1904, 1907, 1913); la puntuaci�n emp�rica (X) que
obtiene un sujeto en un test, es la suma de dos componentes: la puntuaci�n
verdadera (V) y el inevitable error de medida asociado al instrumento.3? Es decir,
si a la puntuaci�n emp�rica (obtenida en la prueba) se le elimina el error de
medida, se obtendr� la puntuaci�n verdadera. En este contexto, la fiabilidad hace
referencia a la proporci�n de la varianza verdadera, es decir, la parte de la
varianza total que los �tems discriminan por lo que tienen en com�n.4? Siguiendo
este razonamiento, obtendr�amos:

{\displaystyle \rho _{xx'}={\frac {{\sigma }_{V}^{2}}{{\sigma }_{X}^{2}}}=1-{\frac


{\sigma _{E}^{2}}{\sigma _{X}^{2}}}}{\displaystyle \rho _{xx'}={\frac {{\sigma }
_{V}^{2}}{{\sigma }_{X}^{2}}}=1-{\frac {\sigma _{E}^{2}}{\sigma _{X}^{2}}}}
donde {\displaystyle \rho _{xx'}}{\displaystyle \rho _{xx'}} es el s�mbolo de la
fiabilidad de las puntuaciones observadas (X); y {\displaystyle \sigma _{X}^{2}}
{\displaystyle \sigma _{X}^{2}}, {\displaystyle \sigma _{V}^{2}}{\displaystyle
\sigma _{V}^{2}}, y {\displaystyle \sigma _{E}^{2}}{\displaystyle \sigma _{E}^{2}}
son las varianzas de las puntuaciones emp�ricas, verdaderas y de error,
respectivamente. Dado que no existe modo alguno de determinar la puntuaci�n
verdadera directamente, existe una serie de m�todos para realizar una estimaci�n de
la fiabilidad.

Coeficiente de fiabilidad
El coeficiente de fiabilidad ({\displaystyle {\rho _{xx'}}}{\displaystyle {\rho
_{xx'}}}) es la correlaci�n entre las puntuaciones obtenidas por los sujetos en dos
formas paralelas de un test (X y X'). Suponiendo que las dos formas del test sean
realmente paralelas (es decir, midan realmente lo mismo), las puntuaciones de los
sujetos deber�an ser iguales en ambas aplicaciones. As�, cuando la correlaci�n es
igual a 1, la fiabilidad es m�xima. El grado en que el coeficiente de fiabilidad se
aleje de 1 ser� un indicador del grado de error aleatorio de medida que estaremos
cometiendo en la aplicaci�n de las pruebas. El coeficiente de fiabilidad no debe
confundirse con el �ndice de fiabilidad, que es la correlaci�n entre las
puntuaciones verdaderas y las emp�ricas ({\displaystyle {\rho _{xv}}}{\displaystyle
{\rho _{xv}}}), y se obtiene a partir de la ra�z cuadrada del coeficiente.

Estimaci�n emp�rica del coeficiente de fiabilidad


Desde la Teor�a Cl�sica de los Tests (TCT) se han propuesto diferentes
procedimientos para calcular la fiabilidad. Algunos de ellos son los siguientes:

Formas paralelas
Este procedimiento es el que se deriva naturalmente del modelo. Requiere que se
utilicen dos pruebas o instrumentos paralelos, esto es, que midan lo mismo de forma
diferente (por ejemplo, dos tests que con diferentes preguntas midan un determinado
rasgo). Despu�s se comparan los dos tests, calculando el coeficiente de correlaci�n
de Pearson. Esta correlaci�n ser�, como hemos visto en el apartado anterior, el
coeficiente de fiabilidad. Si la correlaci�n es alta, se considera que hay una
buena fiabilidad. Al valor obtenido tambi�n se le conoce como coeficiente de
equivalencia, en la medida en que supone un indicador del grado de equivalencia
entre las dos formas paralelas de un test.

La dificultad de este procedimiento radica en conseguir que dos instrumentos sean


realmente "paralelos", dada la dificultad que supone realizar dos pruebas que midan
exactamente lo mismo, pero con diferentes �tems. No obstante, en condiciones
ideales en las que se pueda garantizar el paralelismo de ambas formas, este es el
m�todo m�s recomendable.

Test-retest
Con este m�todo el coeficiente de Confiabilidad se calcula pasando mismo test dos
veces a los mismos sujetos. Se pueden pasar inmediatamente, o dejando un intervalo
de tiempo entre el test y el retest. Despu�s se calcula la correlaci�n de Pearson
entre las puntuaciones de ambas aplicaciones, y el resultado obtenido ser� el
coeficiente de fiabilidad. Se considera un caso espec�fico de formas paralelas,
dado que evidentemente un test es paralelo a s� mismo. Al resultado obtenido se le
denomina coeficiente de estabilidad, al servir de indicador de hasta qu� punto son
estables las mediciones realizadas durante la primera aplicaci�n del test. Las
diferencias en los resultados se atribuyen al grado de consistencia interna o
muestreo de los �tems de la prueba en el caso de pasar el retest de forma
inmediata, y se le suman las fluctuaciones en el tiempo en el caso del intervalo
temporal.

Dejar transcurrir un espacio de tiempo excesivo entre ambas aplicaciones puede


suponer una amenaza a la validez interna por las posibles influencias externas a la
que pueden estar expuestos los sujetos durante el intervalo, y que pueden afectar a
su desempe�o en la segunda aplicaci�n. En el extremo opuesto, una aplicaci�n
demasiado apresurada del retest podr�a afectar igualmente a la validez interna, en
este caso por los posibles efectos del recuerdo reciente de la primera aplicaci�n.
La elecci�n del intervalo de tiempo adecuado entre ambas aplicaciones depender� en
gran medida del tipo de test, ya que en funci�n de su formato puede ser m�s
sensible al efecto de una u otra amenaza.2?

Dos mitades
A diferencia de los anteriores, este m�todo s�lo requiere una aplicaci�n del test.
Tras obtener las puntuaciones obtenidas por los sujetos en cada una de las dos
mitades en que se habr� dividido, se procede a calcular la correlaci�n entre las
dos puntuaciones. El resultado obtenido ser� un indicador de la covariaci�n entre
ambas mitades, es decir, de la consistencia interna del test. La principal
dificultad de este sistema es asegurarse de que ambas mitades sean efectivamente
paralelas. Un sistema habitual es dividir el test entre los �tems pares y los
impares; no es recomendable dividirlo sin m�s por la mitad, dado que muchos tests
muestran un incremento gradual de la dificultad de sus �tems.2?

Otros m�todos basados en la consistencia interna


Alfa de Cronbach (1951): El coeficiente alfa (a) es un indicador de la fiabilidad
de un test basado en su grado de consistencia interna. Indica el grado en que los
�tems de un test covar�an.
Coeficientes de Kuder-Richardson (1937): Se trata de dos f�rmulas aplicables a
sendos casos particulares de alfa. KR20 se aplica en el caso en que los �tems del
test sean dicot�micos, y KR21, en el caso de que adem�s de ser dicot�micos, tengan
la misma dificultad.
M�todo de Rulon (1939): Una estimaci�n de la fiabilidad de un test a partir de las
puntuaciones obtenidas en sus dos mitades. Considera que la diferencia entre las
dos mitades se debe s�lo al error aleatorio.
M�todo de Guttman/Flanagan (1945/1937): Otra f�rmula basada en la consistencia
interna, equivalente a la de Rulon.
Coeficiente beta (�): Propuesto por Raju (1977) para calcular la fiabilidad de una
bater�a compuesta por diversos subtests. En los casos en los que se desea calcular
la fiabilidad de una bater�a, se trata a los distintos subtests como si fueran los
�tems de un �nico test y se calcula el coeficiente alfa global. El problema surge
en los casos en los que los distintos subtests no tienen el mismo n�mero de �tems,
lo que suele ser lo m�s frecuente, y que repercute en una infraestimaci�n del alfa
global. El coeficiente beta permite sortear esta infraestimaci�n.
Coeficientes theta (?) y omega (O): Basados en el an�lisis factorial de los �tems,
son indicadores de la consistencia interna similares al coeficiente alfa. El
coeficiente theta fue desarrollado por Carmines y Zeller (1979); y el coeficiente
omega fue desarrollado por Heise y Bohrnstedt (1970).2?
Relaciones entre fiabilidad y otros factores
Hay dos factores que afectan al grado de fiabilidad de un test: la variabilidad y
la longitud.

Fiabilidad y variabilidad: El tipo de muestra de sujetos que se haya escogido para


calcular la fiabilidad de un test puede influir en el resultado obtenido. Esto
significa que la fiabilidad ya no depende �nicamente de las caracter�sticas del
test, sino tambi�n de la muestra de sujetos a los que se aplique, por lo que no se
puede decir que un mismo test tenga un coeficiente de fiabilidad fijo. En suma,
puede afirmarse que la fiabilidad de un test ser� mayor cuanta mayor variabilidad
exista en la muestra de sujetos seleccionada.
Fiabilidad y longitud: En t�rminos generales, puede decirse que la fiabilidad de un
test aumenta a medida que aumenta su longitud, es decir, su n�mero de �tems. Ello
no significa que resulte recomendable alargar innecesariamente un test en pro de
aumentar su fiabilidad, ni que cualquier test pueda convertirse en un instrumento
fiable por el �nico medio de aumentar indefinidamente su longitud. La f�rmula de
Spearman-Brown permite pronosticar el aumento de fiabilidad obtenida tras el
incremento de la longitud de un test, siempre y cuando los �tems a�adidos sean
paralelos a los ya existentes.2?
V�ase tambi�n
Validez (psicometr�a)
Referencias
Prieto, Gerardo; Delgado, Ana R. (2010). �Fiabilidad y validez�. Papeles del
psic�logo (Espa�a: Consejo General de Colegios Oficiales de Psic�logos) 31 (1): 67-
74. ISSN 0214-7823. Consultado el 18 de febrero de 2011.
Mu�iz, Jos� (1998). �Fiabilidad�. Teor�a cl�sica de los tests (5� edici�n).
Madrid: Pir�mide. ISBN 843681262X. Consultado el 18 de febrero de 2011.
Mu�iz, Jos� (2010). �Las teor�as de los tests: Teor�a cl�sica y teor�a de
respuesta a los �tems�. Papeles del psic�logo (Espa�a: Consejo General de Colegios
Oficiales de Psic�logos) 31 (1): 57-66. ISSN 0214-7823. Consultado el 18 de febrero
de 2011.
Morales Vallejo, Pedro (2007). Estad�stica aplicada a las ciencias sociales. La
fiabilidad de los tests y escalas. Madrid: Universidad Pontificia Comillas. p. 8.
Consultado el 18 de febrero de 2011

También podría gustarte