Unidad 4

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

PSICOMETRIA

Unidad 4: Confiabilidad
 Definición de confiabilidad
En el campo de la psicología, la educación y la investigación social,
la fiabilidad (también llamada técnicamente confiabilidad) es una
propiedad psicométrica que hace referencia a la ausencia de errores de medida, o lo que
es lo mismo, al grado de consistencia y estabilidad de las puntuaciones obtenidas a lo
largo de sucesivos procesos de medición con un mismo instrumento.
 El coeficiente de Correlación
En estadística, el coeficiente de correlación de Pearson es una medida de dependencia
lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la
correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson
como un índice que puede utilizarse para medir el grado de relación de dos variables
siempre y cuando ambas sean cuantitativas y continuas.

 Tipos de correlación

 Hay tres tipos de correlación: positiva, negativa y nula (sin correlación).


Correlación positiva: ocurre cuando una variable aumenta y la otra también. Por
ejemplo, la altura de una persona y el tamaño de su pie; mientras aumenta la altura, el
pie también.

Correlación negativa: es cuando una variable aumenta y la otra disminuye. El tiempo


de estudio y el tiempo que pasas jugando videojuegos, tienen una correlación negativa,
ya que cuando tu tiempo de estudio aumenta, no te queda tanto tiempo para jugar
videojuegos.

 Coeficiente de correlación momento producto de Pearson.

El coeficiente de Pearson (también llamado coeficiente de correlación del producto-


momento), se representa con el símbolo ‘r’ y proporciona una medida numérica de la
correlación entre dos variables.

Es útil reconocer la fórmula usada para calcular el coeficiente de Pearson (es posible
que vea documentos en que se haga referencia a ella). Le entregamos la fórmula en una
nota al pie de esta página. No deje que la fórmula lo intimide. No necesita comprender
la fórmula para comprender el concepto de correlación. Aunque si hace un esfuerzo va a
comprender la fórmula en poco tiempo y con claridad.

 Tipos de confiabilidad

Existen diferentes tipos de confiabilidad: a) estabilidad temporal o coeficiente de


estabilidad; b) formas paralelas o coeficiente de estabilidad y equivalencia; c) división
por mitades o coeficiente de consistencia interna; y d) consistencia interna pura.1-9

a. Estabilidad temporal o coeficiente de estabilidad

Cada una de ellas se calcula teniendo un objetivo en mente. Por ejemplo, la estabilidad
temporal indica el grado en el que las calificaciones de una prueba se ven modificadas
por fluctuaciones aleatorias diarias en la condición del sujeto o en el ambiente de
prueba. Esta estabilidad depende en parte de la longitud del intervalo en el que se
mantiene, y es indispensable establecerla, si el objetivo del investigador es medir
cambios a lo largo del tiempo. Es decir, asegurar que si se presentan cambios en la
variable de interés, se debieron al paso del tiempo (por ejemplo, la hora del día o debido
al desarrollo) y no al instrumento de medición. En este caso, los mismos sujetos
responden a dos administraciones diferentes de la misma prueba, y se espera que la
variable no cambie con el transcurso del tiempo, la correlación entre los puntajes
obtenidos tendrá que ser alta.5

b. Formas paralelas o coeficiente de estabilidad y equivalencia

Las formas paralelas o equivalentes, representan otro tipo de confiabilidad que se


requiere cuando se espera que una situación (experimental o cotidiana), modifique la
variable de interés, en un lapso muy corto, que no permitiría aplicar el mismo
instrumento, pues los sujetos podrían recordar las respuestas dadas con anterioridad y/o
contestar diferente por creer que es lo que se espera de ellos, o contestar de manera muy
semejante a como lo hicieron con anterioridad, porque recuerdan las respuestas dadas en
la primera ocasión. En este caso, se necesitan dos versiones del instrumento, que midan
lo mismo, pero con diferentes reactivos, estímulos o preguntas. Al coeficiente que se
calcula para determinar la medida en que se mide los mismo con ambas versiones, se
denomina coeficiente de equivalencia.5

c. División por mitades o coeficiente de consistencia interna

la confiabilidad de división por mitades, se determina dividiendo a la prueba en mitades,


asegurando que los reactivos o preguntas se hayan ordenado de acuerdo a su grado de
dificultad (de los más fáciles a los más difíciles); se constituye una especie de prueba
paralela, con los reactivos pares en uno de los conjuntos, y los impares en el otro,
asegurando de alguna manera que los reactivos sean igualmente difíciles en ambos
conjuntos, o en términos estadísticos, propiciando que las distribuciones de ambos
conjuntos tengan medias y varianzas semejantes. El coeficiente de consistencia interna
se determina en este caso con la fórmula de Spearman-Brown, que sólo se puede aplicar
a pruebas homogéneas y sin límite de tiempo para resolverlas.2,4,5,9

d. Consistencia interna pura

El procedimiento más común para determinar la consistencia interna de instrumentos o


pruebas constituidas por respuestas dicotómicas (correcto-incorrecto; de acuerdo en
desacuerdo) es el desarrollado por Kudder y Richardson (KR-20), que se calcula a partir
de una sola administración de una prueba. Esta técnica se basa en el examen de la
ejecución en cada uno de los reactivos o preguntas de la prueba. A menos de que los
reactivos sean muy homogéneos, este coeficiente siempre será menor que el de la
confiabilidad por mitades. Ambos coeficientes (mitades y KR-20) igual que cualquier
otro coeficiente de confiabilidad derivado de una sola administración de una sola forma
de la prueba, se denominan coeficientes de consistencia interna. Sin embargo, la
información que proporcionan los diferentes modelos de determinación de la
consistencia interna, no es idéntica, por lo cual siempre se deberá de establecer cuál
coeficiente se utilizó para determinarla

 confiabilidad test retest

La repetibilidad o confiabilidad test-retest (o prueba-reprueba) es la proximidad de


la concordancia entre los resultados de mediciones sucesivas del mismo mensurando
realizadas en las mismas condiciones de medición. Es decir, las mediciones las
realiza una sola persona o instrumento sobre la misma cosa, en las mismas
condiciones y en un período corto de tiempo. Una confiabilidad de test-
retest menos que perfecta provoca variabilidad de test-retest.
Esta variabilidad puede deberse, por ejemplo, a la variabilidad intraindividual y la
variabilidad intraobservador. Se puede decir que una medición es repetible cuando
estas variaciones son menores que un criterio de aceptación predeterminado.
La variabilidad test-retest se utiliza prácticamente, por ejemplo, en la monitorización
médica de enfermedades. En estas situaciones, a menudo hay una "diferencia
crítica" predeterminada, y para las diferencias en los valores monitoreados que sean
menores a esta diferencia crítica, se puede considerar la posibilidad de variabilidad
previa a la prueba como única causa de la diferencia además de, por ejemplo,
cambios en enfermedades o tratamientos.

 Confiabilidad de formas alternas

Se entiende por formas alternas, equivalentes o paralelas de un mismo test a dos tests
construidos de forma que resulten ser prácticamente iguales, de manera que las
puntuaciones de los sujetos en ambos sean comparables ítem a ítem. Se trata, entonces,
de la correspondencia o correlación entre los resultados obtenidos en formas alternas de
una prueba; por lo tanto, es una medida del grado hasta donde estas dos formas son
congruentes o confiables en la medición. Si el método utilizado es el de formas alternas
inmediata, los intervalos de tiempo que separen a las dos administraciones deben ser
relativamente cortos, de forma tal que la fuente de varianza de error, esto es el muestreo
de contenido, quede relativamente menguada. También, habría que tener en cuenta la
longitud de las pruebas, por si deben de ser aplicadas en una misma sesión o en varias,
para que las respuestas en alguna de ellas no estén contaminadas por un efecto de fatiga
en los sujetos.
 Confiabilidad de división por mitades
En exámenes y ESTADÍSTICA, es uno de los procedimientos empleados para calcular
la FIABILIDAD de la coherencia interna de una prueba (otros métodos son, por ejemplo,
los COEFICIENTES DE FIABILIDAD KUDER-RICHARDSON o el Coeficiente alfa de
Cronbach). En este caso, se trata de determinar hasta qué punto las dos mitades de una
prueba son coherentes entre sí, para lo cual se tratan como pruebas paralelas. El
procedimiento consiste, en primer lugar, en dividir la prueba en dos partes equivalentes
e independientes, cada una con su PUNTUACIÓN (por ejemplo, preguntas pares e
impares, o dos mitades comparables en contenido). A continuación se calcula
el COEFICIENTE DE CORRELACIÓN entre ambas puntuaciones, por ejemplo, empleando la
fórmula del coeficiente de correlación producto-momento de Pearson. De ese modo se
obtendrá una medida de la coherencia de las mitades. Para hallar la fiabilidad de la
prueba entera se suele recurrir a la Fórmula de Spearman-Brown, que consiste en
multiplicar por dos la fiabilidad parcial calculada y dividir el resultado entre esa
fiabilidad parcial más uno.
 Confiabilidad de kuder Richarson
En psicometría, la Fórmula 20 de Kuder-Richardson (KR-20), publicada por primera
vez en 1937, es una medida de fiabilidad de consistencia interna para medidas con
elecciones dicotómicas. Fue desarrollado por Kuder y Richardson. El nombre de esta
fórmula proviene del hecho de que es la vigésima fórmula discutida en el artículo
fundamental de Kuder y Richardson sobre la confiabilidad de las pruebas.
Es un caso especial de α de Cronbach, calculado para puntuaciones dicotómicas. A
menudo se afirma que un coeficiente KR-20 alto (por ejemplo,> 0,90) indica una prueba
homogénea. Sin embargo, como el α de Cronbach, la homogeneidad (es decir,
unidimensionalidad) es en realidad una suposición, no una conclusión, de los
coeficientes de confiabilidad. Es posible, por ejemplo, tener un KR-20 alto con una
escala multidimensional, especialmente con una gran cantidad de ítems.

Los valores pueden oscilar entre 0,00 y 1,00 (a veces expresados como 0 a 100), y los
valores altos indican que es probable que el examen se correlacione con formas
alternativas (una característica deseable). El KR-20 puede verse afectado por la
dificultad de la prueba, la dispersión de las puntuaciones y la duración del examen.

En el caso de que las puntuaciones no sean equivalentes a tau (por ejemplo, cuando no
hay elementos de examen homogéneos sino de dificultad creciente), el KR-20 es una
indicación del límite inferior de consistencia interna (fiabilidad).
 Confiabilidad entre clasificadores
Una fuente importante de varianza de error, sobre todo en los instrumentos clínicos, es
la varianza del examinador. La confiabilidad del calificador se obtiene con una muestra
de tests calificados en forma independiente por dos o más examinadores. Los dos (o
más) resultados se correlacionan de acuerdo a la forma usual y el consecuente
coeficiente de correlación es la medida de la confiabilidad del calificador. Esta clase de
fiabilidad suele calcularse en la investigación de instrumentos de calificación subjetiva.
( Anastasi, 1998; Martínez Arias, 1996; Machrens, Sehmann, 1982).

También podría gustarte