Control de Lectura 4 Test
Control de Lectura 4 Test
Control de Lectura 4 Test
UASD
Teoría de los Test (PSI-211)
Maestra: Yolanda Disla
Control de lectura no. 4: Cualidades de los test psicológicos
Validez Predictiva:
si el test es efectivo a la hora de predecir algún resultado futuro. Por ejemplo, el
rendimiento del alumno. El test, está relacionado con variables que estamos
estudiando.
Validez Concurrente:
sí establece alguna relación entre el resultado del test y otra fuente de información
externa al test. Por ejemplo, un test de competencia matemática y la nota obtenida en
la asignatura de Matemáticas. Hay correlación entre ambos.
Validez de contenido:
cuando comprenda una muestra lo suficientemente representativa de las conductas
que se pretende medir.
Fiabilidad
. Un test es fiable si tiene consistencia en el tiempo. Para ello, ha de
tener coherencia interna: exactitud con la que un test mide una característica determina
da. ¿Cómo se contrasta? Con aplicaciones sucesivas de un mismo test. Esto depende
de la longitud del test, de la homogeneidad de la población y la objetividad del proceso
de puntuación.
Normalización.
(Tipificación estandarización) Es decir, hablamos de la uniformidad en las condiciones
del empleo del test y la normalización de las puntuaciones directas para
poder compararlas. Centiles, grado, CI… son puntuaciones normalizadas.
Sensibilidad.
Capacidad del test de medir diferencias mínimas entre individuos o dentro de un
individuo en ocasiones diferentes. Ha de ser muy preciso.
Fiabilidad o confiabilidad:
Es una propiedad psicométrica que hace referencia a la ausencia de errores de
medida, o loque es lo mismo, al grado de consistencia y estabilidad de
las puntuaciones obtenidas a lo largó de sucesivos procesos de medición con un
mismo instrumento.
Validez:
Es un concepto que hace referencia a la capacidad de un instrumento de medición para
cuantificar de forma significativa y adecuada el rasgo para cuya medición ha sido
diseñado. De esta forma, un instrumento de medida es válido en la medida en que las
evidencias empíricas legitiman la interpretación de las puntuaciones arrojadas por el
test.
Coeficiente Test-Retest
Con este método el coeficiente de Confiabilidad se calcula pasando mismo test dos
veces Alos mismos sujetos. Se pueden pasar inmediatamente, o dejando un intervalo
de tiempo entre el test y el retest. Después se calcula la correlación de Pearson entre
las
puntuacionesde ambas aplicaciones, y el resultado obtenido será el coeficiente de fiabil
idad. Seconsidera un caso específico de formas paralelas, dado que evidentemente un
test es paralelo a sí mismo. Al resultado obtenido se le denomina coeficiente de estabili
dad, alservir de indicador de hasta qué punto son estables las mediciones realizadas
durante
la primera aplicación del test. Las diferencias en los resultados se atribuyen al grado de
consistencia interna o muestreo de los ítems de la prueba en el caso de pasar el retest
de forma inmediata, y se le suman las fluctuaciones en el tiempo en el caso del
intervalo temporal.
Método Kuder-Richardson
Se trata de dos fórmulas empleadas para establecer la fiabilidad de un examen a partir
de las características estadísticas de las preguntas del mismo, concretamente sus
medias y sus varianza. La media de una pregunta dicotómica (esto es, aquella que se
puntúa como correcta o incorrecta) es la proporción de individuos que la responden
correctamente (p); su varianza es el producto de p y q (siendo q el número de
individuos que responden incorrectamente). La Fórmula KR20 utiliza información
acerca de la dificultad de cada pregunta, ya que se basa en el número de preguntas
del examen, la suma de sus varianzas y la varianza total del examen. La Fórmula KR21
es más sencilla, puesto que requiere menos información y asume que las preguntas
poseen el mismo grado de dificultad (aunque, por otra parte, también proporciona un
coeficiente de fiabilidad más bajo que la FórmulaKR20). Se halla a partir del número de
preguntas del examen, la puntuación media obtenida en el mismo y la
desviación estándar. Las fórmulas deducidas por Kuder y Richardson están destinadas
a estimar la confiabilidad de una prueba. Estas fórmulas se basan en la consistencia
inter – ítem y sólo requieren una administración de la prueba. La más usada de ellas, la
fórmula 20, requiere información basada en el número de ítems de la prueba, la
desviación estándar de la puntuación total yla proporción de examinados que
aprobaron cada ítem. Las fórmulas de Kuder-Richardsonno deben utilizarse con
pruebas en donde la velocidad de resolución es importante.
Coeficiente Alfa
El coeficiente Alfa de Cronbach es el indicador de confiabilidad de escalas
psicométricas más usado en ciencias sociales. El Alfa de Cronbach nos da una medida
de la consistencia interna que tienen los
reactivosque forman una escala. Si esta medida es alta, suponemos tener evidencia de
la homogeneidad de dicha escala, es decir, que los ítems están “apuntando” en la
mismadirección.
Por esta razón, el Alfa de Cronbach suele interpretarse como una medida deunidimensi
onalidad de una escala, por tanto, de que estamos midiendo de maneraconsistente
algo con ella. Esto es, asumimos que nuestra escala es Tau equivalente o
esencialmente Tau equivalente.
Validez de Contenido
Representa la comprobación de que el contenido de la técnica en cuestión comprenda
una muestra representativa del universo posible de conductas que se pretende evaluar
con ella. Se relaciona con el enfoque referido a criterios y considera a un test como
una muestra de un conjunto definido de conductas.
Validez predictiva
Tipo de validez de criterio que permite establecer predicciones con respecto alcomporta
miento, a partir de la comparación entre los valores del instrumento y el criterio.
Validez creciente
Es cuando se intenta decidir si la aplicación de un instrumento particular de evaluación
con propósitos predictivos o de diagnóstico está justificada por su costo.
Validez concurrente
Sirve para confirmar los resultados de la investigación, es el hecho de dos o más
grupos de personas difieran de manera esperada en la medida posibles
tal grado en que dos sistemas de medición diferentes produzcan la correlación de los
resultados, debemos tener muy claro que una escala que tenga validez concurrente no
necesariamente tendrá validez predictiva. Para determinar la validez concurrente
implica tener dos situaciones de medida diferentes: el predictor y el criterio.