Control de Lectura 4 Test

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

Escuela de Psicología

UASD
Teoría de los Test (PSI-211)
Maestra: Yolanda Disla
Control de lectura no. 4: Cualidades de los test psicológicos

1. Identifique y defina las cualidades de los Test


Psicológico
1.1. Fiabilidad o confiabilidad:
1.2.Validez:
Identifique y defina las cualidades de los Test PsicológicoValidez
. Un test es válido si mide lo que dice medir. Para ello, hay tres tipos de
comprobaciones

Validez Predictiva:
si el test es efectivo a la hora de predecir algún resultado futuro. Por ejemplo, el
rendimiento del alumno. El test, está relacionado con variables que estamos
estudiando.

Validez Concurrente:
sí establece alguna relación entre el resultado del test y otra fuente de información
externa al test. Por ejemplo, un test de competencia matemática y la nota obtenida en
la asignatura de Matemáticas. Hay correlación entre ambos.

Validez de contenido:
cuando comprenda una muestra lo suficientemente representativa de las conductas
que se pretende medir.

Fiabilidad
. Un test es fiable si tiene consistencia en el tiempo. Para ello, ha de
tener coherencia interna: exactitud con la que un test mide una característica determina
da. ¿Cómo se contrasta? Con aplicaciones sucesivas de un mismo test. Esto depende
de la longitud del test, de la homogeneidad de la población y la objetividad del proceso
de puntuación.

Normalización.
(Tipificación estandarización) Es decir, hablamos de la uniformidad en las condiciones
del empleo del test y la normalización de las puntuaciones directas para
poder compararlas. Centiles, grado, CI… son puntuaciones normalizadas.
Sensibilidad.
Capacidad del test de medir diferencias mínimas entre individuos o dentro de un
individuo en ocasiones diferentes. Ha de ser muy preciso.
Fiabilidad o confiabilidad:
Es una propiedad psicométrica que hace referencia a la ausencia de errores de
medida, o loque es lo mismo, al grado de consistencia y estabilidad de
las puntuaciones obtenidas a lo largó de sucesivos procesos de medición con un
mismo instrumento.

Validez:
Es un concepto que hace referencia a la capacidad de un instrumento de medición para
cuantificar de forma significativa y adecuada el rasgo para cuya medición ha sido
diseñado. De esta forma, un instrumento de medida es válido en la medida en que las
evidencias empíricas legitiman la interpretación de las puntuaciones arrojadas por el
test.

2. Describa los tipos de fiabilidad (Según AIKEN):


2.1. Coeficiente Test-Retest
2.2. Coeficientes de formas Paralelas
2.3. Coeficiente de Consistencia Interna
2.3.1. Método de división de mitades de Spearman
2.3.2. Método Kuder-Richarson
2.3.3. Coeficiente Alfa

Describa los tipos de fiabilidad (Según AIKEN):


La fiabilidad entre evaluadores es el grado de acuerdo o consistencia que existe entre
dos o más evaluadores. Según Aiken, para determinar la fiabilidad Inter jueces,
dos personas califican las respuestas de un grupo de sujetos y después se calcula la
correlación entre
losdos grupos evaluados. Otro planteamiento es hacer que varias personas califiquen l
asrespuestas de un sujeto a la prueba, o hacer que varias personas califiquen las
respuestas de varios
sujetos.Este último planteamiento produce un coeficiente entre clases o coeficiente dec
oncordancia que es un coeficiente de fiabilidad entre calificadores generalizado. El
cálculo de fiabilidad entre Inter calificadores es sencillo. Dos o más examinadores
califican
demanera independiente una muestra de las pruebas y entonces se correlacionan las
puntuaciones por pares de examinadores. Este tipo de fiabilidad complementa otrasesti
madas, pero no las sustituye.

Coeficiente Test-Retest
Con este método el coeficiente de Confiabilidad se calcula pasando mismo test dos
veces Alos mismos sujetos. Se pueden pasar inmediatamente, o dejando un intervalo
de tiempo entre el test y el retest. Después se calcula la correlación de Pearson entre
las
puntuacionesde ambas aplicaciones, y el resultado obtenido será el coeficiente de fiabil
idad. Seconsidera un caso específico de formas paralelas, dado que evidentemente un
test es paralelo a sí mismo. Al resultado obtenido se le denomina coeficiente de estabili
dad, alservir de indicador de hasta qué punto son estables las mediciones realizadas
durante
la primera aplicación del test. Las diferencias en los resultados se atribuyen al grado de
consistencia interna o muestreo de los ítems de la prueba en el caso de pasar el retest
de forma inmediata, y se le suman las fluctuaciones en el tiempo en el caso del
intervalo temporal.

Coeficientes de formas Paralelas


Este procedimiento es el que se deriva naturalmente del modelo. Requiere que se
utilicen dos pruebas o instrumentos paralelos, esto es, que midan lo mismo de forma
diferente (por ejemplo, dos tests que con diferentes preguntas midan un determinado
rasgo). Después
secomparan los dos tests, calculando el coeficiente de correlación de Pearson. Estacor
relación será, como hemos visto en el apartado anterior, el coeficiente de fiabilidad. Si
la correlación es alta, se considera que hay una buena fiabilidad. Al valor obtenido
también sele conoce como coeficiente de equivalencia, en la medida en que supone un
indicador del grado de equivalencia entre las dos formas paralelas de un
test.La dificultad de este procedimiento radica en conseguir que dos instrumentos seanr
ealmente "paralelos", dada la dificultad que supone realizar dos pruebas que midanexa
ctamente lo mismo, pero con diferentes ítems. No obstante, en condiciones ideales
enlas que se pueda garantizar el paralelismo de ambas formas, este es el método másr
ecomendable.

Coeficiente de Consistencia Interna


Es usualmente una medida basada en las correlaciones entre distintos ítems dentro de
la misma prueba. Mide si los distintos ítems producen resultados similares en el
supuesto general. Por ejemplo, si un encuestado se expresó favorablemente con la
proposición "Me gusta andar en bicicleta" y "He disfrutado haciendo ciclismo en el
pasado", y en desacuerdo con la proposición "Odio las
bicicletas", sería esto entonces indicativo de una buenaconsistencia interna en el test.

Método de división de mitades de Spearman


Se trata en este caso de poner en relación las puntuaciones entre dos partes del mismo
test, actuando ambas como si fuesen dos formas paralelas. La división del test en dos
mitades se puede llevar a cabo de muy distintas formas, sin embargo, para realizarla
correctamente con el propósito de calcular la fiabilidad, hay que tener en cuenta cómo
ese test ha sido diseñado. En un test con ítems muy homogéneos, cualquier división en
dos mitades
se puede aceptar como adecuada. Por el contrario, en aquellos casos en los que el test
vacreciendo en dificultad a medida que se avanza en su ejecución o bien, en aquellos
otros en que, sin ser de dificultad creciente, se les ha introducido al principio un
pequeño número de ítems de pequeña dificultad con el fin de motivar al sujeto, no sería
conveniente el realizar una división arbitraria en dos mitades sin tener en cuenta dichas
características. Una de las divisiones en dos mitades, que tiende a paliar las
dificultades anteriormente mencionadas, es aquella en que el criterio es el de elegir por
un lado los elementos que ocupan los lugares pares del test y por otro los impares,
para utilizarlos como dos formas paralelas. El coeficiente de confiabilidad se obtiene
correlacionando las puntuaciones logradas en una mitad de una prueba con las
alcanzadas en la otra mitad de la misma, y aplicando la fórmula Spearman – Brown
para compensar la doble longitud de toda la prueba. Los coeficientes de confiabilidad
de división en dos mitades a veces se llaman medidas de consistencia interna de una
prueba; sólo se refieren al muestreo de contenido y no a la estabilidad de la prueba a
través del tiempo. Este tipo de coeficiente de confiabilidad es impropio para las pruebas
en que la rapidez es importante. Este procedimiento de división en dos mitades es
adecuado en cuanto a lo que la forma de obtener la correlación se refiere, si bien, hay
que hacer notar que la fiabilidad así calculada no tiene el mismo sentido que en ese
otro caso de utilización de dos test diferentes como formas paralelas.

Método Kuder-Richardson
Se trata de dos fórmulas empleadas para establecer la fiabilidad de un examen a partir
de las características estadísticas de las preguntas del mismo, concretamente sus
medias y sus varianza. La media de una pregunta dicotómica (esto es, aquella que se
puntúa como correcta o incorrecta) es la proporción de individuos que la responden
correctamente (p); su varianza es el producto de p y q (siendo q el número de
individuos que responden incorrectamente). La Fórmula KR20 utiliza información
acerca de la dificultad de cada pregunta, ya que se basa en el número de preguntas
del examen, la suma de sus varianzas y la varianza total del examen. La Fórmula KR21
es más sencilla, puesto que requiere menos información y asume que las preguntas
poseen el mismo grado de dificultad (aunque, por otra parte, también proporciona un
coeficiente de fiabilidad más bajo que la FórmulaKR20). Se halla a partir del número de
preguntas del examen, la puntuación media obtenida en el mismo y la
desviación estándar. Las fórmulas deducidas por Kuder y Richardson están destinadas
a estimar la confiabilidad de una prueba. Estas fórmulas se basan en la consistencia
inter – ítem y sólo requieren una administración de la prueba. La más usada de ellas, la
fórmula 20, requiere información basada en el número de ítems de la prueba, la
desviación estándar de la puntuación total yla proporción de examinados que
aprobaron cada ítem. Las fórmulas de Kuder-Richardsonno deben utilizarse con
pruebas en donde la velocidad de resolución es importante.
Coeficiente Alfa
El coeficiente Alfa de Cronbach es el indicador de confiabilidad de escalas
psicométricas más usado en ciencias sociales. El Alfa de Cronbach nos da una medida
de la consistencia interna que tienen los
reactivosque forman una escala. Si esta medida es alta, suponemos tener evidencia de
la homogeneidad de dicha escala, es decir, que los ítems están “apuntando” en la
mismadirección.
Por esta razón, el Alfa de Cronbach suele interpretarse como una medida deunidimensi
onalidad de una escala, por tanto, de que estamos midiendo de maneraconsistente
algo con ella. Esto es, asumimos que nuestra escala es Tau equivalente o
esencialmente Tau equivalente.

3. Describa los tipos de validez (Según AIKEN).


3.1. Validez aparente o de facie
3.2. Validez de Contenido
3.3. Validez con relación al criterio
3.4. Validez predictiva
3.5. Validez del constructo
3.6. Validez creciente
3.7. Validez concurrente
3.8. Validez de los evaluadores

Describa los tipos de validez (Según AIKEN).Validez aparente o de facie


Se relaciona más con lo que la prueba parece medir que con lo que en realidad mide.
Esun juicio concerniente a los relevantes que parecen ser los reactivos de la prueba. S
onevidencias de validez que tienen más relación con las personas que responden elcue
stionario y no con el administrador. Cuando sometemos nuestra prueba a juicio experto
y a la prueba piloto, estamos dando evidencia de este tipo de validez. La simple
apariencia de validez, no es una base aceptable para hacer inferencias interpretativas.

Validez de Contenido
Representa la comprobación de que el contenido de la técnica en cuestión comprenda
una muestra representativa del universo posible de conductas que se pretende evaluar
con ella. Se relaciona con el enfoque referido a criterios y considera a un test como
una muestra de un conjunto definido de conductas.

Validez con relación al criterio


Se refiere al grado de eficacia con que se puede predecir o pronosticar una variable de
interés (criterio) a partir de las puntuaciones en un test. Es frecuente que en los
procesos
deselección de personal se utilicen instrumentos que pretendan determinar o predecir e
lrendimiento futuro de los candidatos al puesto de trabajo basándose en las respuestas
obtenidas

Validez predictiva
Tipo de validez de criterio que permite establecer predicciones con respecto alcomporta
miento, a partir de la comparación entre los valores del instrumento y el criterio.

Validez del constructo


Establece el grado en el cual un instrumento mide o guarda relación con un
determinado rasgo o constructo hipotético. Algunos autores afirman que toda medición
debería referirse constructos, debido a que integra las consideraciones arteriales y de
contenido.

Validez creciente
Es cuando se intenta decidir si la aplicación de un instrumento particular de evaluación
con propósitos predictivos o de diagnóstico está justificada por su costo.

Validez concurrente
Sirve para confirmar los resultados de la investigación, es el hecho de dos o más
grupos de personas difieran de manera esperada en la medida posibles
tal grado en que dos sistemas de medición diferentes produzcan la correlación de los
resultados, debemos tener muy claro que una escala que tenga validez concurrente no
necesariamente tendrá validez predictiva. Para determinar la validez concurrente
implica tener dos situaciones de medida diferentes: el predictor y el criterio.

Validez de los evaluadores


La validez depende, a su vez, de una actitud de aproximación de igual a igual, entre el
evaluador y el evaluado, revisando permanentemente las conjeturas planteadas para
que resulte en todos los casos,
y desarrollando conjuntamente un proceso de intersubjetividad progresiva sobre el
propio proceso de construcción

También podría gustarte