La Teoría de Los Tests Resumen

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 3

La teoría de los tests: Teoría clásica y teoría de respuesta a los ítems

Los tests son muestras de conducta que permiten llevar a cabo inferencias relevantes sobre la
conducta de las personas.

Nota histórica
Cuando aparecen los emperadores chinos en el año 3000 antes de cristo usaban las pruebas
para evaluar la competencia profesional de los oficiales que iban a entrar a su servicio. Los
tests actuales tienen sus orígenes en las pruebas senso-motoras utilizadas por Galton. Luego
James McKeen fue el primero en utilizar el término test mental en 1890. Binet y Simon
introducen en su nueva escala tareas cognoscitivas para evaluar aspectos como el juicio, la
comprensión y el razonamiento. Después, Terman llevó a cabo la escala Stanford- Binet
utilizando por primera vez el concepto de Coeficiente intelectual (CI). En 1917 aparecen los
tests colectivos cuando se necesitaba reclutar rápidamente a los soldados para la primera
guerra mundial. El test de Alfa iba dirigido a la población general y el Beta a personas
analfabetas o que no dominaban el inglés. Esto permite la aparición de las baterías de tests
cuyo representante más genuino serían las Aptitudes Mentales Primarias (PMA) de Thurstone.
La división de la inteligencia en sus distintos factores o dimensiones dio lugar a la aparición de
dos grandes líneas de estructuración de las dimensiones cognoscitivas, la escuela inglesa y
americana. En la primera se da más importancia a un factor central de inteligencia general,
luego vendrían dos amplias dimensiones, la verbal- educativa y la mecánico- espacial. El
enfoque americano asume una serie de dimensiones no jerarquizadas que compondrían el
perfil cognoscitivo.
Los tests de personalidad se dan con Woodworth con la “hoja de datos personales” en 1917
para detectar neuróticos graves como pionero de los tests de personalidad. Por su parte
Rorschach propone en 1921 su test proyectivo de manchas de tinta, al que seguirán otros
muchos tests basados en el principio de la proyección, que asume que ante un estímulo
ambiguo, la persona evaluada tenderá a producir respuestas que de algún modo reflejan
aspectos importantes de su personalidad.

¿Por qué hacen falta teorías de los tests?


A la construcción y análisis de los tests subyacen teorías que guían su construcción y que
condicionan y tiñen los tests según los avances teóricos y estadísticos.
Los tests son instrumentos de medida sofisticados mediante los cuales los psicólogos llevan a
cabo inferencias y toman decisiones sobre aspectos importantes de las personas. Es
importante asegurarse que esas inferencias sean adecuadas porque de lo contrario se pueden
perjudicar notablemente a las personas. Las teorías estadísticas de los tests van a permitir la
estimación de las propiedades psicométricas de los tests para de ese modo garantizar que las
decisiones tomadas a partir de ellos sean las adecuadas. Sin esas teorías no podríamos estimar
la fiabilidad y la validez de los tests. La construcción de una prueba debe guiarse por un
modelo o teoría psicológica sustantiva que dirige su construcción.
Hay dos grandes enfoques o teorías a la hora de construir y analizar los tests, la teoría Clásica
de los Tests (TCT) y el enfoque de la Teoría de Respuesta a los ítems (TRI).

TEORÍA CLÁSICA DE LOS TESTS


Sus raíces se dan en los trabajos pioneros de Spearman de principios del siglo XX. Lleva por
tanto unos 100 años.

Modelo lineal clásico


El psicólogo tiene que asegurarse de que el instrumento que utiliza mide con precisión y poco
error. Todos esos instrumentos requieren algún indicador del grado de precisión con el que
miden. El problema es que cuando un psicólogo aplica un test, lo que obtiene son las
puntuaciones empíricas que esa persona obtiene en el test, pero eso nada nos dice sobre el
grado de precisión de esas puntuaciones (por ejemplo la puntuación podría estar algo rebajada
porque la persona ese día no está en sus mejores condiciones).
Los psicólogos estamos obligados a garantizar que las puntuaciones de nuestros tests sean
precisas, tengan poco error, el problema es que esto no se sabe escrutando directamente las
puntuaciones que obtienen las personas de los tests. Como no lo podemos hacer así de frente,
es por lo que tenemos que plantear algunos modelos. El error está mezclado con la verdadera
puntuación, como la sal con el agua del mar y para separarlos necesitamos llevar a cabo
algunos procesos y ahí es donde entran las teorías o modelos estadísticos.

El modelo lineal clásico propuesto por Spearman consiste en que la puntuación que una
persona obtiene en un test, que denominamos su puntuación empírica y que suele designarse
con la letra X, está formada por dos componentes, por un lado la puntuación verdadera en ese
test (V) y por otro un error (e), que puede ser debido a muchas causas: X=V+e. Cuando se hace
la prueba tenemos solo un dato, la puntuación empírica (X) y dos incógnitas, la puntuación
verdadera y el error (e). El error cometido al medir alguna variable con un test (e) puede
deberse a muchas razones como el contexto o el test. Spearman añade tres supuestos al
modelo y una definición.
 El primer supuesto es definir la puntuación verdadera (V) como la esperanza
matemática de la puntuación empírica: V= E(X). Se define como puntuación verdadera
de una persona en un test como aquella puntuación que obtendría como media si se
le pasase infinitas veces el test.
 El segundo supuesto Spearman asume que el valor de la puntuación verdadera de una
persona no tiene nada que ver con el error que afecta esa puntuación, es decir no hay
conexión: r (v,e)= 0
 El tercer supuesto establece que los errores de medida de las personas en un test no
están relacionados con los errores de medida en otro test distinto. Es decir no hay que
pensar que los errores cometidos en una ocasión vayan a covariar.

Además del modelo, se formula una definición de lo que son los Tests Paralelos, entendiendo
por ello aquellos tests que miden lo mismo exactamente pero con distintos ítems. Las
puntuaciones verdaderas de las personas en los tests paralelos serían las mismas y también
serían iguales las varianzas de los errores de medida. Un curso sistemático de Psicometría
consiste en llevar a cabo las deducciones correspondientes para a partir de esos ingredientes
llegar a las fórmulas que permiten estimar el grado de error que contienen las puntuaciones
de los test (fiabilidad de los tests). Las fórmulas de Spearman-Brown permiten estimar la
fiabilidad de un test cuando se aumenta o disminuye su longitud; o las fórmulas de atenuación
que permiten estimar el coeficiente de validez de una prueba si se atenúan los errores de
medida.

Teoría de la generalizabilidad y tests referidos al criterio


Ha habido numerosos intentos de estimar los distintos componentes del error, tratando de
descomponerlo en sus partes y el más conocido es la teoría de la Generalizabilidad (TG)
propuesta por Cronbach. Otro desarrollo psicométrico surgido son los Tests Referidos al
Criterio (TRC). Su objetivo es determinar si las personas dominan un criterio concreto o campo
de conocimiento. Se ha desarrollado todo un conjunto de tecnología psicométrica específica
para calcular la fiabilidad y validez, así como para establecer los puntos de corte que
determinan si una persona domina o no el criterio evaluado.

Limitaciones del Enfoque Clásico


Había dos cuestiones básicas que no encontraban buena solución en la teoría clásica.
1) Si un psicólogo evalúa la inteligencia de tres personas distintas con un test diferente
para cada persona, los resultados no son comparables. Este proceder clásico para
solventar el problema de la invarianza no es que sea incorrecto, pero, poco elegante
científicamente, descansa sobre un pilar muy frágil.
2) Las propiedades psicométricas importantes de los tests, tales como la dificultad de los
ítems o la fiabilidad del test, estaban en función del tipo de personas utilizadas para
calcularlas, lo cual resulta inadmisible desde el punto de vista de una medición
rigurosa.
*Aparte de estas dos grandes cuestiones, había otras menores de carácter más técnico.
Por ejemplo, cuando se ofrece un coeficiente de fiabilidad de un test en el marco clásico,
como el coeficiente Alfa de Cronbach, se está presuponiendo que ese test mide con una
fiabilidad determinada a todas las personas evaluadas, cuando tenemos evidencia
empírica que los tests no miden con la misma precisión de todas las personas. El nuevo
marco de la TRI va a solucionar este problema ofreciendo la Función de Información, que
permite estimar la fiabilidad de la prueba en función del nivel de la persona en la variable
medida. Sin embargo, estos nuevos modelos de la TRI no invalidan el enfoque clásico.

TEORÍA DE RESPUESTA A LOS ÍTEMS (TRI)


Reseña histórica
Sus primeros atisbos pueden rastrearse en trabajos pioneros de Thurstone allá por los
años veinte. Actualmente la TRI domina el panorama psicométrico.

Supuestos
Para resolver los problemas citados anteriormente, la TRI va a tener que hacer asunciones
más fuertes y restrictivas que las hechas por la Teoría clásica. El supuesto clave en los
modelos de TRI es que existe una relación funcional entre los valores de la variable que
miden los ítems y la probabilidad de acertar estos, denominando a dicha función Curva
Características del Item.
En el gráfico 1, nótese que al aumentar los valores de la variable medida, denominada θ,
aumenta la probabilidad de acertar el ítem P (θ). Mientras que en la teoría clásica los
valores dependían de la escala de cada test, yendo desde el valor mínimo obtenible en el
test hasta el máximo.
La forma concreta de la CCI viene determinada por el valor que tomen tres parámetros: a,
b y c. Siendo a el índice de discriminación del ítem, b la dificultad del ítem y c la
probabilidad que hay de acertar el ítem al azar. Los valores de los parámetros se calculan a
partir de los datos obtenidos al aplicar los ítems a una muestra amplia y representativa de
personas. La mayoría de los modelos TRI son unidimensionales. Un tercer supuesto de los
modelos TRI es la Independencia Local que significa que para utilizar estos modelos los
ítems han de ser independientes unos de otros.

Modelos
Las funciones más utilizadas son la función logística y la curva normal. La función logística
tiene muchas ventajas sobre la curva normal, pues da resultados similares y sin embargo
es mucho más fácil de manejar matemáticamente. Si solo se tiene en cuenta la dificultad
de los ítems (parámetro b) estamos ante el modelo logístico de un parámetro o modelo de
Rasch. Si además de la dificultad se tiene en cuenta el índice de discriminación de los ítems
(parámetro a) estamos ante el modelo logístico de dos parámetros, y si además se atañe la
probabilidad de acertar el ítem al azar (parámetro c), tenemos el modelo logístico de tres
parámetros. La fórmula del modelo logístico de tres parámetros, donde P(θ) es la
probabilidad de acertar el ítem, θ es la puntuación en la variable medida, a, b, y c son los
tres parámetros descritos, e es la base de los logaritmos neperianos (2,72) y D es una
constante que vale 1,7.

También podría gustarte