Tema 4

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 42

TEMA 4

ANLISIS FACTORIAL

Anlisis factorial
Introduccin Mtodo de los factores principales Mtodo de la mxima verosimilitud Estimacin del nmero de factores Rotacin de factores Tipos de rotacin Rotacin varimax Rotacin cuartimax Rotacin oblimin Ejemplos

Introduccin
En numerosas reas de Psicologa y de Ciencias del Comportamiento no es posible medir directamente las variables que interesan; por ejemplo, los conceptos de inteligencia y de clase social. En estos casos es necesario recoger medidas indirectas que estn relacionadas con los conceptos que interesan. Las variables que interesan reciben el nombre de variables latentes y la metodologa que las relaciona con variables observadas recibe el nombre de Anlisis Factorial. El modelo de Anlisis Factorial es un modelo de regresin mltiple que relaciona variables latentes con variables observadas. El Anlisis Factorial tiene muchos puntos en comn con el anlisis de componentes principales, y busca esencialmente nuevas variables o factores que expliquen los datos.

Introduccin
En el anlisis de componentes principales, en realidad, slo se hacen transformaciones ortogonales de las variables originales, haciendo hincapi en la varianza de las nuevas variables. En el anlisis factorial, por el contrario, interesa ms explicar la estructura de las covarianzas entre las variables. Al igual que en el mtodo de los componentes principales, para efectuar el anlisis factorial, es necesario que las variables originales no estn incorreladas. Si dichas variables estuvieran incorreladas, no habra nada que explicar de ellas. Consideramos un conjunto de p variables observadas x= (x1, x2, . . . , xp) que se asume relacionadas con un nmero dado de variables latentes f1, f2, . . . , fk, donde k < p, mediante una relacin del tipo:

Introduccin

O de modo ms conciso: x = f + u, donde:

Los ij son los pesos factoriales que muestran como cada xi depende de factores comunes y se usan para interpretar los factores. Por ejemplo, valores altos relacionan un factor con la correspondiente variable observada y as se puede caracterizar cada factor.

Introduccin
Se asume que los trminos residuales u1, . . . , up estn incorrelados entre s y con los factores f1, . . . , fk. Cada variable ui es particular para cada xi y se denomina variable especfica. Dado que los factores no son observables, se puede fijar arbitrariamente su media en 0 y su varianza en 1, esto es, se consideran variables estandarizadas que estn incorreladas entre s, de modo que los pesos factoriales resultan ser las correlaciones entre las variables y los factores. As, con las suposiciones previas, la varianza de la variable xi es

Donde i es la varianza de ui.

Introduccin
De este modo, la varianza de cada variable observada se puede descomponer en dos partes. La primera, denominada comunalidad.

La comunalidad representa la varianza compartida con las otras variables por medio de los factores comunes. La segunda parte, i, se denomina varianza especfica y recoge la variabilidad no compartida con las otras variables. La definicin del modelo implica que la covarianza entre las variables xi y xj es: Las covarianzas no dependen en absoluto de las variables especficas, de hecho, basta con los factores comunes. De este modo, la matriz de covarianzas de las variables observadas es: = 0 +

Introduccin
Donde es una matriz diagonal cuyos componentes son las varianzas especficas: = diag(i). Lo contrario tambin se verifica: dada la descomposicin de la varianza anterior, se puede encontrar un modelo factorial para las variables originales, x, con k factores. En la prctica se tienen que estimar los parmetros del modelo a partir de una muestra. Se tienen dos mtodos de estimacin de los trminos anteriores: el mtodo de los factores principales y el mtodo de mxima verosimilitud.

Mtodo de los factores principales


Es una tcnica basada en autovalores y autovectores pero en lugar de operar sobre la matriz de covarianzas se opera sobre la llamada matriz de covarianzas reducida: Donde el segunto trmino es una matriz diagonal que contiene las estimas de i. Los elementos diagonales de S* contiene las comunalidades estimadas (las partes de las varianzas de cada variable explicada por los factores comunes). Al contrario que el anlisis de componentes principales, el anlisis factorial no pretende recoger toda la varianza observada de los datos, sino la que comparten los factores comunes. De hecho, el anlisis factorial se centra ms en recoger las covarianzas o correlaciones que aparecen entre las variables originales.

Mtodo de los factores principales


El procedimiento es iterativo: se parte de unas comunalidades estimadas a partir de las correlaciones entre las variables observadas y luego se efecta un anlisis de componentes principales sobre la matriz S*.

Mtodo de la mxima verosimilitud


Este mtodo es el habitualmente preferido por los estadsticos. Asumiendo normalidad en los datos se define una distancia F, entre la matriz de covarianzas observada y los valores predichos de esta matriz por el modelo del anlisis factorial. La expresin de dicha distancia es:

Las estimaciones de los pesos factoriales se obtienen minimizando esta funcin, y esto es equivalente a maximizar la funcin de verosimilitud del modelo k factorial asumiendo normalidad.

Estimacin del nmero de factores


El hecho de tomar un nmero adecuado de factores k para representar las covarianzas observadas es muy importante: entre una solucin con k con k + 1 factores se pueden encontrar pesos factoriales muy diferentes, al contrario que en el mtodo de componentes principales, donde los primeros k componentes son siempre iguales. Una ventaja del mtodo de mxima verosimilitud es que lleva asociado un test estadstico para estimar el nmero de factores.

Rotacin de los factores


En el Anlisis Factorial no existe una solucin nica para determinar la matriz de pesos, de hecho, se puede multiplicar por una matriz ortogonal M de orden kk de modo que: x = f + u = (M)(Mf) + u. Y este nuevo modelo verifica las mismas propiedades que el anterior: tiene como factores f* = Mf tiene como matriz de pesos M. En este caso, la matriz de covarianzas de las variables originales es = (M)(M)0 + , Que como MM = I, se reduce a que = + como antes. Puede ser que la solucin sea ms interpretable mediante el uso de alguna matriz ortogonal, lo que lleva al concepto de rotacin de los factores. Segn Thurstone, la intencin fundamental al realizar una rotacin es encontrar una estructura simple. Las propiedades que debe cumplir son

Rotacin de los factores


Cada fila de la matriz factorial de pesos debe contener, al menos, un cero. Cada columna de la matriz factorial de pesos debe contener, al menos, k ceros. Cada par de columnas de la matriz factorial de pesos debe contener varias variables cuyos pesos sean nulos en una columna pero no en la otra. Si hay ms de cuatro factores cada par de columnas de la matriz factorial de pesos debe contener un nmero elevado de variables con pesos nulos en ambas columnas. De manera recproca, si hay ms de cuatro factores, en cada par de columnas de la matriz factorial de pesos slo un nmero pequeo de variables debe contener pesos no nulos.

Rotacin de los factores


Cuando se consigue una estructura simple, las variables observadas se encuentran en grupos mutuamente excluyentes de modo que los pesos son altos en unos pocos factores y bajos en el resto.

Tipos de rotaciones
Hay dos posible tipos de rotaciones: ortogonales y oblicuas. La ventaja principal de las rotaciones ortogonales es su simplicidad, ya que los pesos representan las correlaciones entre los factores y las variables, sin embargo esto no se cumple en el caso de las rotaciones oblicuas. Entre las rotaciones ortogonales se encuentran dos tipos principales: rotacin varimax y rotacin cuartimax. Entre las rotaciones oblicuas, la ms empleada es: rotacin oblimin. En cualquier caso, el hecho de rotar los factores siempre es controvertido ya que se pueden elegir los ejes que resulten de mayor conveniencia. Sin embargo, se puede considerar que una rotacin es slo un medio para conseguir unos ejes que permitan describir los puntos de la muestra de la manera ms simple posible.

Tipos de rotaciones. Rotacin varimax


Fue propuesta por Kaiser (1958), y trata de que los factores tengan unas pocas saturaciones altas y muchas casi nulas en las variables. Esto hace que haya factores con correlaciones altas con un nmero pequeo de variables y correlaciones nulas en el resto, quedando as redistribuida la varianza de los factores.

Tipos de rotaciones. Rotacin cuartimax


Trata que una variable dada est muy correlacionada con un factor y muy poco correlacionada con el resto de factores. Se usa menos frecuentemente que la rotacin varimax.

Tipos de rotaciones. Rotacin oblimin


Trata de encontrar una estructura simple sin que importe el hecho de que las rotaciones sean ortogonales, esto es, las saturaciones no representan ya las correlaciones entre los factores y las variables. Se considera un parmetro que controla el grado de correlacin entre los factores, con valores preferentemente entre 0,5 y 0,5.

Ejemplo 1
Se considera una muestra de los aos de vida esperados por pas, edad y sexo procedentes de Keyfitz y Flieger (1971). Se usa un anlisis factorial por mxima verosimilitud. Primero se prueban tres soluciones con 1, 2 o 3 factores, observndose que la solucin con tres factores es la adecuada, al observar el test con la hiptesis nula de que con tres factores es suficiente. Se obtiene la solucin rotada (varimax por defecto) y se observa: (i) primer factor: est muy relacionado con la esperanza de vida en el nacimiento para mujeres y hombres; (ii) segundo factor: refleja la esperanza de vida para edades ms avanzadas; (iii) tercer factor: tiene los pesos factoriales ms altos en las esperanzas de vida de hombres entre 50 y 75 aos.

Ejemplo 1
En el primer eje se observa que en un extremo se sitan Camern y Madagascar frente al otro extremo donde est USA. En el tercer eje se sita en el valor ms alto Argelia (que tiene alta esperanza de vida para hombres de edad avanzada) frente a Camern.

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 1

Ejemplo 2
En el siguiente ejemplo, se estudia una muestra de consumo de drogas entre 1634 estudiantes de Los Angeles. Se consideraron 13 tipos de sustancias y, as, 13 variables con 5 niveles de respuesta (desde consumo nulo hasta consumo habitual). Se obtiene la matriz de correlaciones. Se obtiene que el nmero ms razonable de factores es de 6. El primero recoge drogas socialmente aceptadas y blandas, el segundo factor se refiere a drogas duras, el tercer factor es simplemente anfetaminas y el cuarto, hachs. Los dos ltimos factores resultan difciles de interpretar. Aunque el nmero de factores matemticamente ms coherente es 6, se puede considerar una solucin con 3 4 factores slo dado que los residuos, obtenidos al restar la matriz de correlaciones original y la reproducida, son pequeos.

Ejemplo 2

Ejemplo 2

Ejemplo 2

Ejemplo 2

Ejemplo 2

Ejemplo 2

Ejemplo 2

Ejemplo 2

También podría gustarte