Academia.eduAcademia.edu

Uso da análise fatorial exploratória em psicologia

A análise fatorial exploratória (AFE) é um conjunto de técnicas estatísticas amplamente utilizadas nas pesquisas em Psicologia. Durante sua execução, diversas decisões precisam ser tomadas a fim de se obter uma estrutura fatorial adequada. O presente artigo tem por objetivo discutir alguns dos principais aspectos desta técnica, apresentando estudos atualizados sobre o tema. Diferenças entre análise fatorial exploratória e análise de componentes principais, retenção e rotação fatorial, tamanho da amostra ideal, importância da variância explicada e a confiabilidade da solução fatorial são alguns dos tópicos discutidos. Aponta-se para o fato de que todas as decisões a serem tomadas durante a execução de uma análise fatorial exploratória não podem ser arbitrárias e subjetivas, mas devem ser pautadas em critérios teóricos e metodológicos claros. Este estudo pretende auxiliar pesquisadores da área da Psicologia a realizarem AFEs com maior discernimento teórico e metodológico. Palavras-chave: análise fatorial exploratória; rotação; retenção; tamanho amostral; análise paralela.

Avaliação Psicológica, 2012, 11(2), pp. 213-228 Uso da análise fatorial exploratória em psicologia Bruno Figueiredo Damásio1 – Universidade Federal do Rio Grande do Sul, Porto Alegre, Brasil Resumo A análise fatorial exploratória (AFE) é um conjunto de técnicas estatísticas amplamente utilizadas nas pesquisas em Psicologia. Durante sua execução, diversas decisões precisam ser tomadas a im de se obter uma estrutura fatorial adequada. O presente artigo tem por objetivo discutir alguns dos principais aspectos desta técnica, apresentando estudos atualizados sobre o tema. Diferenças entre análise fatorial exploratória e análise de componentes principais, retenção e rotação fatorial, tamanho da amostra ideal, importância da variância explicada e a coniabilidade da solução fatorial são alguns dos tópicos discutidos. Aponta-se para o fato de que todas as decisões a serem tomadas durante a execução de uma análise fatorial exploratória não podem ser arbitrárias e subjetivas, mas devem ser pautadas em critérios teóricos e metodológicos claros. Este estudo pretende auxiliar pesquisadores da área da Psicologia a realizarem AFEs com maior discernimento teórico e metodológico. Palavras-chave: análise fatorial exploratória; rotação; retenção; tamanho amostral; análise paralela. Uses of exploratory factorial analysis in psychology AbstRAct Exploratory factor analysis (EFA) is a set of widely used statistical techniques in psychological research. During its implementation, several decisions need to be taken in order to obtain a suitable factor structure. This study aims to present and discuss some of the main aspects of this technique, eliciting up-to-date studies on the topic. Differences between exploratory factor analysis and principal component analysis, factor retention and factor rotation, adequate sample size, explained variance importance, and factor solution reliability are some of the discussed topics. It is pointed out the fact that all decisions to be taken during the implementation of an exploratory factor analysis cannot be arbitrary and subjective, but must be based on clear theoretical and methodological criteria. This study intends to assist researchers in the ield of Psychology to conduct EFAs with higher theoretical and methodological discernment. Keywords: exploratory factor analysis; rotation; retention; sample size; parallel analysis. Usos de análisis factorial exploratoria en psicología Resumen El análisis factorial exploratorio (AFE) es un conjunto de técnicas estadísticas ampliamente utilizadas en la investigación en Psicología. Durante su ejecución, diversas decisiones necesitan ser tomadas con el objetivo de obtener una estructura factorial adecuada. Este artículo tiene como objetivo discutir algunos de los principales aspectos de esta técnica, presentado estudios actualizados acerca de la temática. Las diferencias entre análisis factorial exploratorio y análisis de componentes principales, retención y rotación factorial, tamaño ideal de la muestra, importancia de la variancia explicada y la coniabilidad de la solución factorial son algunos de los tópicos discutidos. Se subraya el hecho de que todas las decisiones tomadas durante la ejecución de un análisis factorial exploratorio no pueden ser arbitrarias o subjetivas, sino que deben estar basadas en criterios teóricos y metodológicos claros. Este estudio pretende ayudar los investigadores del área de Psicología a realizar AFEs con mayor discernimiento teórico y metodológico. Palabras-clave: análisis factorial exploratorio; rotación; retención; tamaño de la muestra; análisis paralela. 1 Endereço para Correspondência: Rua Ramiro Barcelos, 2600, Sala 104. CEP 90035-003 Porto Alegre - RS Telefones: (51) 3308.5150 / (51) 9240.1055 E-mail: [email protected] 213 214 Damásio A análise fatorial exploratória (AFE) tem sido um dos procedimentos estatísticos mais comumente utilizados no desenvolvimento, avaliação e reinamento de instrumentos psicológicos (Floyd & Widaman, 1995). Deine-se AFE como um conjunto de técnicas multivariadas que tem como objetivo encontrar a estrutura subjacente em uma matriz de dados e determinar o número e a natureza das variáveis latentes (fatores) que melhor representam um conjunto de variáveis observadas (Brown, 2006). Ao analisar a estrutura das inter-relações de um determinado número de variáveis observadas, a AFE deine o(s) fator(es) que melhor explica(m) a sua covariância (Hair, Anderson, Tatham & Black, 2005). As variáveis observadas “pertencem” a um mesmo fator quando, e se, elas partilham uma variância em comum (são inluenciadas pelo mesmo construto subjacente) (Brown, 2006). Assim, um fator é uma variável latente (por exemplo, autoestima) que inluencia mais de uma variável observada (por exemplo, ‘estou satisfeito comigo’; ‘tenho boas qualidades’; ‘sou uma pessoa de valor’), representando, assim, a covariância entre elas. A AFE é geralmente conduzida quando: 1) o pesquisador não possui uma teoria prévia subjacente ou evidências empíricas suicientes que explicitem como os itens de determinado instrumento devem ser agrupados e avaliados; ou 2) quando o pesquisador quer conirmar ou refutar a estrutura fatorial de determinado instrumento (Brown, 2006). Durante a realização de AFEs, diversas decisões precisam ser tomadas a im de se obter uma estrutura fatorial adequada (Costello & Osborne, 2005). Uma vez que os resultados obtidos nas AFEs dependem, em grande medida, das decisões tomadas pelo pesquisador, a técnica possui um alto potencial de produzir resultados errôneos e/ou não coniáveis (Patil, Singh, Mishra & Donavan, 2008). Assim, todas as decisões tomadas durante a realização de uma AFE devem ser pautadas em critérios teóricos e metodológicos claros, buscando a obtenção de modelos fatoriais adequados. No que se refere à Psicologia, uma parcela signiicativa dos estudos que utilizam análises fatoriais exploratórias empregam métodos equivocados, desenvolvidos na metade do século passado, principalmente por estes ainda serem os métodos padrão nos principais programas estatísticos (Fabrigar, Wegener, MacCallum & Strahan, 1999; Widaman, 2007). Considerando esses aspectos, o presente Avaliação Psicológica, 2012, 11(2), pp. 213-228 artigo tem por objetivo discutir alguns dos principais pontos referentes às AFEs, trazendo informações atualizadas sobre o constante desenvolvimento desta técnica, com vistas a auxiliar os pesquisadores na sua execução. Análises Fatoriais Exploratórias e Análise de Componentes Principais Inicialmente, é necessário diferenciar a AFE da Análise de Componentes Principais (ACP). A AFE e a ACP são duas técnicas que têm por objetivo reduzir um determinado número de itens a um menor número de variáveis. Ainda que haja uma signiicativa diferença entre essas duas técnicas de redução de dados, elas são, geralmente, utilizadas indiscriminadamente na Psicologia (Widaman, 2007). A ACP foi por muito tempo o método de redução de dados mais utilizado nas pesquisas em Psicologia. Sua popularidade se deu, em grande medida, ao fato de que seus cálculos computacionais eram mais simples, e, portanto, mais rápidos e mais baratos, quando comparados às AFEs (Costello & Osbourne, 2005; Gorsuch, 1983). Devido ao seu amplo uso e ao fato de que ACP é, ainda hoje, o método padrão de redução de dados em muitos dos principais programas estatísticos (por exemplo, SPSS e SAS), muitos pesquisadores erroneamente acreditam que ACP seja um tipo de AFE (Jollife, 2005). As ACPs geram componentes, enquanto as AFEs geram fatores. A diferença entre componentes e fatores está relacionada à forma como os itens são retidos. Ambos os métodos de redução de dados assumem que a variância de uma variável é composta por três aspectos: variância especíica; variância comum; e variância de erro. A variância especíica refere-se à porção de variância do item que não é compartilhada com nenhuma outra variável. A variância comum refere-se à variância que é compartilhada entre todos os itens que compõem determinado fator ou componente. A variância de erro refere-se à parcela do item não explicada pelo componente ou fator (Ver Figura 1). A ACP está baseada apenas na correlação linear das variáveis observadas, e não diferencia a variância comum da variância especíica entre os itens. Quando os itens são retidos em um determinado componente, utilizando o método da ACP, os índices apresentados incluem tanto a variância comum quanto a variância especíica (na Figura 1, Análise fatorial exploratória 215 Figura 1 - Ilustração das variâncias de três itens e suas relações com um fator hipotético. Ai + B). Já nas AFEs, apenas a variância comum (a parcela de variância que os itens compartilham entre si) é considerada (na Figura 1, apenas B). Uma vez que as AFEs têm por objetivo revelar construtos latentes que explicam a covariância entre os itens, as variâncias especíicas (parcelas individuais dos itens) que não covariam entre si, não são consideradas. Por exemplo, se o pesquisador está avaliando o construto depressão, apenas lhe interessará a parcela de variância dos itens que se reiram à depressão (variância comum). A parcela do item que não é inluenciada pelo construto (seja ela variância especíica ou variância de erro) não cabe nos objetivos da AFE, não sendo, portanto, considerada. Ao comparar os resultados de uma ACP com os resultados de uma AFE, é possível perceber que, na ACP, os itens tendem a apresentar cargas fatoriais e comunalidades mais elevadas, e taxas de variância explicada inladas, quando comparadas a AFEs (Costello & Osbourne, 2005; Widaman, 2007). Isso ocorre porque a variância especíica de cada item é considerada. Esses resultados, porém, são imprecisos quando se tem por objetivo compreender um construto latente que gera a covariância entre os itens (Costello & Osbourne, 2005; Ogasawara, 2003). Devido ao fato de que na maioria das pesquisas em Psicologia o interesse dos pesquisadores é observar um construto latente (por exemplo, depressão; autoeicácia; satisfação no trabalho; personalidade; bem-estar psicológico, agressividade) que melhor explique a inter-relação entre um conjunto de itens, o uso da ACP é desaconselhado (Costelo & Osbourne, 2005; Floyd & Widaman, 1995; Velicer, Eaton & Fava, 2000). Pressupostos das Análises Fatoriais Exploratórias O primeiro passo durante a implementação de AFEs é observar se a matriz de dados é passível de fatoração, isto é, analisar se os dados podem ser submetidos ao processo de análise fatorial (Pasquali, 1999). Para isso, dois métodos de avaliação são mais comumente utilizados, a saber: o critério de KaiserMeyer-Olkin (KMO); e o Teste de Esfericidade de Bartlett (Dziuban & Shirkey, 1974). O índice de KMO, também conhecido como índice de adequação da amostra, é um teste estatístico que sugere a proporção de variância dos itens que pode estar sendo explicada por uma variável latente (Lorenzo-Seva, Timmerman & Kiers, 2011). Tal índice indica o quão adequada é a aplicação da AFE para o conjunto de dados (Hair e cols., 2005). O KMO é calculado por meio do quadrado das correlações totais dividido pelo quadrado das correlações parciais, das variáveis analisadas (Field, 2005). Seu valor pode variar de zero a um. Valores iguais ou próximos a zero indicam que a soma das correlações parciais dos itens avaliados é bastante alta em relação à soma das correlações totais. Nesses casos, possivelmente a análise fatorial será inapropriada (Pasquali, 1999). Como regra para interpretação dos índices de KMO, valores menores que 0,5 são considerados inaceitáveis, valores entre 0,5 e 0,7 são considerados medíocres; valores entre 0,7 e 0,8 são considerados bons; valores maiores que Avaliação Psicológica, 2012, 11(2), pp. 213-228 216 Damásio 0,8 e 0,9 são considerados ótimos e excelentes, respectivamente (Hutcheson & Sofroniou, 1999). O teste de esfericidade de Bartlett, por sua vez, avalia em que medida a matriz de (co)variância é similar a uma matriz-identidade (os elementos da diagonal principal tem valor igual a um, e os demais elementos da matriz são aproximadamente zero, ou seja, não apresentam correlações entre si; Field, 2005). Segundo Hair e cols. (2005), esse teste avalia, também, a signiicância geral de todas as correlações em uma matriz de dados. Valores do teste de esfericidade de Bartlett com níveis de signiicância p < 0,05 indicam que a matriz é fatorável (Tabachnick & Fidell, 2007), rejeitando a hipótese nula de que a matriz de dados é similar a uma matriz-identidade. Em geral, os resultados dos testes de KMO e de esfericidade de Bartlett tendem a ser uniformes, aceitando ou negando a possibilidade de fatoração da matriz de dados (Dziuban & Shirkey, 1974). Se a matriz de dados é passível de fatoração, o pesquisador deve prosseguir avaliando os índices de distribuição de normalidade multivariada da amostra, para que possa ser escolhido um método de extração apropriado (por exemplo, máxima verossimilhança; principais eixos fatoriais; mínimos quadrados generalizados; mínimos quadrados nãoponderados; fatoração alfa). Em geral, os métodos ‘máxima verossimilhança’ (maximum likelihood, ML) e ‘principais eixos fatoriais’ (principal axis factoring, PAF) fornecem os melhores resultados quando as amostras apresentam distribuição normal e não-normal, respectivamente (Costello & Osborne, 2005; Fabrigar e cols., 1999). Entretanto, se o pesquisador tem razões especíicas para utilizar outros tipos de extração, estas devem ser consideradas (para maiores informações sobre os diferentes métodos de extração, sugere-se a leitura de Kim & Mueller, 1978). Retenção de Fatores Uma das mais importantes decisões a ser tomada durante a execução de AFEs se refere ao número de fatores a ser retido (Artes, 1998; Glorfeld, 1995). Uma extração inadequada impossibilita a interpretação dos resultados de maneira apropriada (Hayton, Allen & Scarpello, 2004). Durante o processo de retenção fatorial em uma AFE, basicamente dois problemas podem ocorrer: 1) a superestimação de fatores (reter um número de fatores maior do que o adequado); e 2) a subestimação de fatores (reter Avaliação Psicológica, 2012, 11(2), pp. 213-228 um número de fatores menor que o adequado). A superestimação de fatores retidos tende a produzir resultados não-parcimoniosos, baseados em construtos supérluos, com reduzido ou inadequado poder explicativo (Patil e cols., 2008). Do mesmo modo, a subestimação de fatores retidos resulta em perda signiicativa de informação (Franklin, Gibson, Robertson, Pohlmann & Fralish, 1995). Diversos procedimentos e critérios de retenção fatorial foram desenvolvidos. Dentre eles, o mais utilizado até então, é o critério de Kaiser-Guttman, mais conhecido como eigenvalue > 1 (Patil e cols., 2008). Tal critério propõe uma avaliação rápida e objetiva do número de fatores a ser retido. A lógica por trás do critério de Kaiser-Guttman é simples: cada fator retido apresenta um eigenvalue que se refere ao total de variância explicada por este fator. A soma total dos eigenvalues é sempre igual ao número de itens utilizados na análise (utilizando uma escala de 10 itens, a soma dos 10 eigenvalues retidos é igual a 10). Assim, um componente com eigenvalue < 1 apresenta um total de variância explicada menor do que um único item. Como o objetivo das análises fatoriais é reduzir um determinado número de variáveis observadas em um número menor de fatores, apenas fatores com eigenvalue > 1 são retidos (Floyd & Widaman, 1995). Apesar da simplicidade, da objetividade e do amplo uso desse critério, há forte consenso na literatura de que seus resultados são imprecisos (Costello & Osbourne, 2005; Floyd & Widaman; 1995; Patil e cols., 2008; Reise, Waller &Comrey, 2000). Um estudo de simulação Monte-Carlo (Costello & Osborne, 2005) demonstrou que o critério de Kaiser-Guttman superestimou em 36% dos casos o número de fatores retidos. Fava e Velicer (1992) demonstraram que tal superestimação tende a ocorrer principalmente quando o tamanho da amostra e/ou as cargas fatoriais dos itens (saturação) são baixas. O critério de Kaiser-Guttman foi desenvolvido com base em uma matriz de correlação populacional. Uma vez que as pesquisas em Psicologia utilizam, em geral, amostras (parcelas da população), o critério do eigenvalue > 1 tende a superestimar o número de fatores a ser retido devido ao erro amostral (Laher, 2010; Ledesma & ValeroMora, 2007). Portanto, o critério de Kaiser-Guttman como método de retenção fatorial não é recomendado (Patil e cols., 2008; Velicer e cols., 2000). Análise fatorial exploratória Outro método amplamente relatado, porém de pouca utilidade prática, é o teste do “scree plot” ou teste de Cattell (Cattell, 1966). Tal procedimento consiste na observação do gráico dos eigenvalues, no qual é apresentado o número de dimensões (eixox) e seus eigenvalues correspondentes (eixo-y, ver Figura 2). Por meio da análise do gráico, é possível observar quais fatores apresentam maiores eigenvalues, sendo, portanto, responsáveis por uma maior variância explicada. O objetivo é encontrar o ponto (comumente chamado de ‘cotovelo’) onde os eigenvalues apresentam uma tendência descente linear (Reise e cols., 2000). Muitas vezes essa identiicação é confusa. Ainda que o scree plot funcione relativamente bem para fatores bem deinidos, em casos mais complexos, onde não há um ponto de corte claro, a escolha do número de fatores a ser retido passa a ser subjetiva e ambígua (Fabrigar e cols., 1999; Hayton e cols., 2004). Um terceiro critério que vem sendo cada vez mais consolidado na literatura internacional, porém ainda pouco utilizado no Brasil, é o método das análises paralelas (AP) (Horn, 1965). Inicialmente, o método da AP foi desenvolvido para ser utilizado como critério de retenção de componentes. Entretanto, tem sido adaptado para o uso no contexto das AFEs (Crawford e cols., 2010; Velicer e cols., 2000), e é considerado um procedimento adequado para determinar o número de fatores a serem retidos (Glorfeld, 1995; Lorenzo-Seva e cols., 2011; Patil e cols., 2008). A AP é um procedimento estatístico de simulação Monte-Carlo que consiste na construção aleatória de um conjunto hipotético de matrizes de correlação de variáveis, utilizando como base a mesma dimensionalidade (o mesmo número p de variáveis e o mesmo número n de sujeitos) do conjunto de dados reais (Laros, 2004). A matriz hipotética é fatorada centenas ou milhares de vezes (dependendo da robustez adotada pelo pesquisador), e a média dos eigenvalues oriunda desta simulação é calculada. Os valores dos eigenvalues dos dados reais são comparados (pareados) com os eigenvalues aleatórios (primeiro eigenvalue real pareado com primeiro eigenvalue aleatório; segundo eigenvalue real pareado com segundo eigenvalue aleatório, e assim por diante). O número de fatores nos dados reais a ser retido refere-se àqueles que apresentam eigenvalue > 1 e que apresentam valor maior do que o respectivo eigenvalue obtido por meio dos dados 217 aleatórios (O’Connor, 2000). Nas APs, o critério do eigenvalue > 1 também é considerado, porém, este não é o fator decisivo. Fatores com eigenvalue > 1, mas com eigenvalues menores que os obtidos nas APs são descartados. Para aumentar a acurácia do método, deve-se considerar o intervalo de coniança de 95% obtido nos valores dos eigenvalues aleatórios (Crawford e cols., 2010). Com o objetivo de avaliar a aplicabilidade das APs e de avaliar a qualidade de estudos reportados utilizando outros critérios de retenção de fatores (eigenvalue > 1 e o scree plot), Franklin e cols. (1995) avaliaram 39 AFEs em 22 estudos aleatórios. Os autores conduziram APs utilizando as mesmas dimensionalidades (mesmo número de respondentes e mesmo número de itens) das matrizes de correlação dos artigos analisados, e concluíram que 66,7% destes estudos apresentavam superestimação do número de fatores extraídos. A melhor acurácia das APs na determinação do número de fatores a ser retido se dá pelo fato de que a AP é uma técnica baseada em amostras, e não baseada na população, como é a técnica do eigenvalue > 1 (Franklin e cols., 1995; Zwick & Velicer, 1986). Comparando os eigenvalues dos dados reais com a média dos eigenvalues dos dados aleatórios, ao invés de ixar o valor de 1 (como no critério de Kaiser-Guttman), o erro amostral é considerado, diminuindo a probabilidade de uma retenção de fatores equivocada. Outra vantagem das APs é que este método é minimamente afetado pelo tamanho da amostra ou pelas cargas fatoriais dos itens (Velicer e cols., 2000). A Figura 2 ilustra uma aplicação da AP, em comparação com outros métodos de retenção apresentados anteriormente (scree plot e eigenvalue > 1). O scree plot da Figura 2 foi obtido por meio de uma AFE, utilizando o método de extração Principais Eixos Fatoriais e rotação promax, em uma matriz de correlação composta por 10 variáveis (N = 500). A AP foi aplicada em uma matriz hipotética de mesma dimensionalidade (p = 10; N = 500) replicada mil vezes por meio do programa FACTOR (LorenzoSeva & Ferrando, 2006). Conforme se pode observar no gráico, a retenção de fatores utilizando o critério scree plot, proposto por Cattell (1966) é relativamente confusa. Apesar de o primeiro fator ser nitidamente preponderante, a linha onde os eigenvalues apresentam uma tendência descente linear (Reise e cols., 2000) Avaliação Psicológica, 2012, 11(2), pp. 213-228 218 Damásio não é totalmente clara. Já, considerando o critério de Kaiser-Guttman, se pode perceber que dois fatores deveriam ser retidos, visto que o primeiro e o segundo fator dos dados reais apresentam eigenvalue > 1. O método das análises paralelas, por sua vez, elucida esse impasse. Pode-se perceber que o segundo eigenvalue obtido por meio das APs é maior que o segundo eigenvalue obtido por meio da matriz de dados reais, demonstrando que o segundo fator não é adequado, sendo, provavelmente, oriundo de erro amostral. Apesar de sua melhor acurácia, o método das APs ainda não é amplamente conhecido pelos pesquisadores, em parte porque não se encontra incluído nos principais programas estatísticos (Ledesma & Valero-Mora, 2007). Para sua execução, podem-se utilizar alguns programas computacionais, tais como FACTOR (Lorenzo-Seva & Ferrando, 2006); MonteCarlo Parallel Analysis (Watkins, 2000), bem como um website desenvolvido especiicamente para tal (http://ires.ku.edu/~smishra/parallelengine.htm Patil, Singh, Mishra & Donavan, 2007). Outro método que vem apresentando adequado desempenho na retenção de fatores é o método da média mínima parcial (Minimum Average Partial, MAP), proposto por Velicer (1976). Assim como as APs, o MAP foi inicialmente desenvolvido para ser utilizado no contexto dos componentes principais, entretando vem sendo utilizado também como critério de retenção fatorial (Lorenzo-Seva e cols., 2011). O teste MAP de Velicer baseia-se na porção da variância sistemática e não-sistemática restante em uma matriz de correlação após uma crescente extração de fatores (Zwick & Velicer, 1986). Inicialmente, todos os itens referentes ao primeiro componente/fator são parcializados, e o coeiciente da média ao quadrado dos elementos fora da diagonal principal (off-diagonal) da matriz parcial de correlação é calculado. Num segundo momento, os dois principais componentes/fatores são parcializados na matriz de correlação, e a média ao quadrado desta segunda correlação parcial é, mais uma vez, computada. Essas análises são realizadas para um número k (referente ao número de variáveis menos um). As médias ao quadrado das correlações parciais são, posteriormente, comparadas entre si (O’Connor, 2000). No ponto em que a variância comum de todos os itens foi completamente parcializada, a média mínima generalizada atinge seu valor mínino. O momento em que esta média passa a subir, indica que a variância especíica dos itens está passando a ser considerada (Velicer, 1976). Uma vez que o objetivo das AFEs é agrupar itens que compartilhem entre si apenas a variância comum, o número de fatores a ser retido refere-se ao número representado pela menor média quadrática das correlações parciais. O processo do MAP é um critério estatístico coniável para a retenção do número de fatores, separando os fatores que consistem apenas de variância comum (Garrido, Abad & Ponsoda, 2011). De acordo com estudos de simulação MonteCarlo (Zwick & Velicer, 1986), o teste MAP foi mais adequado na identiicação do número de fatores a ser retido quando comparado aos critérios do eigenvalue > 1 e o teste de Cattell, e teve um desempenho similar ao método das APs. Recentemente, Figura 2 - Scree Plot de um procedimento demonstrativo de Análises Paralelas. Avaliação Psicológica, 2012, 11(2), pp. 213-228 Análise fatorial exploratória Lorenzo-Seva e cols. (2011) demonstraram que a melhor performance do MAP se deu quando a proporção do número de variáveis por fator era baixa (< 5) e quando a amostra era relativamente grande (> 200). Assim como o método das APs, o teste MAP de Velicer não está presente nos principais pacotes estatísticos, tais como SPSS e SAS, mas pode ser realizado por meio do programa FACTOR (para maiores informações sobre este método, sugere-se a leitura de Garrido e cols., 2011; O’Connor, 2000; Velicer, 1976; Zwick e Velicer, 1986). Por im, vale a pena citar um novo método de retenção fatorial, intitulado método Hull, desenvolvido por Ceulemans e Kiers (2006) e adaptado para uso na AFE por Lorenzo-Seva e cols. (2011). Tal método é baseado no conceito matemático de fecho convexo (em inglês, convex hull). O fecho convexo, na matemática, refere-se ao menor polígono que engloba todas as variáveis existentes em um eixo bidimensional. Em outras palavras, o fecho convexo de um conjunto de dados é a ligação do menor número possível dos pontos extremos de um conjunto de dados que, ao serem ligados, incluirá todos os outros dados existentes (ver Figura 3). Aplicado às AFEs, o método Hull tem apresentado grande potencial enquanto método de retenção fatorial. Sua execução envolve alguns passos que serão brevemente descritos. Inicialmente, se determina a amplitude de fatores a serem avaliados. Para isso, Lorenzo-Seva e cols. (2011) sugerem utilizar o critério das APs que indicam a quantidade mínima e máxima de fatores a serem extraídos. Posteriormente, se avalia os índices de adequação 219 de ajuste de todas as soluções fatoriais, bem como os graus de liberdade de cada um dos modelos. Os valores de adequação de ajuste podem ser obtidos por meio de diferentes índices. Todas as soluções fatoriais são plotadas em um gráico similar ao scree plot, no qual o eixo-y é composto pelos índices de ajuste do modelo, e o eixo-x é composto pelos seus respectivos graus de liberdade. As soluções que não estiverem no limite do fecho convexo (que não sejam os vértices do fecho) são descartadas. Assim, um número reduzido de soluções fatoriais passa a ser considerado. A solução fatorial a ser retida refere-se àquela que se encontra no cotovelo (na quebra) do gráico plotado. Essa mesma solução apresenta o maior valor númerico scree test (st), que se refere a uma fórmula matemática que pondera a relação entre o índice de adequação de ajuste e os graus de liberdade de um modelo, em comparação com um modelo prévio (ver Ceuleman & Kiers, 2006; Ceulemans, Timmerman & Kiers, 2010; Lorenzo-Seva e cols., 2011). A denominação scree test (st) dada ao cálculo executado no método Hull advém do fato de que o método Hull é considerado como uma implementação matemática ao scree-plot (Ceulemans & Kiers, 2006; LorenzoSeva e cols., 2011). Em um estudo de simulação, Lorenzo-Seva e cols. (2011) testaram a adequação do método Hull para a AFE em 114 mil matrizes de dados simuladas. Os autores manipularam cinco condições, a saber: 1) proporção de itens por fator; 2) número de fatores; 3) tamanho da amostra; 4) variância do fator; 5) grau de correlação entre os fatores. Na maioria Figura 3 - Exemplo de um fecho convexo (convex hull) em um eixo bidimensional hipotético. Avaliação Psicológica, 2012, 11(2), pp. 213-228 220 Damásio das condições, o método Hull apresentou melhor performance quando comparado com todos os métodos anteriormente descritos (eigenvalue > 1; scree plot; AP; MAP). A adequação do método Hull foi ainda melhor quando utilizando os índices de ajuste CFI e CAF (Common part Accounted For). Esse último (CAF) se refere a um novo índice de ajuste desenvolvido pelos autores (Lorenzo-Seva e cols., 2011) e que não apresenta suposição de normalidade, podendo ser utilizado com qualquer método de extração fatorial. Diante dos resultados obtidos, os autores sugeriram utilizar o índice CFI quando os dados apresentam normalidade multivariada, e o CAF quando os dados não apresentarem distribuição normal. O método Hull de retenção fatorial pode ser conduzido por meio do programa FACTOR v8.02 (Lorenzo-Seva & Ferrando, 2006). Rotação de Fatores Tão importante quanto o método de retenção fatorial empregado, é o método de rotação de fatores. As rotações fatoriais têm o objetivo de facilitar a interpretação dos fatores, visto que muitas vezes as variáveis analisadas apresentam cargas fatoriais elevadas em mais de um fator. O objetivo das rotações fatoriais é, portanto, encontrar uma solução mais simples e interpretável possível, na qual cada variável apresente carga fatorial elevada em poucos fatores, ou em apenas um (Abdi, 2003). Apesar de ser um processo de manipulação de dados, as rotações fatoriais não melhoram os resultados obtidos. Ou seja, não se trata de uma técnica estatística para disfarçar resultados ruins e apresentar soluções ótimas (Costello & Osborne, 2005). As rotações fatoriais podem ser de duas ordens: ortogonais ou oblíquas. As rotações ortogonais assumem que os fatores extraídos são independentes uns dos outros (não apresentam correlações entre si). Dentre esse tipo de rotação, vários métodos são apresentados na literatura, tais como: quartimax; equimax; e varimax. Os métodos quartimax e equimax não foram bem sucedidos, sendo raramente utilizados na literatura em Psicologia (Hair e cols., 2005). O primeiro tende a criar um grande fator geral, no qual a maioria dos itens (quando não todos) apresenta cargas fatoriais altas, ocultando possíveis fatores subsequentes (Hair e cols., 2005). O método ‘equimax’, por sua vez, também tem sido pouco utilizado por não apresentar boa estabilidade (Tabachnick & Fidell, 2007). Dentre Avaliação Psicológica, 2012, 11(2), pp. 213-228 os métodos ortogonais, o ‘varimax’ é o mais bem sucedido e o mais comumente utilizado nas pesquisas aplicadas em Psicologia (Tabachnick & Fidell, 2007; Fabrigar e cols., 1999). Entretanto, apesar da sua ampla utilização, os resultados obtidos por meio do método varimax, bem como por meio de todos os métodos ortogonais, nas pesquisas em Psicologia, tendem a ser incoerentes (Costello & Osborne, 2005). Conforme explicitado anteriormente, as rotações ortogonais estipulam, a priori, que não há correlação entre os fatores (r = 0), gerando, portanto, fatores totalmente independentes uns dos outros. Entretanto, esse pressuposto é raramente obtido nas pesquisas das ciências humanas e da saúde. Aspectos humanos e sociais (comportamentos; sintomas; entre outros) raramente são divididos em unidades que funcionam independentes umas das outras (Schmitt & Sass, 2011). Assim, os métodos ortogonais, em geral, resultam em perda de coniabilidade se os fatores forem correlacionados, bem como tende à superestimação de variância explicada, visto que possíveis interseções entre os diferentes fatores não são consideradas. As rotações oblíquas, por sua vez, permitem que os fatores sejam correlacionados entre si. Diferente dos métodos ortogonais, que exigem que os fatores não sejam correlacionados, os métodos oblíquos não delimitam a interação entre os fatores a priori. Logo, se os fatores não forem correlacionados os resultados obtidos mediante as rotações oblíquas serão bastante semelhantes aos que seriam obtidos por meio das rotações ortogonais (Fabrigar e cols., 1999; Sass & Schmitt, 2010). Dentre os vários métodos existentes de rotação oblíqua simples (oblimin; quartimin; promax; entre outros) parece não existir um método mais adequado que o outro. Em geral, todos eles tendem a apresentar resultados semelhantes (Costello & Osborne, 2005). Os primeiros métodos de rotação fatorial desenvolvidos, como por exemplo, o método varimax (Kaiser, 1958) e os métodos oblíquos diretos (promax - Hendrickson & White, 1964), baseavamse nos pressupostos de Thurstone (1947), de que uma estrutura fatorial parcimoniosa seria aquela em que os itens carregassem signiicativamente em apenas um fator. Entretanto, diversas medidas e instrumentos utilizados na Psicologia apresentam padrões de cargas fatoriais complexas (variáveis que carregam consideravelmente em mais de um fator). Por isso, Análise fatorial exploratória diversos métodos de extração, tanto ortogonais quanto oblíquos, continuam sendo desenvolvidos a im de melhor avaliar essas características. Por exemplo, Lorenzo-Seva (2000) apresentou um novo tipo de rotação oblíqua, denominada weighted oblimin (em português, oblimin ponderada) que proporcionou melhores resultados do que a direct oblimin (oblimin direta) quando as matrizes de correlação apresentavam variáveis com cargas fatoriais complexas. É importante que os pesquisadores estejam conscientes que o critério de rotação utilizado pode apresentar um impacto signiicativo nas correlações entre os fatores e nas cargas fatoriais dos itens. Segundo Sass e Schmitt, (2010), os pesquisadores, em geral, buscam obter estruturas fatoriais simples, por estas serem ‘limpas’ e de fácil interpretação. Entretanto, estruturas complexas (com cargas cruzadas) tendem a oferecer informações mais precisas (e muitas vezes, mais realistas) sobre a qualidade dos itens e, por conseguinte, do instrumento. Sass e Schmitt (2010) trazem um exemplo esclarecedor sobre esse aspecto. Tomemos por base um instrumento bifatorial, no qual o primeiro fator avalia habilidades de leitura e o segundo, habilidades matemáticas. Se utilizarmos um critério de rotação que busque uma solução simples (direct oblimin, por exemplo), obteremos uma estrutura fatorial com um menor número de cargas cruzadas, e possivelmente, maior correlação entre os fatores. Entretanto, a utilização de uma rotação fatorial que permita que os itens apresentem maior complexidade fatorial poderá mostrar quais itens avaliam tanto as habilidades de leitura, quanto as habilidades matemáticas. A possibilidade de detectar e remover os itens que avaliam ambas as habilidades não só puriicaria os fatores, mas aumentaria a validade discriminante destes (Sass & Schimitt, 2010). Assim, utilizar critérios de rotação que revelem a complexidade fatorial pode apresentar consideráveis benefícios durante a construção e o reinamento de instrumentos psicológicos (Sass & Schmitt, 2010). Alguns programas computacionais, tais como o FACTOR (Lorenzo-Seva & Ferrando, 2006) e o Comprehensive Exploratory Factor Analysis (CEFA) (Browne, Cudeck, Tateneni & Mels, 2004) têm acompanhado o desenvolvimento teórico e metodológico relacionado às rotações fatoriais e oferecem diversos tipos de rotações, tanto oblíquas quanto ortogonais, desde as mais clássicas (varimax; 221 oblimin; promax), que são mais bem utilizadas em casos de estrutura fatorial simples, até outras mais recentes, que apresentam melhor acurácia em casos de complexidade fatorial (promaj; orthosim; oblisim). Apresentar as especiicidades de todas as técnicas de rotação está fora do escopo deste artigo. Entretanto, é importante considerar que as técnicas mais avançadas em análises fatoriais não fazem parte dos programas estatísticos mais populares (por exemplo, SPSS e SAS). Pesquisadores interessados devem, portanto, buscar outros e novos pacotes estatísticos para a condução dessas análises (para maiores informações, ver: Browne; 2001; Lee, 2010; Sass & Schmitt, 2010). É importante salientar que, em relação aos métodos de rotação oblíqua complexos, ainda não há na literatura estudos de simulação e diretrizes consistentes que indiquem quais são os mais adequados (Schmitt & Sass, 2011). Tamanho da Amostra em Análises Fatoriais Exploratórias O tamanho da amostra ideal para a execução de AFEs foi, por muito tempo, um aspecto de divergência de opiniões e controvérsias na literatura cientíica, principalmente no que diz respeito ao número mínimo de sujeitos necessários. Gorsuch (1983), em consonância com Hair e cols. (2005), por exemplo, recomendou que o N deveria ser de pelo menos 100 sujeitos, e um número mínimo de cinco respondentes por item. Cattell (1978) argumentou que N igual a 250 era um número minimamente recomendável, e que a razão deveria ser entre três e seis respondentes por item. Já Everitt (1975) sugeriu a presença de pelo menos 10 respostas para cada item avaliado, sendo que quanto maior o N, melhor. Apesar de haver diversas diretrizes apontando regras gerais sobre o tamanho mínimo de amostra necessário para a obtenção de uma estrutura fatorial estável, por muito tempo não houve experimentos de simulação que corroborassem ou refutassem estas informações (MacCallum, Widaman, Zhang & Hong, 1999). Atualmente, é fortemente aceito que a utilização de amostras grandes tende a fornecer resultados mais precisos, diminuindo o efeito do erro amostral (ver MacCallum & Tucker, 1991) e fornecendo resultados mais próximos ao índice populacional, tanto no que se refere à estrutura fatorial, quanto à carga fatorial e à comunalidade dos itens (MacCallum e cols., 1999). Porém, em relação Avaliação Psicológica, 2012, 11(2), pp. 213-228 222 Damásio ao tamanho mínimo da amostra, os resultados ainda são imprecisos, porque a qualidade de uma solução fatorial não depende exclusivamente do número de respondentes, mas varia de acordo com a qualidade do instrumento avaliado. Em um estudo de simulação Monte-Carlo, Barrett e Kline (1981) demonstraram que soluções fatoriais estáveis foram encontradas com um número variando de 1,2 a 3 respondentes por item. Resultados semelhantes foram encontrados por MacCallum e cols. (1999). Por meio de estudos de simulação Monte-Carlo, esses autores demonstraram que a qualidade de uma solução fatorial está amplamente relacionada com o grau de sobredeteminação (overdetermination) dos fatores obtidos. Por sobredeterminação, os autores consideraram o grau em que um fator é claramente representado por um número suiciente de itens e pela qualidade (nível) das suas cargas fatoriais e comunalidades. Se um fator é representado por um bom número de itens (tipicamente quatro ou mais), e se estes itens tendem a ser fortemente explicados pelo fator (apresentam cargas fatoriais elevadas, > 0,60), o número de respondentes tende a ser menos importante na obtenção de uma boa estrutura fatorial (MacCallum e cols., 1999). Segundo os autores, o erro amostral tende a diminuir quando os fatores são fortemente sobredeterminados, por isto, um N elevado não é tão importante (MacCallum e cols., 1999). Tanto Barret e Kline (1981) quanto MacCallum e cols. (1999) concluíram que os níveis de estabilidade encontrados em seus estudos deveramse à qualidade do instrumento psicométrico, e não ao tamanho amostral. Entretanto, se o instrumento não apresenta um bom nível de sobredeterminação (apresenta poucos itens por fator, com baixas cargas fatoriais e baixas comunalidades), um N pequeno aumenta consideravelmente a probabilidade de encontrar soluções fatoriais instáveis (Hogarty, Hines, Kromey, Ferron & Mumford, 2005). Assim, ainda é sugerido um número elevado de sujeitos por item nos casos em que os instrumentos apresentem vários fatores, e com baixo nível de sobredeterminação (para maiores informações, sugere-se a leitura de Hogarty e cols., 2005; MacCallum e cols., 1999; e Velicer & Fava, 1998). Variância Explicada Apesar de haver uma ampla literatura sobre os principais aspectos das AFEs, há certa lacuna Avaliação Psicológica, 2012, 11(2), pp. 213-228 sobre o tópico da variância explicada (Peterson, 2000). Tal limitação deixa, por vezes, os pesquisadores no dilema de tentar compreender o valor percentual obtido em suas análises, questionando-se sobre a adequação ou inadequação da estrutura fatorial, bem como a aceitabilidade dos índices obtidos. Na AFE, a variância explicada refere-se à porção de variância comum que um fator, ou um conjunto de fatores, consegue extrair de um determinado conjunto de dados. Segundo Tinsley e Tinsley (1987), soluções fatoriais que expliquem apenas entre 30% a 40% da variância comum entre os itens sugerem uma ampla porcentagem de variância não-explicada (resíduos). Por meio de um estudo de revisão da literatura, os autores concluíram que, em geral, as soluções fatoriais nas pesquisas em Psicologia explicavam menos de 50% da variância total. Mais recentemente, Peterson (2000) realizou um estudo meta-analítico com o objetivo de avaliar os níveis de variância explicada nos estudos que utilizaram AFEs, bem como suas relações com aspectos referentes ao delineamento metodológico utilizado em tais estudos. De acordo com os critérios de inclusão/exclusão adotados pelo autor, foram avaliadas 803 análises fatoriais, reportadas em 568 artigos, publicados entre 1964 e 1999. Do total das AFEs executadas, 67% utilizaram o método dos componentes principais, e 82% utilizaram o método de rotação varimax. A média da variância explicada foi de 56,6%. Do total das AFEs avaliadas, 10% apresentaram variância explicada maior que 76%, e outros 10% apresentaram variância explicada menor que 34%. O nível de variância explicada apresentou correlações negativas com o número de itens dos instrumentos (r = - 0,20; valor de p não apresentado) e com o tamanho da amostra (r = - 0,12; valor de p não apresentado), de maneira que, quanto maior foi o número de itens do instrumento e a amostra, menor tendeu a ser a variância explicada. De acordo com Peterson (2000), tais resultados fornecem certa diretriz na avaliação do que poderia ser um bom nível de variância explicada. Entretanto, o autor não sugere ‘pontos de cortes’ para o que seria um nível de variância explicada aceitável ou não aceitável. Tal cautela é pertinente. Perspectivas clássicas (Abelson, 1985; O’Grady, 1982) indicam que a porcentagem de variância explicada não deve ser considerada como um indicador de importância para a interpretação de uma AFE. Análise fatorial exploratória Do ponto de vista psicométrico, O’Grady (1982) argumenta que, nas pesquisas em Psicologia, nenhum comportamento será totalmente compreendido por nenhum construto hipotético, de maneira que a variância explicada nunca chegará ao seu valor total (100%). Mais que isso, a compreensão do comportamento por meio de escalas tipo likert aumentam ainda mais a imprecisão da avaliação. Nesse sentido, as limitações a priori da forma de avaliação utilizada inviabilizam a análise do nível de variância explicada como um indicador de acurácia do construto avaliado (O’Grady, 1982). O autor enfatiza, ainda, que, de um ponto de vista metodológico, o delineamento de um estudo não deve ter por objetivo a maximização do nível de variância explicada. A sua busca, em geral, tende a produzir modelos hipotéticos inválidos, com superestimação dos fatores extraídos, gerando construtos supérluos, sem signiicado teórico (O’Grady, 1982). Também é importante salientar que, na utilização de rotações fatoriais oblíquas (que permitem a correlação entre os fatores), o nível de variância explicada por cada fator pode estar sobreposto pelo outro, o que diiculta uma interpretação coerente deste índice. Assim, em consonância com Abelson (1985), sugere-se que uma avaliação adequada das medidas de variância explicada em AFEs deve ser realizada analisando a concordância entre a magnitude do delineamento teórico e metodológico, e os achados empíricos. Avaliando a Coniabilidade da Estrutura Fatorial A coniabilidade de uma estrutura fatorial pode ser obtida por meio de diversos critérios, dependendo tanto das escolhas do pesquisador quanto do delineamento do estudo (transversal, longitudinal, entre outros). Dentre vários critérios apresentados na literatura, o cálculo do índice de consistência interna, por meio do Alfa de Cronbach (a), é o método mais utilizado em estudos transversais - quando as medições são realizadas em apenas um único momento (Sijtsma, 2009). O Alfa de Cronbach avalia o grau em que os itens de uma matriz de dados estão correlacionados entre si (Pasquali, 2009). Geralmente, o índice obtido varia entre 0 e 1, ainda que não haja um limite mínimo para este coeiciente (Cortina, 1993). Em geral, diretrizes para interpretação dos valores do alfa são adotadas. George e Mallery (2003) sugerem que a > 0,90 = excelente; a > 0,80 = bom; a > 0,70 = 223 aceitável; a > 0,60 = questionável; a > 0,50 = pobre; a < 0,50 = inaceitável. Em sua forma padronizada, o alfa de Cronbach é calculado pela seguinte fórmula: p×r apadronizado = [1 + ( p − 1) × r ] onde p é o número de itens considerados e r é a média das correlações interitens. O valor do alfa de Cronbach é inluenciado tanto pelo valor das correlações dos itens, quanto pelo número de itens avaliados. Por isso, fatores com poucos itens tendem a apresentar alfas de Cronbach menores, enquanto uma matriz com elevadas correlações interitem tende a apresentar um alfa de Cronbach elevado (Cortina, 1993). Apesar da ampla utilização do alfa de Cronbach como um índice de coniabilidade fatorial, muitos pesquisadores desconhecem suas limitações. O alfa de Cronbach é baseado no pressuposto de ‘tau-equivalence’ (equivalência-t), o qual airma que todos os itens retidos no fator apresentam uma correlação linear entre si, e que a covariância interitem é a mesma para todos os pares de variáveis, divergindo entre si apenas pela constante (Huysamen, 2006). Admite-se, portanto, que todos os itens retidos apresentam a mesma ‘importância’ para o fator (uma das premissas da Teoria Clássica dos Testes – TCT, amplamente criticada pela Teoria de Resposta ao Item – TRI, Pasquali & Primi, 2003). Devido, em parte, a essa limitação, cada vez mais vem sendo incentivada a utilização de outros métodos de avaliação de consistência interna, tais como o greatest lower-bound (ver Sijtsma, 2009), bem como métodos de análise fatorial conirmatória, para observar a adequação de ajuste do modelo fatorial (Brown, 2006). Outro importante aspecto a considerar é a distinção entre coniabilidade e homogeneidade. De acordo com Cortina (1993), o alfa de Cronbach avalia a coniabilidade de uma estrutura fatorial por meio de sua consistência interna (grau de inter-relação entre as variáveis), mas não avalia a homogeneidade (que se refere à unidimensionalidade de construtos). Às vezes, os pesquisadores utilizam erroneamente o valor do alfa de Cronbach para determinar o número de fatores a ser utilizado. Por exemplo, imaginemos um instrumento de agressividade infantil, composto por dois fatores, sendo: Avaliação Psicológica, 2012, 11(2), pp. 213-228 224 Damásio Fator 1 - Agressividade Proativa (a = 0,75); e Fator 2 - Agressividade Reativa (a = 0,79). O pesquisador, com o intuito de avaliar um nível total de agressividade (soma da agressividade proativa e reativa) avalia os índices de consistência interna para todos os itens do instrumento em conjunto, obtendo um a = 0,85. Considerando apenas o valor do a, a conclusão poderia ser: o instrumento é mais adequado como medida unifatorial; ou ainda, o instrumento pode ser tanto bifatorial quanto unifatorial. Essa interpretação é parcialmente equivocada, se analisada, sobretudo, do ponto de vista teórico. A literatura na área da agressividade infantil é clara em airmar que ambos os tipos de agressividade (proativa e reativa) são fortemente correlacionados entre si, mas, devido as suas especiicidades, devem ser considerados como construtos distintos (Barke e cols., 2010; Dodge & Coie, 1987). Apesar de a união dos fatores apresentar um maior alfa de Cronbach (devido à correlação entre as variáveis e a maior quantidade de itens), os aspectos teóricos que subsidiam o instrumento não podem ser negligenciados. Assim, itens podem ser altamente correlacionados, mas multidimensionais em essência (Cortina, 1993). Considerando esse aspecto, é importante que os valores estatísticos obtidos sejam sempre ponderados a partir de uma base teórica e metodológica, para que sua interpretação seja adequada. considerações finais O presente trabalho teve por objetivo discutir alguns dos principais aspectos da análise fatorial exploratória (AFE), apresentando estudos atualizados sobre o tema. Conforme mencionado, a AFE é uma técnica relativamente complexa que exige dos pesquisadores uma série de decisões para que possa se obter uma estrutura fatorial adequada. Tais decisões não podem ser arbitrárias e subjetivas, mas devem ser pautadas em critérios teóricos e metodológicos claros. Esses critérios, por sua vez, continuam em desenvolvimento, sendo, portanto, necessária a atualização constante por parte dos pesquisadores. Concordando com Widaman (2007), o uso das AFEs na Psicologia ainda está longe de ser ideal. Entretanto, algumas atitudes podem ser adotadas. Sugere-se que as AFEs reportadas nos estudos sejam avaliadas com maior padrão de exigência por parte das comissões editoriais das revistas cientíicas. Do mesmo modo, sugere-se que os pesquisadores, ao Avaliação Psicológica, 2012, 11(2), pp. 213-228 conduzirem AFEs, apresentem detalhadamente os métodos utilizados, justiicando suas escolhas. Tais preocupações podem aprimorar a utilização das AFEs na ciência psicológica. É importante salientar que não foi possível contemplar todos os aspectos referentes à AFE, tampouco foi possível discutir em exaustão os tópicos apresentados. Entretanto, espera-se que as informações aqui presentes possam auxiliar os pesquisadores na condução de AFEs, considerando o conteúdo aqui apresentado de modo a favorecer que as decisões tomadas com base nessas análises sejam pautadas em elementos teóricos e metodológicos. referências Abdi, H. (2003). Factor rotations in factor analyses. Em: M. Lewis-Beck, A. Bryman & T. Futing (Orgs.), Encyclopedia of social sciences research methods (pp. 1-8). Thousand Oaks, CA: Sage. Abelson, R. P. (1985). A variance explanation paradox: When a little is a lot. Psychological Bulletin, 97(1), 129-133. Artes, R. (1998). Aspectos estatísticos da análise fatorial de escalas de avaliação, Revista de Psiquiatria Clínica, 25(5), 223-228. Barke, E. D., Vitaro, F., Lacourse, E., Fontaine, N. M. G., Carbonneau, R. & Tremblay, R. E. (2010). Testing the developmental distinctiveness of male proactive and reactive aggression with a nested longitudinal experimental intervention. Aggressive Behavior, 36(2), 127–140. Barrett, P. T. & Kline. P. (1981). The observation to variable ratio in factor analysis. Personality Study in Group Behavior, 1, 23-33. Brown, T. A. (2006). Conirmatory factor analysis for applied research. New York: The Guilford Press. Browne, M. W. (2001). An overview of analytic rotation in exploratory factor analysis. Multivariate Behavioral Research, 36(1), 111-150. Browne, M. W., Cudeck, R., Tateneni, K. & Mels, G. (2004). CEFA: Comprehensive Exploratory Factor Analysis, Version 2.00 [Computer software and manual]. Recuperado de: http://faculty.psy.ohio-state.edu/browne/software.php. Análise fatorial exploratória Cattell, R. B. (1966). The scree test for the number of factors. Multivariate Behavioral Research, 1(1), 245-276. Cattell, R. B. (1978). The scientiic use of factor analysis. New York: Plenum. Ceulemans, E. & Kiers, H. A. L. (2006). Selecting among three-mode principal component models of different types and complexities: A numerical convex hull based method. British Journal of Mathematical and Statistical Psychology, 59(1), 133–150. Ceulemans, E., Timmerman, M. E. & Kiers, H. A. L. (2010). The CHull procedure for selecting among multilevel component solutions. Chemometric and Intelligent Laboratory Systems, 106(1), 12-20. Cortina, J. M. (1993). What is coeficient alpha? An examination of theory and applications. Journal of Applied Psychology, 78(1), 98-104. Costello, A. B. & Osborne, J. W. (2005). Best practices in exploratory factor analysis: Four recommendations for getting the most from your analysis. Practical Assessment, Research & Evaluation, 10(7), 1-9. Crawford, A. V., Green, S. B., Levy, R., Lo, W., Scott, L., Svetina, D. e cols. (2010). Evaluation of parallel analysis methods for determining the number of factors. Educational and Psychological Measurement, 70(6), 885-901. 225 Fava, J. L. & Velicer, W. F. (1992). The effects of over extraction on factor and component analysis. Multivariate Behavioral Research, 27(3), 387-415. Field, A. (2005). Discovering Statistics Using SPSS. (2. ed.), London: Sage. Floyd, F. J. & Widaman, K. F. (1995). Factor analysis in the development and reinement of clinical assessment instruments. Psychological Assessment, 7(3), 286-299. Franklin, S. B., Gibson, D. J., Robertson, P. A., Pohlmann, J. T. & Fralish, J. S. (1995). Parallel Analysis: A method for determining signiicant principal components. Journal of Vegetation Science, 6(1), 99-106. Garrido, L. E., Abad, F. J. & Ponsoda, V. (2011). Performance of Velicer’s Minimum Average Partial factor retention method with categorical variables. Educational and Psychological Measurement, 71(3), 551-570. George, D. & Mallery, P. (2003). SPSS for Windows step by step: A simple guide and reference. 11.0 update (4th ed.). Boston: Allyn & Bacon. Glorfeld, L. W. (1995). An improvement on Horn’s parallel analysis methodology for selecting the correct number of factors to retain. Educational and Psychological Measurement, 55(3), 377-393. Gorsuch, R. L. (1983). Factor analysis (2nd ed.). Hillsdale, NJ: Erlbaum. Dodge, K. A. & Coie, J. D. (1987). Social-information-processing factors in reactive and proactive aggression in children’s peer groups. Journal of Personality and Social Psychology, 53(6), 1146–1158. Hair, J. F., Anderson, R. E., Tatham, R. L. & Black, W. C. (2005). Análise multivariada de dados. A. S. Sant’Anna & A. C. Neto (Trad.). Porto Alegre: Bookman. Dziuban, C. D. & Shirkey, E. C. (1974). When is a correlation matrix appropriate for factor analysis? Some decision rules. Psychological Bulletin, 81(6), 358-361. Hayton, J. C., Allen, D. G. & Scarpello, V. (2004). Factor retention decisions in exploratory factor analysis: A tutorial on parallel analysis. Organizational Research Methods, 7(2), 191-207. Everitt, B. S. (1975). Multivariate analysis: The need for data, and other problems. British Journal of Psychiatry, 126(1), 237-240. Hendrickson, A. E. & White, E. O. (1964). PROMAX: A quick method for rotation to oblique simple structure. British Journal of Statistical Psychology, 17(1), 65-70. Fabrigar, L. R., Wegener, D. T., MacCallum, R. C. & Strahan, E. J. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4(3), 272-299. Hogarty, K. Y., Hines, C. V., Kromey, J. D., Ferron, J. M. & Mumford, K. R. (2005). The quality of factor solution in exploratory factor analysis: Avaliação Psicológica, 2012, 11(2), pp. 213-228 226 Damásio The inluence of sample size, communality, and over determination. Educational and Psychological Measurement, 65(2), 202-226. Horn, J. L. (1965). A rationale and technique for estimating the number of factors in factor analysis. Psychometrika, 30(1), 179-185. Hutcheson, G. D. & Sofroniou, N. (1999). The multivariate social scientist: Introductory statistics using generalized linear models. London: Sage Publications. Huysamen, G. K. (2006). Coeficient Alpha: Unnecessarily ambiguous; unduly ubiquitous. SA Journal of Industrial Pscyhology, 32(4), 34-40. Jolliffe, I. T. (2005). Principal component analysis. Em: B. S. Everitt & D. C. Howell (Orgs.), Encyclopedia of statistics in behavioral science (pp. 1580-1584). New York: John Wiley and Sons Ltd. Kim, J. & Mueller, C. W. (1978). Factor analysis: Statistical methods and practical issues. Beverly Hills, CA: Sage Publications. Laher, S. (2010). Using exploratory factor analysis in personality research: Best-practice recommendations. SA Journal of Industrial Psychology, 36(1), 1-7. Laros, J. A. (2004). O uso da análise fatorial: algumas diretrizes para pesquisadores. Em: L. Pasquali (Org.), Análise fatorial para pesquisadores. Petrópolis: Vozes. Ledesma, R. D. & Valero-Mora, P. (2007). Determining the number of factors to retain in EFA: An easy-to-use computer program for carrying out parallel analysis. Practical Assessment, Research and Evaluation, 12(1), 1–11. Lee, S. (2010). A Review of CEFA Software: Comprehensive Exploratory Factor Analysis Program. International Journal of Testing, 10(1), 95-103. Lorenzo-Seva, U., Timmerman, M. E. & Kiers, H. A. (2011). The hull method for selecting the number of common factors. Multivariate Behavioral Research, 46(2), 340-364. MacCalum, R. C., Widaman, K. F., Zhang, S. & Hong, S. (1999). Sample size in factor analysis. Psychological Methods, 4(1), 84-99. MacCallum, R. C. & Tucker, L. R. (1991). Representing sources of error in the common factor model: Implications for theory and practice. Psychological Bulletin, 109(3), 502-511. O’Connor, B. P. (2000). SPSS and SAS programs for determining the number of components using Parallel Analysis and Velicer’s MAP test. Behavior Research Methods, Instruments & Computers, 32(3), 396-402. O´Grady, K. E. (1982). Measures of explained variance: Cautions and limitations. Psychological Bulletin, 92(3), 766-777. Ogasawara, H. (2003). Oblique factors and components with independent clusters. Psychometrika, 68, 299-321. Pasquali, L. (1999). Análise fatorial: um manual teórico-prático. Brasília: Editora UnB. Pasquali, L. (2009). Psicometria. Revista da Escola de Enfermagem da USP, 43(Esp.), 992-999. Pasquali, L. & Primi, R. (2003). Fundamentos da teoria da resposta ao item – TRI. Avaliação Psicológica, 2(2), 99-110. Patil, V. H., Singh, S. N., Mishra, S. & Donavan, D. T. (2007). Parallel Analysis engine to aid determining number of factors to retain [Computer software]. Retirado de: http://ires. ku.edu/~smishra/parallelengine.htm. Lorenzo-Seva, U. (2000). The weighted oblimin rotation. Psychometrika, 65(1), 301-318. Patil, V. H., Singh, S. N., Mishra, S. & Donavan, D. T. (2008). Eficient theory development and factor retention criteria: Abandon the ‘eigenvalue greater than one’ criterion. Journal of Business Research, 61(2), 162-170. Lorenzo-Seva, U. & Ferrando, P. J. (2006). FACTOR: A computer program to it the exploratory factor analysis model. Behavior Research Methods, 38(1), 88-91. Peterson, R. A. (2000). A meta-analysis of variance accounted for and factor loadings in exploratory factor analysis. Marketing Letters, 11(3), 261-275. Avaliação Psicológica, 2012, 11(2), pp. 213-228 Análise fatorial exploratória Reise, S. P., Waller, N. G. & Comrey, A. L. (2000). Factor analysis and scale revision. Psychological Assessment, 12(3), 287-297. Sass, D. A. & Schmitt, T. A. (2010). A comparative investigation of rotation criteria within exploratory factor analysis. Multivariate Behavioral Research, 45(1), 73-103. Schmitt, T. A. & Sass, D. A. (2011). Rotation criteria and hypothesis testing for exploratory factor analysis: Implications for factor pattern loadings and interfactor correlations. Educational and Psychological Measurement, 71(1), 95-113. Sijtsma, K. (2009). On the use, the misuse, and the very limited usefulness of Cronbach’s alpha. Psychometrika, 74(1), 107-120. Tabachnick, B. G. & Fidell, L. S. (2007). Using Multivariate Statistics (5th. ed.). Boston: Allyn and Bacon. Thurstone, L. L. (1947). Multiple factor analysis. Chicago: University of Chicago Press. Tinsley, H. E. A. & Tinsley, D. J. (1987). Uses of factor analysis in counseling psychology research. Journal of Counseling Psychology, 34(4), 414-424. Velicer, W. F. (1976). Determining the number of components from the matrix of partial correlations. Psychometrika, 41(3), 321-327. 227 Velicer, W. F., Eaton, C. A. & Fava, J. L. (2000). Construct explication through factor or component analysis: A review and evaluation of alternative procedures for determining the number of factors or components (pp. 41-71). Em: R. D. Gofin & E. Helmes (Orgs.), Problems and solutions in human assessment: Honoring Douglas N. Jackson at Seventy. Boston: Kluwer. Velicer, W. F. & Fava, J. L. (1998). Effects of variable and subject sampling on factor pattern recovery. Psychological Methods, 3(2), 231-251. Watkins, M. W. (2000). Monte Carlo PCA for Parallel Analysis [Computer software]. State College, PA: Ed. & Psych Associates. Widaman, K. F. (2007). Common factor versus components: Principals and principles, errors and misconceptions Em: R. Cudeck & R. C. MacCallum. Factor Analysis at 100: Historical Developments and Future Directions (pp. 177 - 204). London: Lawrence Erlbaum Associates. Zwick, W. R. & Velicer, W. F. (1986). Comparison of ive rules for determining the number of components to retain. Psychological Bulletin, 99(3), 432-442. Recebido em julho de 2011 Reformulado em abril de 2012 Aceito em maio de 2012 sobre o aUtor: Bruno Figueiredo Damásio, Psicólogo. Doutorando em Psicologia pela Universidade Federal do Rio Grande do Sul. Avaliação Psicológica, 2012, 11(2), pp. 213-228