A análise fatorial é essencialmente um modelo de regressão linear (restrito). Nesse modelo, cada variável analisada é a variável dependente, os fatores comuns são os IVs e o fator único implícito serve como termo de erro. (O termo constante é definido como zero devido à centralização ou padronização implícitas no cálculo de covariâncias ou correlações.) Portanto, exatamente como na regressão linear, poderia existir uma suposição "forte" de normalidade - IVs (fatores comuns) são normais multivariados e erros (fator único) são normais, o que leva automaticamente a que o DV seja normal; e suposição "fraca" de normalidade - erros (fator único) são normais apenas, portanto o DV não precisa ser normal. Tanto na regressão quanto na AF, geralmente admitimos suposições "fracas" porque são mais realistas.
Entre os métodos clássicos de extração de AF, apenas o método de máxima verossimilhança, por se afastar das características da população, afirma que as variáveis analisadas são multivariadas normais. Métodos como eixos principais ou resíduos mínimos não exigem essa suposição "forte" (embora você possa fazê-lo de qualquer maneira).
Lembre-se de que, mesmo que suas variáveis sejam normais separadamente, isso não garante necessariamente que seus dados sejam multivariados normais.
Vamos aceitar a suposição "fraca" de normalidade. Qual é a ameaça potencial proveniente de dados fortemente distorcidos, como o seu, então? É outliers. Se a distribuição de uma variável é fortemente assimétrica, a cauda mais longa se torna mais influente na correlação ou covariância computacional e, simultaneamente, provoca apreensão sobre se ainda mede o mesmo construto psicológico (o fator) que a cauda mais curta. Pode ser cauteloso comparar se as matrizes de correlação construídas na metade inferior e na metade superior da escala de classificação são semelhantes ou não. Se eles são semelhantes o suficiente, você pode concluir que as duas caudas medem a mesma coisa e não transformam suas variáveis. Caso contrário, você deve considerar a transformação ou alguma outra ação para neutralizar o efeito da cauda longa "outlier".
As transformações são muitas. Por exemplo, aumentar para uma potência> 1 ou exponenciação é usado para dados inclinados para a esquerda e potência <1 ou logaritmo - para inclinado para a direita. Minha própria experiência diz que a chamada transformação ótima via PCA categórica realizada antes da FA é quase sempre benéfica, pois geralmente leva a fatores mais claros e interpretáveis na FA; sob a suposição de que o número de fatores é conhecido, ele transforma seus dados de maneira não linear, de modo a maximizar a variação geral contabilizada por esse número de fatores.