Digamos que eu tenha um conjunto de dados com pontuações em vários itens do questionário, que são teoricamente compostos por um número menor de escalas, como na pesquisa em psicologia.
Eu sei que uma abordagem comum aqui é verificar a confiabilidade das escalas usando o alfa de Cronbach ou algo semelhante e, em seguida, agregar os itens nas escalas para formar pontuações e continuar a análise a partir daí.
Mas também há análise de fatores, que pode usar todas as pontuações de itens como entrada e informar quais deles formam fatores consistentes. Você pode ter uma noção de quão fortes esses fatores são observando cargas e comunidades, e assim por diante. Para mim, isso soa como o mesmo tipo de coisa, mas muito mais aprofundado.
Mesmo que todas as suas confiabilidade de escala sejam boas, um EFA pode corrigi-lo em quais itens se encaixam melhor em quais escalas, certo? Provavelmente, você obterá cargas cruzadas e pode fazer mais sentido usar pontuações de fatores derivados do que somas simples de escala.
Se eu quiser usar essas escalas para algumas análises posteriores (como regressão ou ANOVA), devo apenas agregar as escalas, desde que sua confiabilidade se mantenha? Ou é algo como CFA (testar para ver se as escalas se sustentam como bons fatores, o que parece estar medindo a mesma coisa que 'confiabilidade').
Fui ensinado sobre as duas abordagens de forma independente e, portanto, não sei como elas se relacionam, se podem ser usadas juntas ou qual delas faz mais sentido para qual contexto. Existe uma árvore de decisão para boas práticas de pesquisa neste caso? Algo como:
Execute o CFA de acordo com os itens de escala previstos
- Se o CFA mostrar um bom ajuste, calcule as pontuações dos fatores e use-as para análise.
- Se o CFA mostrar um ajuste inadequado, execute o EFA e adote uma abordagem exploratória (ou algo assim).
A análise fatorial e o teste de confiabilidade são de fato abordagens separadas para a mesma coisa, ou estou entendendo errado em algum lugar?