Como outros testes paramétricos, a análise de variância assume que os dados se ajustam à distribuição normal. Se sua variável de medição não for normalmente distribuída, você poderá aumentar sua chance de um resultado falso positivo se analisar os dados com uma anova ou outro teste que assume a normalidade. Felizmente, uma anova não é muito sensível a desvios moderados da normalidade; estudos de simulação, usando uma variedade de distribuições não normais, mostraram que a taxa de falsos positivos não é afetada muito por essa violação da suposição (Glass et al. 1972, Harwell et al. 1992, Lix et al. 1996). Isso ocorre porque quando você coleta um grande número de amostras aleatórias de uma população, os meios dessas amostras são distribuídos aproximadamente normalmente, mesmo quando a população não é normal.
É possível testar a qualidade do ajuste de um conjunto de dados para a distribuição normal. Não sugiro que você faça isso, porque muitos conjuntos de dados significativamente não normais seriam perfeitamente apropriados para uma anova.
Em vez disso, se você tiver um conjunto de dados grande o suficiente, sugiro que você analise o histograma de frequência. Se parecer mais ou menos normal, vá em frente e faça uma anova. Se parecer que uma distribuição normal foi empurrada para um lado, como os dados de sulfato acima, tente diferentes transformações de dados e veja se alguma delas faz o histograma parecer mais normal. Se isso não funcionar, e os dados ainda parecerem muito normais, provavelmente ainda será bom analisar os dados usando uma anova. No entanto, você pode querer analisá-lo usando um teste não paramétrico. Praticamente todos os testes estatísticos paramétricos têm um substituto não paramétrico, como o teste de Kruskal-Wallis em vez de uma anova de mão única, o teste de postos assinados de Wilcoxon em vez de um teste t emparelhado e a correlação de pontos de Spearman em vez de regressão linear. Esses testes não paramétricos não pressupõem que os dados se ajustem à distribuição normal. No entanto, eles assumem que os dados em grupos diferentes têm a mesma distribuição; se grupos diferentes têm distribuições de formas diferentes (por exemplo, uma é inclinada para a esquerda, outra é inclinada para a direita), um teste não paramétrico pode não ser melhor do que um paramétrico.
Referências
- Glass, GV, PD Peckham e JR Sanders. 1972. Consequências do não cumprimento de premissas subjacentes à análise de efeitos fixos de variância e covariância. Rev. Educ. Res. 42: 237-288.
- Harwell, MR, EN Rubinstein, WS Hayes e CC Olds. 1992. Resumindo Monte Carlo resulta em pesquisa metodológica: os casos ANOVA de efeitos fixos de um e dois fatores. J. Educ. Stat. 17: 315-339.
- Lix, LM, JC Keselman e HJ Keselman. 1996. Consequências das violações de premissas revisitadas: Uma revisão quantitativa de alternativas ao teste F de análise de variância unidirecional. Rev. Educ. Res. 66: 579-619.