Suponha a seguinte situação:
temos um número grande (por exemplo, 20) com tamanho de grupo pequeno (por exemplo, n = 3). Percebi que, se eu gerar valores a partir da distribuição uniforme, os resíduos parecerão aproximadamente normais, mesmo que a distribuição de erros seja uniforme. O seguinte código R demonstra esse comportamento:
n.group = 200
n.per.group = 3
x <- runif(n.group * n.per.group)
gr <- as.factor(rep(1:n.group, each = n.per.group))
means <- tapply(x, gr, mean)
x.res <- x - means[gr]
hist(x.res)
Se eu olhar o resíduo de uma amostra em um grupo de três, a razão do comportamento é clara:
Como é uma soma de variáveis aleatórias com um desvio padrão não muito diferente, sua distribuição é um pouco mais próxima da distribuição normal do que os termos individuais.
Agora suponha que eu tenha a mesma situação com dados reais em vez de dados simulados. Quero avaliar se as suposições da ANOVA em relação à normalidade se mantêm. Os procedimentos mais recomendados recomendam a inspeção visual dos resíduos (por exemplo, QQ-Plot) ou um teste de normalidade nos resíduos. Como meu exemplo acima, isso não é realmente ideal para pequenos grupos.
Existe uma alternativa melhor quando tenho muitos grupos de tamanhos pequenos?