Que premissas de normalidade são necessárias para um teste t não pareado? E quando eles se conheceram?


12

Se desejamos realizar um teste t emparelhado, o requisito é (se bem entendi) que a diferença média entre as unidades de medida correspondentes seja distribuída normalmente.

No teste t pareado, isso é articulado (AFAIK) na demanda de que a diferença entre as unidades de medida combinadas seja distribuída normalmente (mesmo que a distribuição de cada um dos dois grupos comparados não seja normal).

No entanto, em um teste t não pareado, não podemos falar sobre a diferença entre as unidades correspondentes, por isso exigimos que as observações dos dois grupos sejam normais para que a diferença de sua média seja normal. O que me leva à minha pergunta:

É possível para duas distribuições não normais, para que a diferença de suas médias seja distribuída normalmente? (e, portanto, satisfaça nosso requisito necessário para executar um teste t não emparelhado com eles - novamente - tanto quanto eu entendo).

Atualização: (obrigado a todos pelas respostas) Vejo que a regra geral que estamos procurando é realmente que a diferença dos meios será normal, o que parece ser uma boa suposição (sob tamanho suficiente n) devido ao CLT. Isso é incrível para mim (não é surpreendente, é simplesmente incrível), sobre como isso funciona para o teste t não pareado, mas não funciona tão bem para o teste t de amostra única. Aqui está um código R para ilustrar:

n1 <- 10
n2 <- 10
mean1 <- 50
mean2 <- 50
R <- 10000

# diffs <- replicate(R, mean(rexp(n1, 1/mean1)) - mean(runif(n2, 0, 2*mean2)))
# hist(diffs)

P <- numeric(R)
MEAN <- numeric(R)
for(i in seq_len(R))
{
    y1 <- rexp(n1, 1/mean1)
    y2 <- runif(n2, 0, 2*mean2)
    MEAN[i] <- mean(y1) - mean(y2)
    P[i] <- t.test(y1,y2)$p.value
}
# diffs <- replicate(R, mean(rexp(n1, 1/mean1)) - mean(runif(n2, 0, 2*mean2)))
par(mfrow = c(1,2))
hist(P)
qqplot(P, runif(R)); abline(0,1)
sum(P<.05) / R # for n1=n2=10 -> 0.0715 # wrong type I error, but only for small n1 and n2 (for larger ones, this effect disappears)



n1 <- 100
mean1 <- 50
R <- 10000
P_y1 <- numeric(R)

for(i in seq_len(R))
{
    y1 <- rexp(n1, 1/mean1)
    P_y1[i] <- t.test(y1 , mu = mean1)$p.value
}

par(mfrow = c(1,2))
hist(P_y1)
qqplot(P_y1, runif(R)); abline(0,1)
sum(P_y1<.05) / R # for n1=n2=10 -> 0.057  # "wrong" type I error

Obrigado.


5
(XEu,YEu)XEuFYEu=XEu+ZEu{ZEu}N(0 0,σ2)

Respostas:


17

Na prática, o Teorema do Limite Central nos garante que, sob uma ampla gama de suposições, as distribuições das duas amostras a serem testadas se aproximarão das distribuições normais à medida que o tamanho da amostra for grande, independentemente (é aí que as suposições entram). as distribuições dos dados subjacentes. Como conseqüência, à medida que o tamanho da amostra aumenta, a diferença das médias se distribui normalmente e os requisitos necessários para a estatística t de um teste t não pareado para obter a distribuição t nominal ficam satisfeitos. Assim, uma pergunta mais aplicável na prática poderia ser: qual o tamanho da amostra para que eu possa ignorar com segurança a diferença entre a distribuição real da estatística e a distribuição t?

Em muitos casos, a resposta é "não muito grande", especialmente quando as distribuições subjacentes são bastante próximas da simétrica. Por exemplo, simulei 100.000 testes comparando as médias de duas distribuições uniformes (0,1), cada uma com tamanho de amostra 10 e, ao testar no nível de confiança de 95%, na verdade rejeitei os nulos 5,19% do tempo - dificilmente diferentes da taxa de rejeição nominal de 5% que esperamos (embora seja cerca de 2,7 desvios padrão acima de 5%).

É por isso que as pessoas usam o teste t em todos os tipos de situações em que as suposições subjacentes não são realmente atendidas, mas é claro que sua milhagem pode variar, dependendo das especificidades do seu problema. No entanto, existem outros testes que não exigem Normalidade, como o teste de Wilcoxon, que, mesmo quando os dados são normalmente distribuídos, é, assintoticamente, cerca de 95% mais eficiente que o teste t (ou seja, requer um tamanho de amostra de N / 0,95 para ter a mesma potência que um teste t com um tamanho de amostra de N, como N vai para o infinito). Quando os dados não são normalmente distribuídos, eles podem ser (não necessariamente serão) muito melhores que o teste t.


6
tt

Obrigado Frank - seu comentário me ajudou a articular uma pergunta mais próxima do que estou procurando: stats.stackexchange.com/questions/19681/…
Tal Galili

1

Claro. Se não fosse esse o caso, o teste t de amostras independentes não seria muito útil. Precisamos mesmo de amostras maiores, porque, para testarmos a diferença de médias entre duas populações não normais, precisamos apelar para o CLT.

Para um exemplo rápido, vamos supor que temos a população 1 proveniente de um exponencial com média 25 e a população 2 sendo distribuída uniformemente com média 30. Nós até forneceremos diferentes tamanhos de amostra. Podemos examinar como a distribuição das diferenças na amostra significa usar R com relativa facilidade usando a função replicar.

n1 <- 30
n2 <- 25
mean1 <- 25
mean2 <- 30

diffs <- replicate(10000, mean(rexp(n1, 1/mean1)) - mean(runif(n2, 0, 2*mean2)))
hist(diffs)

Brincar com os tamanhos de amostra mostrará que em tamanhos de amostra baixos realmente não temos normalidade, mas aumentar o tamanho da amostra nos fornece uma distribuição de amostra com aparência mais normal para a diferença de médias. Obviamente, você pode alterar as distribuições usadas neste exemplo para explorar mais. hist (diffs)

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.