Por que o teste F é tão sensível à suposição de normalidade?


16

Por que o teste F para diferença de variação é tão sensível à suposição de distribuição normal, mesmo para grande ?N

Tentei pesquisar na web e visitei a biblioteca, mas nada disso deu boas respostas. Ele diz que o teste é muito sensível por violar a suposição de distribuição normal, mas eu não entendo o porquê. Alguém tem uma boa resposta para isso?



Teste F para medir a diferença de variância.
Magnus Johannesen

Respostas:


35

Presumo que você queira dizer o teste F para a razão de variações ao testar um par de variações de amostra quanto à igualdade (porque é a mais simples que é bastante sensível à normalidade; o teste F para ANOVA é menos sensível)

Se suas amostras forem coletadas de distribuições normais, a variação da amostra terá uma distribuição qui-quadrado em escala

Imagine que, em vez de dados extraídos de distribuições normais, você tivesse uma distribuição mais pesada do que o normal. Então você obteria muitas variações grandes em relação à distribuição qui-quadrado em escala, e a probabilidade de a variação da amostra sair para a extremidade direita é muito sensível às caudas da distribuição da qual os dados foram extraídos =. (Também haverá muitas pequenas variações, mas o efeito é um pouco menos pronunciado)

Agora, se as duas amostras forem coletadas dessa distribuição de cauda mais pesada, a cauda maior no numerador produzirá um excesso de valores F grandes e a cauda maior no denominador produzirá um excesso de valores F pequenos (e vice-versa para a cauda esquerda)

Ambos os efeitos tendem a levar à rejeição em um teste bicaudal, mesmo que as duas amostras tenham a mesma variação . Isso significa que, quando a distribuição verdadeira é mais pesada que o normal, os níveis de significância reais tendem a ser mais altos do que queremos.

Por outro lado, extrair uma amostra de uma distribuição de cauda mais clara produz uma distribuição de variações de amostra com uma cauda muito curta - os valores de variação tendem a ser mais "medianos" do que os dados de distribuições normais. Novamente, o impacto é mais forte na cauda superior do que na cauda inferior.

Agora, se as duas amostras forem retiradas dessa distribuição de cauda mais clara, isso resultará em um excesso de valores de F próximo à mediana e muito poucos nas duas caudas (os níveis de significância reais serão menores que o desejado).

Esses efeitos não parecem necessariamente reduzir muito com um tamanho de amostra maior; em alguns casos, parece piorar.

Como ilustração parcial, apresentamos 10000 variações de amostra (para n=10 ) para distribuições normais, t5 e uniformes, dimensionadas para ter a mesma média de um χ92 :

insira a descrição da imagem aqui

É um pouco difícil ver a cauda distante, já que é relativamente pequena em comparação com o pico (e para o t5 as observações na cauda se estendem por um caminho justo para onde traçamos), mas podemos ver algo do efeito em a distribuição da variação. Talvez seja ainda mais instrutivo transformá-los pelo inverso do qui-quadrado cdf,

insira a descrição da imagem aqui

que no caso normal parece uniforme (como deveria), no caso t tem um grande pico na cauda superior (e um pico menor na cauda inferior) e no caso uniforme é mais parecido com uma colina, mas com uma ampla pico em torno de 0,6 a 0,8 e os extremos têm probabilidade muito menor do que deveriam se estivéssemos amostrando a partir de distribuições normais.

F9,9

insira a descrição da imagem aqui

t5

Existem muitos outros casos a serem investigados para um estudo completo, mas isso ao menos dá uma noção do tipo e direção do efeito, bem como de como ele surge.


1
Really nice demo
shadowtalker 4/16

3

Como Glen_b ilustrou brilhantemente em suas simulações, o teste F para uma razão de variações é sensível às caudas da distribuição. A razão para isso é que a variação de uma variação de amostra depende do parâmetro de curtose e, portanto, a curtose da distribuição subjacente exerce um forte efeito sobre a distribuição da razão de variações da amostra.

SN2Sn2n<N

SN2Sn2Aproximadamenten-1N-1+N-nN-1F(DFC,DFn),

κ

DFn=2nκ(n3)/(n1)DFC=2(Nn)2+(κ3)(12/N+1/Nn).

κ=3DFn=n1DFC=Nn

κ^


N1N


+1 Este é um post muito interessante. Certamente, com as distribuições mesocúrticas, é mais difícil fazer com que a distribuição da razão de variância fique o mais longe possível de F com uma ampla gama de opções de distribuição, mas não é tão difícil identificar casos (no tamanho da amostra na minha resposta, 10 e 10) onde a taxa de erro real do tipo I está mais do que um pouco distante da taxa nominal de 0,05. Os três primeiros casos que eu tentei (distribuições com curtose populacional = 3 - todos simétricos também) apresentaram taxas de rejeição do tipo I de 0,0379, 0,0745 e 0,0785. ...
ctd

ctd ... Tenho poucas dúvidas de que casos mais extremos possam ser identificados com um pouco de reflexão sobre como piorar a aproximação. Eu imagino que (embora o nível de significância não seja muito afetado) possa se manter melhor em amostras maiores.
Glen_b -Reinstala Monica
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.