JUSTIFICATIVA: Pule com segurança - está aqui para referência e para legitimar a pergunta.
A abertura deste artigo diz:
"O famoso teste de contingência qui-quadrado de Karl Pearson é derivado de outra estatística, chamada estatística z, com base na distribuição Normal. As versões mais simples do podem ser matematicamente idênticas aos testes z equivalentes. Os testes produzem o mesmo resultado em todas as circunstâncias. Para todos os efeitos, "qui-quadrado" pode ser chamado de "z-quadrado". Os valores críticos de para um grau de liberdade são o quadrado dos valores críticos correspondentes de z ".
Isso foi afirmado várias vezes no currículo ( aqui , aqui , aqui e outros).
E, de fato, podemos provar que é equivalente acom:
Digamos que e que e encontre a densidade de usando o método :
. O problema é que não podemos integrar de forma estreita a densidade da distribuição normal. Mas podemos expressá-lo:
Como os valores do normal são simétricos:
. Igualando isso aopdfdo normal (agora oxnopdfserá√ a ser conectado aoe - x 2 partes do normalpdf); e lembrando-se de incluir1 no final:
Compare com o pdf do quadrado chi:
Desde , para1df, derivamos exatamente opdfdo quadrado de chi.
Além disso, se chamamos a função prop.test()
em R, estamos invocando o mesmo teste do como se decidíssemos .chisq.test()
A QUESTÃO:
Então, eu entendo todos esses pontos, mas ainda não sei como eles se aplicam à implementação real desses dois testes por dois motivos:
Um teste z não é quadrado.
As estatísticas de teste reais são completamente diferentes:
O valor da estatística de teste para um é:
onde
= Pearson's cumulative test statistic, which asymptotically approaches a distribution. = the number of observations of type ; = total number of observations; = = the expected (theoretical) frequency of type , asserted by the null hypothesis that the fraction of type in the population is ; = the number of cells in the table.
On the other hand, the test statistic for a -test is:
with , where and are the number of "successes", over the number of subjects in each one of the levels of the categorical variables, i.e. and .
This formula seems to rely on the binomial distribution.
These two tests statistics are clearly different, and result in different results for the actual test statistics, as well as for the p-values: 5.8481
for the and 2.4183
for the z-test, where (thank you, @mark999). The p-value for the test is 0.01559
, while for the z-test is 0.0077
. The difference explained by two-tailed versus one-tailed: (thank you @amoeba).
So at what level do we say that they are one and the same?
chisq.test()
, have you tried using correct=FALSE
?