Eu acho que é a diferença de quais testes são computados. car::Anova
usa os testes de Wald, enquanto que drop1
o modelo é redefinido, descartando termos únicos. John Fox escreveu uma vez que Wald testa e testa modelos reequipados usando testes de razão de verossimilhança (ou seja, a estratégia de drop1
) concordam com modelos lineares, mas não necessariamente não lineares. Infelizmente, este e-mail estava off-line e não continha nenhuma referência. Mas sei que o livro dele tem um capítulo sobre os testes de Wald, que pode conter as informações desejadas.
A ajuda para car::Anova
diz:
Os testes do tipo II são calculados de acordo com o princípio da marginalidade, testando cada termo após todos os outros, exceto ignorando os parentes de ordem superior do termo; os chamados testes do tipo III violam a marginalidade, testando cada termo no modelo após todos os outros. Essa definição de testes do tipo II corresponde aos testes produzidos pelo SAS para modelos de análise de variância, onde todos os preditores são fatores, mas não de maneira mais geral (ou seja, quando existem preditores quantitativos). Tenha muito cuidado ao formular o modelo para testes do tipo III, ou as hipóteses testadas não farão sentido.
Infelizmente, não posso responder a segunda ou terceira pergunta, pois também gostaria de saber isso.
Atualizar comentário de recuperação :
Não há testes de Wald, LR e F para modelos mistos generalizados. Anova
apenas permite "chisq"
e "F"
testa modelos mistos (ou seja, "mer"
objetos retornados por lmer
). A seção de uso diz:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Mas, como os testes F para mer
objetos são calculados por pbkrtest
, que, para meu conhecimento, só funciona em modelos lineares mistos, os Anova
GLMMs sempre devem retornar chisq
(portanto, você não vê diferença).
Atualização sobre a pergunta:
Minha resposta anterior apenas tentou responder à sua pergunta principal, a diferença entre Anova()
e drop1()
. Mas agora entendo que você deseja testar se certos efeitos fixos são significativos ou não. A FAQ de modelagem R-sig-mixed diz o seguinte sobre isso:
Testes de parâmetros únicos
Do pior ao melhor:
- Testes Z de Wald
- Para LMMs aninhados e balanceados, nos quais o df pode ser calculado: testes t de Wald
- Teste de razão de verossimilhança, configurando o modelo para que o parâmetro possa ser isolado / eliminado (via anova ou drop1) ou através da computação de perfis de verossimilhança
- Intervalos de confiança de MCMC ou de parametrização de inicialização
Testes de efeitos (ou seja, testes de que vários parâmetros são simultaneamente zero)
Do pior ao melhor:
- Testes de Qui-quadrado de Wald (por exemplo, carro :: Anova)
- Teste da razão de verossimilhança (via anova ou drop1)
- Para LMMs aninhados e balanceados, onde df pode ser calculado: testes F condicionais
- Para LMMs: testes F condicionais com correção df (por exemplo, Kenward-Roger no pacote pbkrtest)
- Comparações de MCMC ou paramétricas, ou não paramétricas, de inicialização (a inicialização não paramétrica deve ser implementada com cuidado para levar em consideração os fatores de agrupamento)
(enfase adicionada)
Isso indica que sua abordagem de uso car::Anova()
para GLMMs geralmente não é recomendada, mas uma abordagem usando MCMC ou bootstrap deve ser usada. Não sei se pvals.fnc
do languageR
pacote woks com GLMMs, mas vale a pena tentar.