Eu tenho um experimento que tentarei abstrair aqui. Imagine que eu jogo três pedras brancas na sua frente e peço que faça um julgamento sobre a posição delas. Registro uma variedade de propriedades das pedras e sua resposta. Eu faço isso em vários assuntos. Eu gero dois modelos. Uma é que a pedra mais próxima de você prediz sua resposta, e a outra é que o centro geométrico das pedras prediz sua resposta. Então, usar lmer no RI poderia escrever.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
ATUALIZAÇÃO E MUDANÇA - versão mais direta que incorpora vários comentários úteis
Eu poderia tentar
anova(mNear, mCenter)
O que está incorreto, é claro, porque eles não estão aninhados e eu não posso realmente compará-los dessa maneira. Eu estava esperando que o anova.mer gerasse um erro, mas isso não aconteceu. Mas o possível aninhamento que eu poderia tentar aqui não é natural e ainda me deixa com afirmações um pouco menos analíticas. Quando os modelos são aninhados naturalmente (por exemplo, quadrático em linear), o teste é apenas de uma maneira. Mas, neste caso, o que significaria ter descobertas assimétricas?
Por exemplo, eu poderia fazer um modelo três:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Então eu posso anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
É justo fazer isso e agora acho que o centro aumenta o efeito mais próximo (o segundo comando), mas o BIC realmente aumenta quando o mais próximo é adicionado ao centro (correção para a parcimônia mais baixa). Isso confirma o que era suspeito.
Mas isso é suficiente? E isso é justo quando o centro e o mais próximo são tão altamente correlacionados?
Existe uma maneira melhor de comparar analiticamente os modelos quando não se trata de adicionar e subtrair variáveis explicativas (graus de liberdade)?