Normalmente, trato de dados em que vários indivíduos são medidos várias vezes em cada uma de duas ou mais condições. Recentemente, tenho brincado com a modelagem de efeitos mistos para avaliar evidências de diferenças entre condições, modelando individual
como um efeito aleatório. Para visualizar a incerteza sobre as previsões de tal modelagem, eu tenho usado o bootstrap, onde em cada iteração do bootstrap, indivíduos e observações dentro das condições dentro dos indivíduos são amostrados com substituição e um novo modelo de efeito misto é calculado a partir do qual as previsões são obtidos. Isso funciona bem para dados que assumem erro gaussiano, mas quando os dados são binomiais, a inicialização pode demorar muito, pois cada iteração deve calcular um modelo de efeitos mistos binomiais relativamente intensivos em computação.
Pensei que eu poderia usar os resíduos do modelo original e usá-los em vez dos dados brutos no bootstrapping, o que me permitiria calcular um modelo de efeito misto gaussiano em cada iteração do bootstrap. A adição das previsões originais do modelo binomial dos dados brutos às previsões de inicialização de resíduos gera um IC de 95% para as previsões originais.
No entanto, recentemente codifiquei uma avaliação simples dessa abordagem, modelando nenhuma diferença entre duas condições e calculando a proporção de vezes que um intervalo de confiança de 95% falhou em incluir zero, e descobri que o procedimento de bootstrapping baseado em resíduos acima gera um resultado bastante anti- intervalos conservadores (excluem zero mais de 5% do tempo). Além disso, codifiquei (no mesmo link que o anterior) uma avaliação semelhante dessa abordagem aplicada aos dados originalmente gaussianos e obteve ICs anti-conservadores semelhantes (embora não tão extremos). Alguma idéia de por que isso pode ser?