Por que inicializar os resíduos de um modelo de efeitos mistos gera intervalos de confiança anti-conservadores?


11

Normalmente, trato de dados em que vários indivíduos são medidos várias vezes em cada uma de duas ou mais condições. Recentemente, tenho brincado com a modelagem de efeitos mistos para avaliar evidências de diferenças entre condições, modelando individualcomo um efeito aleatório. Para visualizar a incerteza sobre as previsões de tal modelagem, eu tenho usado o bootstrap, onde em cada iteração do bootstrap, indivíduos e observações dentro das condições dentro dos indivíduos são amostrados com substituição e um novo modelo de efeito misto é calculado a partir do qual as previsões são obtidos. Isso funciona bem para dados que assumem erro gaussiano, mas quando os dados são binomiais, a inicialização pode demorar muito, pois cada iteração deve calcular um modelo de efeitos mistos binomiais relativamente intensivos em computação.

Pensei que eu poderia usar os resíduos do modelo original e usá-los em vez dos dados brutos no bootstrapping, o que me permitiria calcular um modelo de efeito misto gaussiano em cada iteração do bootstrap. A adição das previsões originais do modelo binomial dos dados brutos às previsões de inicialização de resíduos gera um IC de 95% para as previsões originais.

No entanto, recentemente codifiquei uma avaliação simples dessa abordagem, modelando nenhuma diferença entre duas condições e calculando a proporção de vezes que um intervalo de confiança de 95% falhou em incluir zero, e descobri que o procedimento de bootstrapping baseado em resíduos acima gera um resultado bastante anti- intervalos conservadores (excluem zero mais de 5% do tempo). Além disso, codifiquei (no mesmo link que o anterior) uma avaliação semelhante dessa abordagem aplicada aos dados originalmente gaussianos e obteve ICs anti-conservadores semelhantes (embora não tão extremos). Alguma idéia de por que isso pode ser?


hm, acabei de notar que, no código de geração de dados para os dois casos, não adicionei nenhuma variabilidade entre indivíduos que normalmente se interessa em eliminar ao modelar indivíduos como efeitos aleatórios. Vou ver se adicionar essa variabilidade altera o resultado; de volta em algumas horas ...
Mike Lawrence

Se bem me lembro, o bootstrap aproxima a estimativa da estimativa real da população. Não diz nada sobre o intervalo de confiança. (cf. Kesar Singh, sobre a precisão assintótica de bootstrap de Efron Ann Statist de 1981, 9, 1187-1195...)
suncoolsu

@me: posso confirmar que a adição da variabilidade entre indivíduos na função de geração de dados não melhora o desempenho do autoinicializador. Fiz upload do código que usei para confirmar isso na essência vinculada na postagem original.
9788 Mike Juliet

@suncoolsu: Tenho certeza de que os intervalos de confiança com bootstrap são padrão há algum tempo. Efron os menciona em seu artigo de 1978, descrevendo o procedimento de inicialização em geral; em seguida, ele publicou vários trabalhos nas décadas de 80 e 90 sobre ajustes do procedimento de inicialização para intervalos de confiança mais precisos (correção de viés, aceleração, estudantes, etc.).
Mike Lawrence

1
Você já leu o seguinte artigo de Morris: "Os BLUPs não são os melhores quando se trata de inicialização". Pode estar relacionado ao seu trabalho. link
julieth 14/08/12

Respostas:


7

Lembre-se de que todos os intervalos de confiança de inicialização são apenas assintoticamente no nível de confiança declarado. Também existem vários métodos possíveis para selecionar intervalos de confiança do autoinicializador O método do percentil de Efron, o método do percentil de Hall, autoinicialização dupla, autoinstrução t, autoinstrução inclinada, BC, BCa e talvez mais alguns. Você não nos disse qual método você usa. O artigo de Schenker no JASA 1985 mostrou que, para certas distribuições de qui-quadrado, o intervalo de confiança de auto-inicialização do BC subavaliava a porcentagem anunciada. Em problemas de tamanho pequeno de amostra, esse problema pode ser grave. LaBudde e eu temos dois trabalhos mostrando como em amostras pequenas o BCa pode ter uma cobertura muito baixa ao estimar uma variação de uma distribuição lognormal e existe um problema semelhante para testar a igualdade de duas variações. Isso é apenas para um problema simples. Espero que o mesmo possa acontecer com os resíduos de modelos mistos. Em nosso novo livro "Uma Introdução aos Métodos de Bootstrap com Aplicativos para R", publicado por Wiley em 2011, abordamos este tópico na Seção 3.7 e fornecemos referências. A surpresa é que o método do percentil às vezes se sai melhor que o método BCa preciso de ordem superior, quando o tamanho da amostra é pequeno.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.