Essa é uma pergunta bastante antiga, com algumas respostas muito boas, mas acho que ela pode se beneficiar de uma nova resposta para abordar uma perspectiva mais pragmática.
Quando não se deve permitir que um efeito fixo varie entre os níveis de um efeito aleatório?
Não irei abordar as questões já descritas nas outras respostas; em vez disso, vou me referir ao agora famoso, embora prefiro dizer um artigo "infame" de Barr et al (2013), frequentemente chamado de "Mantenha-o máximo".
Barr, DJ, Levy, R., Scheepers, C. e Tily, HJ, 2013. Estrutura de efeitos aleatórios para teste de hipótese confirmatória: Mantenha-o máximo. Journal of memory and language, 68 (3), pp.255-278.
Neste artigo, os autores argumentam que todos os efeitos fixos devem variar entre os níveis dos fatores de agrupamento (interceptações aleatórias). O argumento deles é bastante convincente - basicamente, ao não permitir que eles variem, está impondo restrições ao modelo. Isso está bem descrito nas outras respostas. No entanto, existem problemas potencialmente graves com essa abordagem, descritos por Bates el al (2015):
Bates, D., Kliegl, R., Vasishth, S. e Baayen, H., 2015. Modelos mistos parcimoniosos. pré-impressão do arXiv arXiv: 1506.04967
Vale a pena notar aqui que Bates é o principal autor do lme4
pacote para a montagem de modelos mistos em R, que é provavelmente o pacote mais usado para esses modelos. Bates et al. Observam que em muitas aplicações do mundo real, os dados simplesmente não suportam uma estrutura máxima de efeitos aleatórios, geralmente porque há um número insuficiente de observações em cada cluster para as variáveis relevantes. Isso pode se manifestar em modelos que não convergem ou são singulares nos efeitos aleatórios. O grande número de perguntas neste site sobre esses modelos atesta isso. Eles também observam que Barr et al usaram uma simulação relativamente simples, com efeitos aleatórios "bem comportados" como base para o trabalho. Em vez disso, Bates et al sugerem a seguinte abordagem:
Propusemos (1) usar o PCA para determinar a dimensionalidade da matriz de variância-covariância da estrutura de efeitos aleatórios, (2) restringir inicialmente os parâmetros de correlação a zero, especialmente quando uma tentativa inicial de ajustar um modelo máximo não converge, e (3) remover componentes de variação não significativos e seus parâmetros de correlação associados do modelo
No mesmo artigo, eles também observam:
É importante ressaltar que a falha na convergência não se deve a defeitos do algoritmo de estimativa, mas é uma conseqüência direta da tentativa de ajustar um modelo que é muito complexo para ser adequadamente suportado pelos dados.
E:
modelos máximos não são necessários para proteger contra conclusões anti-conservadoras. Essa proteção é totalmente fornecida por modelos abrangentes, guiados por expectativas realistas sobre a complexidade que os dados podem suportar. Nas estatísticas, como em outras partes da ciência, a parcimônia é uma virtude, não um vício.
Bates et al. (2015)
De uma perspectiva mais aplicada, uma consideração adicional que deve ser feita é se o processo de geração de dados, a teoria biológica / física / química subjacente aos dados, deve orientar o analista na especificação da estrutura de efeitos aleatórios.