Como os modelos de efeitos mistos (lineares) são normalmente comparados entre si? Eu sei que testes de razão de verossimilhança podem ser usados, mas isso não funciona se um modelo não for um 'subconjunto' do outro correto?
A estimativa dos modelos df é sempre direta? Número de efeitos fixos + número de componentes de variação estimados? Ignoramos as estimativas de efeitos aleatórios?
E a validação? Meu primeiro pensamento é a validação cruzada, mas as dobras aleatórias podem não funcionar, dada a estrutura dos dados. Uma metodologia de 'deixar um assunto / cluster de fora' é apropriada? Que tal deixar uma observação de fora?
Mallows Cp pode ser interpretado como uma estimativa do erro de previsão dos modelos. A seleção do modelo via AIC tenta minimizar o erro de previsão (então Cp e AIC devem escolher o mesmo modelo se os erros forem gaussianos, acredito). Isso significa que o AIC ou o Cp podem ser usados para escolher um modelo de efeitos mistos lineares 'ideal' a partir de uma coleção de alguns modelos não aninhados em termos de erro de previsão? (desde que adequados aos mesmos dados) A BIC ainda tem maior probabilidade de escolher o modelo "verdadeiro" entre os candidatos?
Também tenho a impressão de que, ao comparar modelos de efeitos mistos via AIC ou BIC, contamos apenas os efeitos fixos como 'parâmetros' no cálculo, e não os modelos reais df.
Existe alguma boa literatura sobre esses tópicos? Vale a pena investigar cAIC ou mAIC? Eles têm aplicação específica fora da AIC?