A Wikipedia sugere que uma maneira de analisar a confiabilidade entre avaliadores é usar um modelo de efeitos aleatórios para calcular a correlação intraclasse . O exemplo da correlação intraclasse fala sobre olhar para
de um modelo
"onde Y ij é a j- ésima observação no i- ésimo grupo, μ é uma média geral não observada, α i é um efeito aleatório não observado compartilhado por todos os valores do grupo i, e ij é um termo de ruído não observado."
Este é um modelo atraente, especialmente porque, em meus dados, nenhum avaliador avaliou todas as coisas (embora a maioria tenha avaliado mais de 20), e as coisas são classificadas um número variável de vezes (geralmente 3-4).
Pergunta # 0: "grupo i" nesse exemplo ("grupo i") é um agrupamento de itens que estão sendo classificados?
Pergunta nº 1: Se estou procurando confiabilidade entre avaliadores, não preciso de um modelo de efeitos aleatórios com dois termos, um para o avaliador e outro para a coisa classificada? Afinal, ambos têm variação possível.
Pergunta 2: Como eu melhor expressaria esse modelo em R?
Parece que esta pergunta tem uma proposta interessante:
lmer(measurement ~ 1 + (1 | subject) + (1 | site), mydata)
Eu olhei para algumas perguntas e a sintaxe do parâmetro "random" para lme é opaca para mim. Eu li a página de ajuda do lme , mas a descrição para "aleatório" é incompreensível para mim sem exemplos.
Esta questão é um pouco semelhante a uma longa lista de perguntas , sendo esta a mais próxima. No entanto, a maioria não aborda R em detalhes.