Estou trabalhando em um projeto em que observamos o comportamento de uma tarefa (por exemplo, tempo de resposta) e modelamos esse comportamento em função de várias variáveis manipuladas experimentalmente, bem como de várias variáveis observadas (sexo do participante, QI do participante, respostas a seguir). questionário). Não tenho preocupações com a multicolinearidade entre as variáveis experimentais porque elas foram especificamente manipuladas para serem independentes, mas estou preocupado com as variáveis observadas. No entanto, não tenho certeza de como avaliar a independência entre as variáveis observadas, em parte porque pareço obter resultados um pouco diferentes, dependendo de como montei o avaliador, e também porque não estou familiarizado com a correlação no contexto em que um ou outro ambas as variáveis são dicotômicas.
Por exemplo, aqui estão duas abordagens diferentes para determinar se o sexo é independente do QI. Não sou fã de testes de significância de hipóteses nulas; portanto, em ambas as abordagens, construo dois modelos, um com um relacionamento e outro sem, depois calculo e a razão de verossimilhança de log corrigida pela AIC:
m1 = lm(IQ ~ 1)
m2 = lm(IQ ~ sex)
LLR1 = AIC(m1)-AIC(m2)
m3 = glm(sex~1,family='binomial')
m4 = glm(sex~IQ,family='binomial')
LLR2 = AIC(m3)-AIC(m4)
No entanto, essas abordagens produzem respostas um pouco diferentes; LLR1 é de cerca de 7, sugerindo fortes evidências a favor de um relacionamento, enquanto LLR2 é de cerca de 0,3, sugerindo evidências muito fracas em favor de um relacionamento.
Além disso, se eu tentar avaliar a independência entre sexo e outra variável observada dicotômica, "yn", a LLR resultante dependerá da mesma forma se configurarei os modelos para prever o sexo a partir de yn ou prever o yn a partir do sexo.
Alguma sugestão de por que essas diferenças estão surgindo e como proceder de maneira mais razoável?
seq
em seu código um erro de digitação parasex
? Se você copiar e colar o código de análise, que pode ser parte do problema ..