Uma estimativa do parâmetro em um modelo de regressão (por ) irá mudar se uma variável, X J , é adicionado ao modelo, que é: β^iXj
- correlacionado com a variável correspondente desse parâmetro, (que já estava no modelo) eXi
- correlacionado com a variável resposta, Y
Um beta estimado não será alterado quando uma nova variável for adicionada, se uma das alternativas acima não estiver correlacionada. Note-se que se eles não estão correlacionados na população (isto é, , ou ρ ( X J , Y ) = 0 ) é irrelevante. O que importa é que ambas as correlações de amostra são exatamente 0 . Essencialmente, isso nunca será o caso na prática, a menos que você esteja trabalhando com dados experimentais em que as variáveis foram manipuladas para que não sejam correlacionadas pelo design. ρ(Xi,Xj)=0 ρ(Xj,Y)=00
Observe também que a quantidade alterada pelos parâmetros pode não ser muito significativa (isso depende, pelo menos em parte, da sua teoria). Além disso, a quantidade que eles podem mudar é uma função das magnitudes das duas correlações acima.
Em uma nota diferente, não é realmente correto pensar nesse fenômeno como "o coeficiente de uma determinada variável [sendo] influenciado pelo coeficiente de outra variável". Não são os betas que estão se influenciando. Esse fenômeno é um resultado natural do algoritmo que o software estatístico usa para estimar os parâmetros de inclinação. Imagine uma situação em que seja causado por X i e X j , que por sua vez estão correlacionados. Se apenas X i estiver no modelo, parte da variação em Y que é devida a X j será atribuída inadequadamente a X iYXiXjXiYXjXi. Isto significa que o valor de é enviesada; isso é chamado de viés de variável omitida . Xi
multivariable
quer dizer múltiplas variáveis independentes ("regressão múltipla") ou múltiplas variáveis dependentes ("regressão multivariada" ou "MAN (C) OVA")?