Estou fazendo um curso sobre modelos de regressão e uma das propriedades fornecidas para a regressão linear é que os resíduos sempre somam zero quando uma interceptação é incluída.
Alguém pode fornecer uma boa explicação sobre por que esse é o caso?
Estou fazendo um curso sobre modelos de regressão e uma das propriedades fornecidas para a regressão linear é que os resíduos sempre somam zero quando uma interceptação é incluída.
Alguém pode fornecer uma boa explicação sobre por que esse é o caso?
Respostas:
Isso segue diretamente das equações normais, ou seja, as equações que o estimador OLS resolve,
O vetor dentro dos parênteses é obviamente o vetor residual ou a projeção de no complemento ortogonal do espaço da coluna de X , se você gosta de álgebra linear. Agora, incluir um vetor de uns na matriz X , que por sinal não precisa estar na primeira coluna, como é feito convencionalmente, leva a
No problema de duas variáveis, isso é ainda mais simples, pois minimizar a soma dos resíduos quadrados nos leva a
quando tomamos a derivada em relação à interceptação. A partir disso, passamos a obter o estimador familiar
onde novamente vemos que a construção de nossos estimadores impõe essa condição.
Caso você esteja procurando uma explicação bastante intuitiva.
Em certo sentido, o modelo de regressão linear nada mais é que uma média sofisticada. Para encontrar a média aritmética sobre alguns valores , encontramos um valor que é uma medida de centralidade, no sentido de que a soma de todos os desvios (onde cada desvio é definido como ) à direita do valor médio são iguais à soma de todos os desvios à esquerda dessa média. Não existe uma razão inerente para que essa medida seja boa, muito menos a melhor maneira de descrever a média de uma amostra, mas é certamente intuitiva e prática. O ponto importante é que, ao definir a média aritmética dessa maneira, segue-se necessariamente que, uma vez construída a média aritmética, todos os desvios dessa média devem somar zero por definição!
Na regressão linear, isso não é diferente. Ajustamos a linha de forma que a soma de todas as diferenças entre nossos valores ajustados (que estão na linha de regressão) e os valores reais que estão acima da linha seja exatamente igual à soma de todas as diferenças entre a linha de regressão e todos os valores abaixo da linha de regressão. linha. Novamente, não há uma razão inerente à razão pela qual essa é a melhor maneira de criar um ajuste, mas é direta e intuitivamente atraente. Assim como na média aritmética: construindo nossos valores ajustados dessa maneira, segue-se necessariamente, por construção, que todos os desvios dessa linha devem somar zero, pois, caso contrário, isso não seria uma recessão do OLS.
Quando uma intercepção está incluído na regressão linear
A simple derivation using matrix algebra:
can be written as
Then
where is the orthogonal matrix. Since is symmetric we can rearrange so that
which equals zero if and are orthogonal, which is the case if the matrix of the regressors contains the intercept (a vector of , indeed).