Caso você esteja procurando uma explicação bastante intuitiva.
Em certo sentido, o modelo de regressão linear nada mais é que uma média sofisticada. Para encontrar a média aritmética x¯ sobre alguns valores x1,x2,…,xn , encontramos um valor que é uma medida de centralidade, no sentido de que a soma de todos os desvios (onde cada desvio é definido como ui=xi−x¯) à direita do valor médio são iguais à soma de todos os desvios à esquerda dessa média. Não existe uma razão inerente para que essa medida seja boa, muito menos a melhor maneira de descrever a média de uma amostra, mas é certamente intuitiva e prática. O ponto importante é que, ao definir a média aritmética dessa maneira, segue-se necessariamente que, uma vez construída a média aritmética, todos os desvios dessa média devem somar zero por definição!
Na regressão linear, isso não é diferente. Ajustamos a linha de forma que a soma de todas as diferenças entre nossos valores ajustados (que estão na linha de regressão) e os valores reais que estão acima da linha seja exatamente igual à soma de todas as diferenças entre a linha de regressão e todos os valores abaixo da linha de regressão. linha. Novamente, não há uma razão inerente à razão pela qual essa é a melhor maneira de criar um ajuste, mas é direta e intuitivamente atraente. Assim como na média aritmética: construindo nossos valores ajustados dessa maneira, segue-se necessariamente, por construção, que todos os desvios dessa linha devem somar zero, pois, caso contrário, isso não seria uma recessão do OLS.