Considere um polinômio:
β0 0+ β1x + β2x2+ … + Βkxk
Observe que o polinômio é não linear em mas que é linear em β . Se estamos tentando estimar , isso é regressão linear!
linearidade em é o que assuntos. Ao estimar a equação acima por mínimos quadrados, todos os resultados da regressão linear serão mantidos.xβy i = β 0 + β 1 x i + β 2 x 2 i + … + β k x k i + ϵ i β = ( β 0 , β 1 , … , β k )β
yEu= β0 0+ β1xEu+ β2x2Eu+ … + ΒkxkEu+ ϵEu
β = ( β0 0, β1, ... , βk)
Seja a soma total de quadrados, seja a soma explicada de quadrados e seja a soma residual de quadrados. O coeficiente de determinação é definido como:S S E S S R R 2S S TS S ES S R R2
R2= 1 - S S RS S T
E o resultado da regressão linear que fornece a sua interpretação familiar como a fração de variação explicada pelo modelo.S S T = S S E + S S RR2
SST = SSE + SSR: Quando é verdade e quando não é verdade?
Seja o valor previsto de e seja o resíduo. Além disso, vamos definir o valor da previsão como .y^EuyEueEu= yEu- y^EufEu= y^Eu- y¯
Vamos denota um produto interno . Em geral, temos:
Observe que é um produto interno válido. Então nós temos:⟨ . , . ⟩
⟨ f+ e , f+ E ⟩= ⟨ F, f⟩ + 2 ⟨ f, E ⟩ + ⟨ e , e ⟩= ⟨ F, f⟩ + ⟨ De e , e ⟩se f e e ortogonal, isto é, o seu produto interno é 0
⟨ Um , b ⟩ = ΣEuumaEubEu
- ⟨ f+ e , f+ E ⟩ = ΣEu( yEu- y¯)2 é a soma total de quadrados (SST).
- ⟨ f, f⟩ = ∑Eu( y^Eu- y¯)2 é a soma dos quadrados explicada (SSE).
- ⟨ De e , e ⟩ = ΣEu( yEu- y^Eu)2 é a soma residual dos quadrados (SSR).
Portanto, será verdadeiro se a previsão menosprezada for ortogonal ao residual . Isso é verdadeiro na regressão linear de mínimos quadrados ordinários sempre que uma constante é incluída na regressão. Outra interpretação dos mínimos quadrados comuns é que você está projetando no intervalo linear de regressores, portanto o resíduo é ortogonal a esse espaço por construção. A ortogonalidade das variáveis e resíduos do lado direito geralmente não é verdadeira para as previsões obtidas de outras maneiras.f e y y ISST= SSE+ SSRfe yy^Eu