R ao quadrado e regressão polinomial de ordem superior


8

O gráfico abaixo mostra a saturação de uma estrada em relação ao impacto no tempo de viagem (normalizado para o tempo de viagem de fluxo livre).

A curva azul (função BPR) apresenta um modelo padronizado usado em campo para relacionar o tempo de viagem e a saturação.

Para os dados empíricos que reuni, plotei um ajuste polinomial de terceira ordem, mostrado em vermelho. Para avaliar este ajuste, eu encontrei a R2 para esta terceira ajuste ordem. Isso foi dado como 0,72.

Falei com um colega sobre R2 e ele me apontou para este artigo. Por que não existe um quadrado R para regressão não linear?

Eu encontrei muitos artigos foram R2 é usado para avaliar a adequação de um polinômio de ordem superior e agora estou um pouco confuso.

É R2 impróprio neste caso? O que devo usar?

insira a descrição da imagem aqui


5
A regressão polinomial é linear - são os coeficientes que determinam a linearidade do modelo, não a matriz do modelo. Na verdade, verifique este post fantástico . Então eu acho que você está no caminho certo.
Antoni Parellada

Obrigado @AntoniParellada. Isso fez uma excelente leitura. Também estou egoisticamente feliz como eu não precisa refazer algumas análises;)
LearningSlowly

Respostas:


5

Considere um polinômio:

β0 0+β1x+β2x2++βkxk

Observe que o polinômio é não linear em mas que é linear em β . Se estamos tentando estimar , isso é regressão linear! linearidade em é o que assuntos. Ao estimar a equação acima por mínimos quadrados, todos os resultados da regressão linear serão mantidos.xβy i = β 0 + β 1 x i + β 2 x 2 i + + β k x k i + ϵ i β = ( β 0 , β 1 , , β k )β

yEu=β0 0+β1xEu+β2xEu2++βkxEuk+ϵEu
β=(β0 0,β1,,βk)

Seja a soma total de quadrados, seja a soma explicada de quadrados e seja a soma residual de quadrados. O coeficiente de determinação é definido como:S S E S S R R 2SSTSSESSR R2

R2=1-SSRSST

E o resultado da regressão linear que fornece a sua interpretação familiar como a fração de variação explicada pelo modelo.SST=SSE+SSRR2

SST = SSE + SSR: Quando é verdade e quando não é verdade?

Seja o valor previsto de e seja o resíduo. Além disso, vamos definir o valor da previsão como .y^EuyEueEu=yEu-y^EufEu=y^Eu-y¯

Vamos denota um produto interno . Em geral, temos: Observe que é um produto interno válido. Então nós temos:.,.

f+e,f+e=f,f+2f,e+e,e=f,f+e,eE se f e e ortogonal, ou seja, seu produto interno é 0
uma,b=EuumaEubEu
  • f+e,f+e=Eu(yEu-y¯)2 é a soma total de quadrados (SST).
  • f,f=Eu(y^Eu-y¯)2 é a soma dos quadrados explicada (SSE).
  • e,e=Eu(yEu-y^Eu)2 é a soma residual dos quadrados (SSR).

Portanto, será verdadeiro se a previsão menosprezada for ortogonal ao residual . Isso é verdadeiro na regressão linear de mínimos quadrados ordinários sempre que uma constante é incluída na regressão. Outra interpretação dos mínimos quadrados comuns é que você está projetando no intervalo linear de regressores, portanto o resíduo é ortogonal a esse espaço por construção. A ortogonalidade das variáveis ​​e resíduos do lado direito geralmente não é verdadeira para as previsões obtidas de outras maneiras.f e y y ISST=SSE+SSRfe yy^Eu

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.