pode ser negativo, isso significa apenas que:R2
- O modelo ajusta muito mal seus dados
- Você não definiu uma interceptação
Para as pessoas dizendo que é entre 0 e 1, este não é o caso. Enquanto que um valor negativo para algo com a palavra 'quadrado' em que pode soar como ele quebra as regras da matemática, que pode acontecer em um R 2 modelo sem uma interceptação. Para entender o porquê, precisamos olhar como R 2 é calculado.R2R2R2
Isso é um pouco longo - se você quiser a resposta sem entendê-la, pule para o final. Caso contrário, tentei escrever isso em palavras simples.
Primeiro, vamos definir 3 variáveis: , T S S e E S S .RSSTSSESS
Calculando RSS :
Para cada variável independente , temos a variável dependente y . Plotamos uma linha linear de melhor ajuste, que prevê o valor de y para cada valor de x . Vamos chamar os valores de y a linha prediz y . O erro entre o que sua linha prevê e qual é o valor y real pode ser calculado como subtração. Todas estas diferenças são elevados ao quadrado e somados, o que dá o residual Soma dos Quadrados R S S .xyyxyy^yR SS
Colocando em que uma equação, R SS= ∑ ( y- y^)2
Calculando TSS :
Podemos calcular o valor médio de , que é chamado ˉ y . Se plotarmos y , é apenas uma linha horizontal através dos dados, porque é constante. O que podemos fazer com isso, porém, é subtrairyy¯y¯ (o valor médio dey) de cada valor real doy. O resultado é elevado ao quadrado e somados, o que dá a soma total dos quadradosTSS.y¯yyTSS
Colocando isso em uma equação TSS=∑(y−y¯)2
Cálculo do ESS :
As diferenças entre y (os valores de y , previstos pela linha) e o valor médio ˉ y são elevados ao quadrado e adicionado. Esta é a soma explicada dos quadrados, que é igual a ∑ (y^yy¯∑(y^−y¯)2
Lembre-se, , mas podemos adicionar um + y - y para ele, porque ele se anula. Portanto, T S S = Σ ( y - y + y - ˉ y ) 2 . Expandindo esses suportes, temos T S S = Σ ( y - y ) 2 +TSS=∑(y−y¯)2+y^−y^TSS=∑(y−y^+y^−y¯)2TSS=∑(y−y^)2+2∗∑(y−y^)(y^−y¯)+∑(y^−y¯)2
Quando, e apenas quando a linha é traçada com uma intercepção, o seguinte é sempre verdadeira: . Portanto, T S S = Σ ( y - y ) 2 + Σ ( y - ˉ y ) 2 , o que poderá notar que apenas meios T S S = R S S +2∗∑(y−y^)(y^−y¯)=0TSS=∑(y−y^)2+∑(y^−y¯)2 . Se dividirmos todos os termos por T S S e reorganizarmos, obtemos 1 - R S STSS=RSS+ESSTSS .1−RSSTSS=ESSTSS
Aqui está a parte importante :
é definido como o quanto da variância é explicada por seu modelo (como bom seu modelo é). Em forma de equação, isso é R 2 = 1 - R S SR2 . Parece familiar? Quando a linha é plotada com uma interceptação, podemos substituí-la comoR2=ESSR2=1−RSSTSSR2=ESSTSSR2
MAS
2∗∑(y−y^)(y^−y¯)0TSS=RSS+ESS+2∗∑(y−y^)(y^−y¯).
Dividing all terms by TSS, we get 1−RSSTSS=ESS+2∗∑(y−y^)(y^−y¯)TSS.
Finally, we substitute to get R2=ESS+2∗∑(y−y^)(y^−y¯)TSS. This time, the numerator has a term in it which is not a sum of squares, so it can be negative. This would make R2 negative. When would this happen? 2∗∑(y−y^)(y^−y¯) would be negative when y−y^ is negative and y^−y¯ is positive, or vice versa. This occurs when the horizontal line of y¯ actually explains the data better than the line of best fit.
Here's an exaggerated example of when R2 is negative (Source: University of Houston Clear Lake)
Put simply:
- When R2<0, a horizontal line explains the data better than your model.
You also asked about R2=0.
- When R2=0, a horizontal line explains the data equally as well as your model.
I commend you for making it through that. If you found this helpful, you should also upvote fcop's answer here which I had to refer to, because it's been a while.