Para ilustrar a questão da estabilidade numérica mencionada por @cbeleites, aqui está um exemplo de Simon Wood sobre como "quebrar" lm()
. Primeiro, geraremos alguns dados simples e ajustaremos uma curva quadrática simples.
set.seed(1); n <- 100
xx <- sort(runif(n))
y <- .2*(xx-.5)+(xx-.5)^2 + rnorm(n)*.1
x <- xx+100
b <- lm(y ~ x+I(x^2))
plot(x,y)
lines(x, predict(b), col='red')
Mas se adicionarmos 900 a X, o resultado deve ser praticamente o mesmo, exceto para a direita, não? Infelizmente não...
X <- x + 900
B <- lm(y ~ X+I(X^2))
plot(X,y)
lines(X, predict(B), col='blue')
Edite para adicionar ao comentário por @ Scortchi - se observarmos o objeto retornado por lm (), veremos que o termo quadrático não foi estimado e é mostrado como NA.
> B
Call:
lm(formula = y ~ X + I(X^2))
Coefficients:
(Intercept) X I(X^2)
-139.3927 0.1394 NA
E, de fato, como sugerido por @ Scortchi, se olharmos para a matriz do modelo e tentarmos resolver diretamente, ela "quebra".
> X <- model.matrix(b) ## get same model matrix used above
> beta.hat <- solve(t(X)%*%X,t(X)%*%y) ## direct solution of ‘normal equations’
Error in solve.default(t(X) %*% X, t(X) %*% y) :
system is computationally singular: reciprocal condition number = 3.9864e-19
No entanto, lm()
não me fornece nenhum aviso ou mensagem de erro além dos NA
s na I(X^2)
linha do summary(B)
R-3.1.1. Outros algoritmos podem, obviamente, ser "quebrados" de diferentes maneiras, com diferentes exemplos.