Em termos de matriz, seus modelos estão na forma usual . E[Y]=Xβ
O primeiro modelo representa um elemento do primeiro grupo pela linha em , correspondente à interceptação, o indicador para a categoria 2 e o indicador para a categoria 3. Representa um elemento do segundo grupo por a linha e um elemento do terceiro grupo por .(1,0,0)X(1,1,0)(1,0,1)
O segundo modelo usa linhas , e , respectivamente.(1,1,12)=(1,1,1)(1,2,22)=(1,2,4)(1,3,32)=(1,3,9)
Vamos chamar as matrizes de modelo resultantes e . Eles estão simplesmente relacionados: as colunas de um são combinações lineares das colunas do outro. Por exemplo, deixeX1X2
V=⎛⎝⎜100112138⎞⎠⎟.
Então desde
⎛⎝⎜111010001⎞⎠⎟V=⎛⎝⎜111123149⎞⎠⎟,
segue que
X1V=X2.
Os modelos em si são, portanto, relacionados por
X1β1=E[Y]=X2β2=(X1V)β2=X1(Vβ2).
Ou seja, os coeficientes para o segundo modelo devem estar relacionados aos do primeiro modelo viaβ2
β1=Vβ2.
Portanto, o mesmo relacionamento vale para suas estimativas de mínimos quadrados. Isso mostra que os modelos têm ajustes idênticos : eles apenas os expressam de maneira diferente.
Como as primeiras colunas das duas matrizes de modelo são iguais, qualquer tabela ANOVA que decompõe a variação entre a primeira coluna e as colunas restantes não será alterada. Uma tabela ANOVA que distingue entre a segunda e a terceira coluna, no entanto, dependerá de como os dados são codificados.
Geometricamente (e um pouco mais abstratamente), o subespaço tridimensional de gerado pelas colunas de coincide com o subespaço gerado pelas colunas de . Portanto, os modelos terão ajustes idênticos. Os ajustes são expressos de maneira diferente apenas porque os espaços são descritos com duas bases diferentes. X 1 X 2R15X1X2
Para ilustrar, são aqui dados como a sua (mas com diferentes respostas) e as análises correspondentes como gerados no R
.
set.seed(17)
D <- data.frame(group=rep(1:3, each=5), y=rnorm(3*5, rep(1:3, each=5), sd=2))
Encaixe os dois modelos:
fit.1 <- lm(y ~ factor(group), D)
fit.2 <- lm(y ~ group + I(group^2), D)
Exiba suas tabelas ANOVA:
anova(fit.1)
anova(fit.2)
A saída para o primeiro modelo é
Df Sum Sq Mean Sq F value Pr(>F)
factor(group) 2 51.836 25.918 14.471 0.000634 ***
Residuals 12 21.492 1.791
Para o segundo modelo, é
Df Sum Sq Mean Sq F value Pr(>F)
group 1 50.816 50.816 28.3726 0.0001803 ***
I(group^2) 1 1.020 1.020 0.5694 0.4650488
Residuals 12 21.492 1.791
Você pode ver que as somas residuais de quadrados são as mesmas. Adicionando as duas primeiras linhas no segundo modelo, você obterá o mesmo DF e a soma dos quadrados, a partir dos quais o mesmo quadrado médio, valor F e valor p podem ser calculados.
Por fim, vamos comparar as estimativas do coeficiente.
beta.1.hat <- coef(fit.1)
beta.2.hat <- coef(fit.2)
A saída é
(Intercept) factor(group)2 factor(group)3
0.4508762 2.8073697 4.5084944
(Intercept) group I(group^2)
-3.4627385 4.4667371 -0.5531225
Até as interceptações são completamente diferentes. Isso ocorre porque as estimativas de qualquer variável em uma regressão múltipla dependem das estimativas de todas as outras variáveis (a menos que sejam todas mutuamente ortogonais, o que não é o caso de nenhum dos modelos). No entanto, observe o que a multiplicação por realiza:V
⎛⎝⎜100112138⎞⎠⎟⎛⎝⎜−3.46273854.4667371−0.5531225⎞⎠⎟=⎛⎝⎜0.45087622.80736974.5084944⎞⎠⎟.
Os ajustes são realmente os mesmos, conforme reivindicado.