Em modelos sem termos de interação (ou seja, sem termos construídos como o produto de outros termos), o coeficiente de regressão de cada variável é a inclinação da superfície de regressão na direção dessa variável. É constante, independentemente dos valores das variáveis e, portanto, pode-se dizer que mede o efeito geral dessa variável.
Nos modelos com interações, essa interpretação pode ser feita sem qualificação adicional apenas para as variáveis que não estão envolvidas em nenhuma interação. Para uma variável envolvida nas interações, o coeficiente de regressão de "efeito principal" - ou seja, o coeficiente de regressão da variável por si só - é a inclinação da superfície de regressão na direção dessa variável, quando todas as outras variáveis que interagir com essa variável tem valores zero , e o teste de significância do coeficiente refere-se à inclinação da superfície de regressão apenas nessa região do espaço do preditor. Como não há exigência de que realmente haja dados nessa região do espaço, o coeficiente de efeito principal pode ter pouca semelhança com a inclinação da superfície de regressão na região do espaço do preditor onde os dados foram realmente observados.
Em termos anova, o coeficiente de efeito principal é análogo a um efeito principal simples, não a um efeito principal geral. Além disso, pode se referir ao que em um design anova seriam células vazias nas quais os dados foram fornecidos extrapolando as células com dados.
Para uma medida do efeito geral da variável que é análoga a um efeito principal geral na anova e não extrapola além da região na qual os dados foram observados, devemos observar a inclinação média da superfície de regressão na direção da variável , onde a média é superior aos N casos que foram realmente observados. Essa inclinação média pode ser expressa como uma soma ponderada dos coeficientes de regressão de todos os termos do modelo que envolvem a variável em questão.
Os pesos são difíceis de descrever, mas fáceis de obter. O coeficiente de efeito principal de uma variável sempre recebe um peso de 1. Para cada um dos coeficientes de um termo envolvendo essa variável, o peso é a média do produto das outras variáveis nesse termo. Por exemplo, se tivermos cinco variáveis "brutas" x1, x2, x3, x4, x5
, mais quatro interações de duas vias (x1,x2), (x1,x3), (x2,x3), (x4,x5)
e uma de três (x1,x2,x3)
, o modelo será
y = b0 + b1*x1 + b2*x2 + b3*x3 + b4*x4 + b5*x5 +
b12*x1*x2 + b13*x1*x3 + b23*x2*x3 + b45*x4*x5 +
b123*x1*x2*x3 + e
e os principais efeitos gerais são
B1 = b1 + b12*M[x2] + b13*M[x3] + b123*M[x2*x3],
B2 = b2 + b12*M[x1] + b23*M[x3] + b123*M[x1*x3],
B3 = b3 + b13*M[x1] + b23*M[x2] + b123*M[x1*x2],
B4 = b4 + b45*M[x5],
B5 = b5 + b45*M[x4],
onde M [.] indica a média da amostra da quantidade entre parênteses. Todos os termos do produto dentro dos colchetes estão entre os que foram construídos para fazer a regressão; portanto, um programa de regressão já deve conhecê-los e deve poder imprimir seus meios mediante solicitação.
Nos modelos que têm apenas efeitos principais e interações bidirecionais, existe uma maneira mais simples de obter os efeitos gerais: centralize [1] as variáveis brutas de suas maneiras. Isso deve ser feito antes do cálculo dos termos do produto e não deve ser feito com os produtos. Então todas as expressões M [.] Se tornarão 0 e os coeficientes de regressão serão interpretáveis como efeitos gerais. Os valores dos b's mudarão; os valores dos B não serão. Somente as variáveis envolvidas nas interações precisam ser centralizadas, mas geralmente não há mal algum em centralizar outras variáveis medidas. O efeito geral de centralizar uma variável é que, além de alterar a interceptação, ela altera apenas os coeficientes de outras variáveis que interagem com a variável centralizada. Em particular, não altera os coeficientes de nenhum termo que envolva a variável centralizada. No exemplo acima, centralizar x1 mudaria b0, b2, b3 e b23.
[1 - "Centralização" é usada por pessoas diferentes de maneiras que diferem apenas o suficiente para causar confusão. Conforme usado aqui, "centralizar uma variável em #" significa subtrair # de todas as pontuações na variável, convertendo as pontuações originais em desvios de #.]
Então, por que nem sempre se concentra nos meios, rotineiramente? Três razões Primeiro, os coeficientes de efeito principal das variáveis não centradas podem ser de interesse. A centralização nesses casos seria contraproducente, pois altera os coeficientes de efeito principal de outras variáveis.
Segundo, a centralização fará todas as expressões M [.] 0 e, portanto, converterá efeitos simples em efeitos gerais, apenas em modelos sem interações de três vias ou superiores . Se o modelo contiver essas interações, os cálculos b -> B ainda deverão ser feitos, mesmo que todas as variáveis estejam centralizadas em suas médias.
Terceiro, centralizar em um valor como a média, que é definido pela distribuição dos preditores em vez de ser escolhido racionalmente, significa que todos os coeficientes afetados pela centralização serão específicos para sua amostra em particular. Se você se centra na média, alguém que tenta replicar seu estudo deve se centrar na média, e não na média deles, se quiser obter os mesmos coeficientes que você obteve. A solução para esse problema é centralizar cada variável em um valor central escolhido racionalmente dessa variável, que depende do significado das pontuações e não depende da distribuição das pontuações. No entanto, os cálculos b -> B ainda são necessários.
A significância dos efeitos gerais pode ser testada pelos procedimentos usuais para testar combinações lineares de coeficientes de regressão. No entanto, os resultados devem ser interpretados com cuidado, porque os efeitos gerais não são parâmetros estruturais, mas dependem do design. Os parâmetros estruturais - os coeficientes de regressão (sem centralização ou com centralização racional) e a variação do erro - podem permanecer invariáveis sob as mudanças na distribuição dos preditores, mas os efeitos gerais geralmente mudam. Os efeitos gerais são específicos para uma amostra em particular e não se espera que sejam transferidos para outras amostras com distribuições diferentes nos preditores. Se um efeito geral é significativo em um estudo e não em outro, pode refletir nada mais que uma diferença na distribuição dos preditores.