Seja o número de observações e o número de variáveis explicativas.KNK
NX é realmente uma matrizSomente quando olhamos para uma única observação, denotamos cada observação geralmente como - um vetor de linha de variáveis explicativas de um escalar de observação específico multiplicado pelo vetor coluna . Além disso, é um vetor de coluna , contendo todas as observações .N×KxTiK×1βYN×1Yn
Agora, um hiperplana bidimensional que abrangem entre o vector e um (!) De vector de coluna . Lembre-se que é um matriz, de modo que cada variável explicativa é representada por exatamente um vector da matriz coluna . Se tiver apenas uma variável explicativo, sem interceptar e , todos os pontos de dados estão situados ao longo do plano dimensional 2 gerado por e .YXXN×KXYYX
Para uma regressão múltipla, quantas dimensões no total o hiperplano entre e a matriz possui? Resposta: Como temos vetores de coluna de variáveis explicativas em , devemos ter um hiperplano dimensional .YXKXK+1
Geralmente, em uma configuração de matriz, a regressão requer que uma interceptação constante seja imparcial para uma análise razoável do coeficiente de inclinação. Para acomodar esse truque, forçamos uma coluna da matriz a consistir apenas de " s". Nesse caso, o estimador fica sozinho multiplicado por uma constante para cada observação, em vez de uma variável explicativa aleatória. O coeficiente representa, portanto, o valor esperado de dado que é mantido fixo com o valor 1 e todas as outras variáveis são zero. Portanto, o hiperplano -Dimensional é reduzido por uma dimensão a um subespaço dimensional eX1β1β1Yx1iK+1Kβ1 corresponde à "interceptação" deste plano dimensionalK
Em configurações de matriz, é sempre aconselhável dar uma olhada no caso simples de duas dimensões, para ver se podemos encontrar uma intuição para nossos resultados. Aqui, a maneira mais fácil é pensar na regressão simples com duas variáveis explicativas:
ou expressa alternativamente na álgebra matricial: onde é um matriz.
yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2
<Y,X> abrange um hiperplano tridimensional.
Agora, se todos como todos os , obteremos:
que é a nossa regressão simples usual que pode ser representada em um gráfico bidimensional . Observe que agora está reduzido a uma linha bidimensional - um subconjunto do hiperplano original tridimensional. O coeficiente corresponde à interceptação do corte de linha em .x11
yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0
Também pode ser mostrado que ele também passa por para quando a constante é incluída . Se deixarmos de fora a constante, o hiperplano de regressão sempre passa trivialmente por - sem dúvida. Isso generaliza para várias dimensões, como será visto mais adiante ao derivar :
Como possui uma classificação completa por definição, e, portanto, a regressão passa pela origem se deixarmos de fora a interceptação.<0,β1><0,0>βX y - X β = 0
(X′X)β=X′y⟹(X′X)β−X′y=0⟹X′(y−Xβ)=0.
Xy−Xβ=0
( Edit: Acabei de perceber que, para sua segunda pergunta, é exatamente o oposto de você escrever sobre a inclusão ou exclusão da constante. No entanto, eu já desenvolvi a solução aqui e permaneço corrigido se estiver errado nessa. )
Eu sei que a representação matricial de uma regressão pode ser bastante confusa no início, mas eventualmente simplifica muito quando deriva de álgebra mais complexa. Espero que isso ajude um pouco.