Meu pensamento inicial era que, para regressão linear comum, apenas adicionamos nossa estimativa da variância residual, σ2 , como se fosse a verdade.
No entanto, observe McCulloch e Searle (2001) Modelos generalizados, lineares e mistos, 1ª edição , Seção 6.4b, "Variação amostral". Eles indicam que você não pode simplesmente conectar as estimativas dos componentes de variação :
Em vez de lidar com a variância (matriz) de um vector consideramos o caso mais simples do escalar l ' β para estimável l ' β (ou seja, l ' = t ' X por algum t ' ).Xβ^eu′β^eu′βeu′= t′Xt′
Para conhecido , temos a partir de (6.21) que var ( l ′ β 0 ) = l ′ ( X ′ V - 1 X ) - l . Um substituto para este quando V não é conhecido é para uso l ' ( X ' V - 1 X ) - l , que é uma estimativa do var ( l ' β 0 ) = var [ l 'Vvar ( l′β0 0) = l′( X′V- 1 X)-euVeu′( X′V^- 1X)-eu . Mas énãouma estimativa de var ( l ' β ) = var [ l ' ( X ' V - 1 X ) - X ' V - 1 y ] . O último requer que sejam tomados em conta a variabilidade de V , bem como em quevar ( l′β0 0) = var [ l′( X′V- 1X)-X′V- 1y]var ( l′β^) = var [ l′( X′V^- 1X)-X′V^- 1y]V^ . Para lidar com este, e Kackar Harville (. 1984, p 854) observa-se que (no nosso notação) l ' β - l ' β pode ser expressa como a soma de duas partes independentes, l ' β - l ' β 0 e l ' p 0 - l ' β . Isto leva a var ( l ' p ) a ser expresso como uma soma de dois desvios que escrever comoyeu′β^- l′βeu′β^- l′β0 0eu′β0 0- l′βvar ( l′β^)
var ( l′β^) = . . . ≈ l′( X′V- 1X) l + l′Teu
Eles vão explicar . T
Portanto, isso responde à primeira parte da sua pergunta e indica que sua intuição estava correta (e a minha estava errada).