Estou colocando outra resposta com mais detalhes.
No modelo de regressão linear padrão (em forma de matriz):
Y=Xβ+ε
a estimativa OLS é a seguinte
β^=(XTX)−1XTY.
Sua variação então é
Var(β^)=(XTX)−1XTVar(Y)X(XTX)−1.
A suposição usual para regressão é que
Var(Y)=σ2I,
onde sou a matriz de identidade. EntãoI
Var(β^)=σ2(XTX)−1.
Agora, no seu caso, você tem dois modelos:
Yi=Miδi+ϵi
e
Γ=Lc+u,
Onde
- YTi=(Yi1,...,YiT) ,
- Mi=[1,Xi,D] , com ,XTi=(Xi1,...,XiT)DT=(D1,...,DT)
- δTi=(αi,βi,γi)
- ϵTi=(ϵi1,...,ϵiT)
- ΓT=(γ1,...,γn)
- L=[1,Z] , comZT=(Z1,...,Zn)
- cT=(a,b)
- uT=(u1,...,uN) .
Observe que você declara o segundo modelo para as estimativas de , o que não é usual, portanto, reafirmo-o na forma usual, para o "verdadeiro" .γγ
c
Var(c^)=(LTL)−1LTVar(Γ)L(LTL)−1
O problema é que não observamos . Observamos as estimativas . faz parte do vetorΓΓ^γ^i
δ^i=δi+(MTiMi)−1MTiϵi.
Suponha que seja aleatório e independente com e . Isso certamente vale para para não perdermos nada se estendermos isso para outros elementos de .δiϵiMiγiδi
Vamos empilhar todos sobre os outros:δ^i
δ^T=[δT1,...,δTN]
e explore a variação de :δ^
Var(δ^)=⎡⎣⎢⎢Var(δ^1)…cov(δ^n,δ^1)cov(δ^1,δ^2)…cov(δ^n,δ2)………cov(δ^1,δ^N)…Var(δ^N)⎤⎦⎥⎥
Suponha que e que . Para , temosVar(ϵi)=σ2ϵIEϵiϵTj=0i≠j
cov(δ^i,δ^j)=cov(δi,δj)+cov((MTiMi)−1MTiϵi,(MTjMj)−1MTjϵj)=(MTiMi)−1MTiE(ϵiϵTj)Mj(MTjMj)−1=0
Para elementos diagonais, temos
Var(δ^i)=Var(δi)+σ2ϵ(MTiMi)−1
Vamos voltar à variação de . Como substituímos vez de a variação é a seguintec^Γ^Γ
Var(c^)=(LTL)−1LTVar(Γ^)L(LTL)−1,
Podemos extrair de selecionando os elementos apropriados:Var(Γ^)Var(δ^)
Var(Γ^)=Var(Γ)+diag(g1,...,gn)
onde é o elemento de correspondente ao . Cada é diferente de pois corresponde a e que não são assumidos como iguais.giσ2ϵ(MTiMi)−1Var(γ^i)gigjXitXjt
Portanto, obtemos o resultado surpreendente: que algebricamente, mesmo que assumamos todas as propriedades necessárias, a matriz de covariância resultante, pelo menos algebricamente, não será igual à matriz de covariância OLS usual, pois para isso precisamos que seja constante vezes matriz de identidade que claramente não é.Var(Γ^)
Todas as fórmulas acima foram derivadas assumindo que são constantes e, portanto, são condicionais em . Isso significa que realmente calculamos . Colocando suposições adicionais em , acho que seria possível mostrar que a variação incondicional está correta.XijXijVar(Γ^|X)Xij
A suposição de independência colocada em também pode ser relaxada até a falta de correlação. ϵi
Também seria possível usar o estudo de simulação para ver como a matriz de covariância difere se usarmos vez de .Γ^Γ