Eu acho que a resposta dada por @yshilov é definitivamente incrível, considerando o erro de medição no termo do erro e, significativamente, deduz o resultado
β~= βσ2xσ2x+ σ2você
Para elaborar, essa versão beta possui propriedades especiais que é um estimador enviesado, mas enviesado para 0. Especificamente, para regressão linear,E( β^1) = β1⋅ [ σ2x+σx δσ2x+ 2 σx δ+σ2δ]
A prova é a seguinte: em regressão linear simples, lembre-se
No caso de erro de medição, temos , e , então obtemos
Supondo que , , e a variação do valor preditivo verdadeiro
β^1= ∑ni = 1( xEu- x¯) yEu∑ni = 1( xEu- x¯)2
xOEu= xUMAEu= δEuyOEu= yUMAEu+ ϵEuyUMAEu= β0 0+ β1xUMAEuyOEu= β0 0+ β1( xOEu- δEu) + ϵEu= β0 0+ β1xOEu+ ( ϵEu- β1δEu)
E( ϵEu) = E( δEu) = 0v a r ( ϵEu) = σ2ϵv a r ( δEu) = σ2δ= 1n∑ni = 1( δEu- δ¯)2σ2x= ∑ ( xUMAEu- xUMA¯)2ne correlação de verdadeiro preditor e erro , em seguida,
σx δ= c o v ( xUMA,δ) = 1n∑ni = 1( xUMAEu- xUMAEu¯) ( δEu- δ¯)
c o v ( xOEu,δ) = E( xOEuδ) -E( xOEu) ⋅E(δ) = E( xOEuδ) = E[ ( xUMAEu+δ) δ] = E( xUMAEuδ) + E( δ2)
= [ E( xUMAEuδ) - E( xUMAEu) ⋅ E( δ) ] + [ v a r ( δ) + [ E( δ) ]2] =cov(xUMAEu,δ) + σ2δ= σx δ+ σ2δ
Então, por e propriedade de bilinearidade em covariância, a expectativa de é
x¯=E( xEu)β^1E( β^1) = E[ ∑ni = 1( xOEu- x¯O) yOEu∑ni = 1( xOEu- x¯O)2] = E( ∑ni = 1xOEuyOEu) -E( ∑ni = 1x¯OyOEu)∑ni = 1E[ (xOEu- E( xOEu) ))2]= E( ∑ni = 1xOEuyOEu) - E( xOEu) ⋅ E( ∑ni = 1yOEu)∑ni = 1v a r ( xOEu)
= ∑ni = 1c o v ( yOEu, xOEu)∑ni = 1v a r ( xOEu)= ∑ni = 1c o v ( β0 0+ β1xOEu+ ϵEu- β1δEu, x OEu)∑ni = 1v a r ( xOEu)= β1⋅ ∑ni = 1v a r ( xOEu) - β1⋅ ∑ni = 1c o v ( xOEu, δEu)∑ni = 1v a r ( xOEu)
= β1⋅ [ 1 - ∑ni = 1c o v ( xOEu, δEu) / n∑ni = 1v a r ( xUMAEu+ δEu) / n] =β1⋅ [ 1 - σx δ+ σ2δσ2x+ 2 c o v ( xUMAEu, δEu) + σ2δ] =β1⋅ [ σ2x+ σx δσ2x+ 2 σx δ+ σ2δ]
, conforme desejado. Portanto, o resultado está bem estabelecido.
E( β^1) = β1⋅ [ σ2x+ σx δσ2x+ 2 σx δ+ σ2δ]