Esta resposta enfatiza a verificação da estimabilidade. A propriedade de variação mínima é da minha consideração secundária.
Para começar, resuma as informações em termos de forma matricial de um modelo linear da seguinte maneira:
ondeE(ε)=0,Var(ε)=σ2I(para discutir estimabilidade, a suposição de esferidade não é necessária. Mas, para discutir a propriedade de Gauss-Markov, precisamos assumir a esferidade deε).
Y:=⎡⎣⎢⎢⎢Y1Y2Y3Y4⎤⎦⎥⎥⎥=⎡⎣⎢⎢⎢1111010−1−1−1−1−1⎤⎦⎥⎥⎥⎡⎣⎢θ1θ2θ3⎤⎦⎥+⎡⎣⎢⎢⎢ε1ε2ε3ε4⎤⎦⎥⎥⎥:=Xβ+ε,(1)
E(ε)=0,Var(ε)=σ2Iε
Se a matriz de design é de posto cheio, então o parâmetro original β admite uma única mínimos quadrados estimar β = ( X ' x ) - 1 X ' Y . Por conseguinte, qualquer parâmetro φ , definida como uma função linear φ ( β ) de β é calculável no sentido de que pode ser claramente avaliado por dados através dos mínimos quadrados estimar β como φ = p ' β .Xββ^=(X′X)−1X′Yϕϕ(β)ββ^ϕ^=p′β^
A sutileza surge quando não está na classificação completa. Para ter uma discussão completa, fixamos algumas notações e termos primeiro (eu sigo a convenção de A abordagem sem coordenadas para modelos lineares , Seção 4.8. Alguns dos termos parecem desnecessariamente técnicos). Além disso, a discussão se aplica ao modelo linear geral Y = X β + ε com X ∈ R n × k e β ∈ R k .XY=Xβ+εX∈Rn×kβ∈Rk
- Uma variedade de regressão é a coleção de vetores médios, pois varia sobre R k :
M = { X β : β ∈ R k } .βRk
M={Xβ:β∈Rk}.
- Um funcional paramétrico é um funcional linear de β ,
ϕ ( β ) = p ′ β = p 1 β 1 + ⋯ + p k β k .ϕ=ϕ(β)β
ϕ(β)=p′β=p1β1+⋯+pkβk.
Como mencionado acima, quando a , nem toda função paramétrica ϕ ( β ) é estimada. Mas, espere, qual é a definição do termo estimada tecnicamente? Parece difícil dar uma definição clara sem incomodar um pouco de álgebra linear. Uma definição, que eu acho que é a mais intuitiva, é a seguinte (da mesma referência mencionada):rank(X)<kϕ(β)
Definição 1. Um funcional paramétrico é estimado se for determinado exclusivamente por X β no sentido de que ϕ ( β 1 ) = ϕ ( β 2 ) sempre que β 1 , β 2 ∈ R k satisfazem X β 1 = X β 2 .ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2∈RkXβ1=Xβ2
Interpretação. A definição acima estipula que o mapeamento do coletor de regressão para o espaço de parâmetro de ϕ deve ser um para um, o que é garantido quando a classificação ( X ) = k (ou seja, quando o próprio X é um a um). Quando rank ( X ) < k , sabemos que existem β 1 ≠ β 2 tal que X β 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1≠β2Xβ1=Xβ2. A definição estimada acima, com efeito, descarta os funcionais paramétricos com deficiência estrutural que resultam em valores diferentes, mesmo com o mesmo valor em , que não fazem sentido naturalmente. Por outro lado, uma função paramétrica estimada ϕ ( ⋅ ) permite que o caso ϕ ( β 1 ) = ϕ ( β 2 ) com β 1 ≠ β 2 , desde que a condição X β 1 = X β 2 seja cumprida.Mϕ(⋅)ϕ(β1)=ϕ(β2)β1≠β2Xβ1=Xβ2
Existem outras condições equivalentes para verificar a estimabilidade de uma função paramétrica dada na mesma referência, Proposição 8.4.
Após uma introdução detalhada, vamos voltar à sua pergunta.
A. si é não calculável que a razão para que posto ( X ) < 3 , o que implica X β 1 = X β 2 com β 1 ≠ β 2 . Embora a definição acima seja dada para funcionais escalares, ela é facilmente generalizada para funcionais com valor vetorial.βrank(X)<3Xβ1=Xβ2β1≠β2
B. não é calculável. A saber, considere β 1 = ( 0 , 1 , 0 ) ′ e β 2 = ( 1 , 1 , 1 ) ′ , que fornece X β 1 = X β 2 mas ϕ 1ϕ1(β)=θ1+θ3=(1,0,1)′ββ1=(0,1,0)′β2=(1,1,1)′Xβ1=Xβ2 .ϕ1(β1)=0+0=0≠ϕ1(β2)=1+1=2
C. é calculável. Como X β 1 = X β 2 implica trivialmente θ ( 1 ) 1 - θ ( 1 ) 3 = θ ( 2 ) 1 - θ ( 2 ) 3 , ou seja, ϕϕ2(β)=θ1−θ3=(1,0,−1)′βXβ1=Xβ2θ(1)1−θ(1)3=θ(2)1−θ(2)3 .ϕ2(β1)=ϕ2(β2)
D. é também calculável . A derivação de X p 1 = X β 2 para φ 3 ( β 1 ) = φ 3 ( β 2 ) também é trivial.ϕ3(β)=θ2=(0,1,0)′βXβ1=Xβ2ϕ3(β1)=ϕ3(β2)
Depois que a estimabilidade é verificada, existe um teorema (Proposição 8.16, a mesma referência) reivindica a propriedade Gauss-Markov de . Com base nesse teorema, a segunda parte da opção C está incorreta. A melhor estimativa imparcial linear é ˉ Y = ( Y 1 + Y 2 + Y 3 + Y 4 ) / 4 , pelo teorema abaixo.ϕ(β)Y¯=(Y1+Y2+Y3+Y4)/4
Teorema. Deixe ser um funcional, em seguida, a sua estimativa calculável paramétrico melhor linear imparcial (aka, estimativa de Gauss-Markov) é φ ( β ) para qualquer solução β para as equações normais X ' X p = X ' Y .ϕ(β)=p′βϕ(β^)β^X′Xβ^=X′Y
A prova é a seguinte:
Prova. Cálculo mostra simples que as equações normais é
que, depois de simplificação, é
[ φ ( β ) θ 2 / 2 - φ
⎡⎣⎢40−4020−404⎤⎦⎥β^=⎡⎣⎢10−111−110−11−1−1⎤⎦⎥Y,
ou seja,φ( β )= ˉ Y .⎡⎣⎢⎢ϕ(β^)θ^2/2−ϕ(β^)⎤⎦⎥⎥=⎡⎣⎢Y¯(Y2−Y4)/4−Y¯⎤⎦⎥,
ϕ(β^)=Y¯
Portanto, a opção D é a única resposta correta.
Adendo: A conexão entre estimabilidade e identificabilidade
Quando eu estava na escola, um professor mencionou brevemente que a estimativa do funcional paramétrico corresponde à identificabilidade do modelo. Eu tomei essa reivindicação como certa então. No entanto, a equivalência precisa ser explicitada mais explicitamente.ϕ
According to A.C. Davison's monograph Statistical Models p.144,
Definition 2. A parametric model in which each parameter θ generates a different distribution is called identifiable.
For linear model (1), regardless the spherity condition Var(ε)=σ2I, it can be reformulated as
E[Y]=Xβ,β∈Rk.(2)
It is such a simple model that we only specified the first moment form of the response vector Y. When rank(X)=k, model (2) is identifiable since β1≠β2 implies Xβ1≠Xβ2 (the word "distribution" in the original definition, naturally reduces to
"mean" under model (2).).
Now suppose that rank(X)<k and a given parametric functional ϕ(β)=p′β, how do we reconcile Definition 1 and Definition 2?
Well, by manipulating notations and words, we can show that (the "proof" is rather trivial) the estimability of ϕ(β) is equivalent to that the model (2) is identifiable when it is parametrized with parameter ϕ=ϕ(β)=p′β (the design matrix X is likely to change accordingly). To prove, suppose ϕ(β) is estimable so that Xβ1=Xβ2 implies p′β1=p′β2, by definition, this is ϕ1=ϕ2, hence model (3) is identifiable when indexing with ϕ. Conversely, suppose model (3) is identifiable so that Xβ1=Xβ2 implies ϕ1=ϕ2, which is trivially ϕ1(β)=ϕ2(β).
Intuitively, when X is reduced-ranked, the model with β is parameter redundant (too many parameters) hence a non-redundant lower-dimensional reparametrization (which could consist of a collection of linear functionals) is possible. When is such new representation possible? The key is estimability.
To illustrate the above statements, let's reconsider your example. We have verified parametric functionals ϕ2(β)=θ1−θ3 and ϕ3(β)=θ2 are estimable. Therefore, we can rewrite the model (1) in terms of the reparametrized parameter (ϕ2,ϕ3)′ as follows
E[Y]=⎡⎣⎢⎢⎢1111010−1⎤⎦⎥⎥⎥[ϕ2ϕ3]=X~γ.
Clearly, since X~ is full-ranked, the model with the new parameter γ is identifiable.
self-study
etiqueta ou alguém irá aparecer e fechar sua pergunta.