Qual é a diferença entre um estimador consistente e um estimador imparcial?


125

Estou realmente surpreso que ninguém parece ter perguntado isso já ...

Ao discutir estimadores, dois termos freqüentemente usados ​​são "consistentes" e "imparciais". Minha pergunta é simples: qual é a diferença?

As definições técnicas precisas desses termos são bastante complicadas e é difícil ter uma idéia intuitiva do que elas significam . Posso imaginar um bom estimador e um mau avaliador, mas estou tendo problemas para ver como qualquer estimador poderia satisfazer uma condição e não a outra.


13
Você já viu a primeira figura no artigo da Wikipedia sobre estimadores consistentes , o que explica especificamente essa distinção?
whuber

4
Eu li os artigos por consistência e preconceito, mas ainda não entendo a distinção. (A figura que você se refere a alegações de que o estimador é consistente, mas tendenciosa, mas não explica por que .)
MathematicalOrchid

1
Em que parte da explicação você precisa de ajuda? A legenda indica que cada um dos estimadores na sequência é tendencioso e também explica por que a sequência é consistente. Você precisa de uma explicação de como o viés nesses estimadores é aparente na figura?
whuber

5
+1 O tópico de comentários após uma dessas respostas é muito esclarecedor, tanto pelo que revela sobre o assunto quanto como um exemplo interessante de como uma comunidade on-line pode trabalhar para expor e corrigir equívocos.
whuber

Respostas:


126

Para definir os dois termos sem usar muita linguagem técnica:

  • Um estimador é consistente se, à medida que o tamanho da amostra aumenta, as estimativas (produzidas pelo estimador) "convergem" para o valor real do parâmetro que está sendo estimado. Para ser um pouco mais preciso, a consistência significa que, à medida que o tamanho da amostra aumenta, a distribuição amostral do estimador se concentra cada vez mais no valor real do parâmetro.

  • Um estimador é imparcial se, em média, atingir o valor real do parâmetro. Ou seja, a média da distribuição amostral do estimador é igual ao valor real do parâmetro.

  • Os dois não são equivalentes: A imparcialidade é uma afirmação sobre o valor esperado da distribuição amostral do estimador. Consistência é uma afirmação sobre "para onde está indo a distribuição amostral do estimador" à medida que o tamanho da amostra aumenta.

Certamente é possível que uma condição seja satisfeita, mas não a outra - darei dois exemplos. Para ambos os exemplos considerar uma amostra de uma população N ( μ , σ 2 ) .X1,...,XnN(μ,σ2)

  • Imparcial, mas não consistente: suponha que você esteja estimando . Então X 1 é um estimador imparcial de µ, já que E ( X 1 ) = µ . Porém, X 1 não é consistente, pois sua distribuição não se concentra mais em torno de µ à medida que o tamanho da amostra aumenta - é sempre N ( µ , σ 2 ) !μX1μE(X1)=μX1μN(μ,σ2)

  • Consistente, mas não imparcial: suponha que você esteja estimando . O estimador da probabilidade máxima é σ 2 = 1σ2onde ¯ X é a média da amostra. É um facto queE( σ 2)=n-1

    σ^2=1nEu=1n(XEu-X¯)2
    X¯or conseguinte, σ 2que pode ser derivado utilizando a informaçãoaqui. Portanto σ 2é polarizado para qualquer tamanho de amostra finito. Também pode derivar facilmente quevumr( σ 2)=2σ4(n-1)
    E(σ^2)=n-1nσ2
    σ^2σ^2 A partir desses fatos, podemos informalmente ver que a distribuição de σ
    vumar(σ^2)=2σ4(n-1)n2
    está se tornando mais e mais concentrado em σ 2 como o tamanho da amostra aumenta uma vez que o médio está convergindo para σ 2 ea variância está convergindo para 0 . (Nota:Isso constitui uma prova de consistência, usando o mesmo argumento usado na respostaaqui)σ^2σ2σ20 0

9
(+1) Nem todos os MLEs são consistentes: o resultado geral é que existe uma subsequência consistente na sequência dos MLEs. Para consistência adequada, são necessários alguns requisitos adicionais, por exemplo, identificabilidade. Exemplos de MLEs que não são consistentes são encontrados em certos modelos de erros nas variáveis ​​(onde o "máximo" acaba sendo um ponto de sela).
MånsT

2
Bem, os ELE MLEs que mencionei talvez não sejam bons exemplos, pois a função de probabilidade é ilimitada e não existe um máximo. Eles são bons exemplos de como a abordagem de ML pode falhar :) Lamento não poder fornecer um link relevante no momento - estou de férias.
MånsT

Obrigado @ MånsT. As condições necessárias foram descritas no link, mas isso não ficou claro no texto.
Macro

2
σ2

2
E(σ^2)σ2vumar(σ^2)0 0σ^2

24

A consistência de um estimador significa que, à medida que o tamanho da amostra aumenta, a estimativa se aproxima cada vez mais do valor real do parâmetro. A imparcialidade é uma propriedade finita da amostra que não é afetada pelo aumento do tamanho da amostra. Uma estimativa é imparcial se seu valor esperado for igual ao valor verdadeiro do parâmetro. Isso será verdadeiro para todos os tamanhos de amostra e é exato, enquanto a consistência é assintótica e apenas é aproximadamente igual e não exata.

n

Atualize após a discussão nos comentários com @cardinal e @Macro: Conforme descrito abaixo, existem casos aparentemente patológicos em que a variação não precisa ir para 0 para que o estimador seja fortemente consistente e o viés nem precisa ir para 0 também.


9
0 0(X1,...,Xn)Normal(μ,1)μ0 01/X¯1/μvar(1/X¯)=n

6
n

6
Michael, o corpo da sua resposta é muito bom; Penso que a confusão foi introduzida pelo seu primeiro comentário, o que leva a duas afirmações que são claramente falsas e potenciais pontos de confusão. (De fato, muitos estudantes se afastam de uma aula introdutória de estatística de pós-graduação com precisamente esses conceitos errôneos, devido ao delineamento deficiente entre os diferentes modos de convergência e seu significado. Seu último comentário pode ser considerado um pouco severo.)
cardeal

9
Infelizmente, as duas primeiras frases do seu primeiro comentário e o segundo comentário inteiro são falsas. Receio, porém, que não seja proveitoso tentar convencê-lo mais desses fatos.
cardeal

11
θ^n=X¯n+ZnZnX¯nZn=±uman1/n2uma>0 0θ^numa2θ^nμ

-5

Consistência: muito bem explicada antes [conforme o tamanho da amostra aumenta, as estimativas (produzidas pelo estimador) "convergem" para o valor real do parâmetro sendo estimado]

Imparcialidade: satisfaz as suposições de 1 a 5 MLR conhecidas como Teorema de Gauss-Markov

  1. linearidade,
  2. amostragem aleatória
  3. expectativa de erro médio condicional zero
  4. sem colinearidade perfeita
  5. homoskedasticity

Diz-se então que o estimador é AZUL (melhor estimador linear imparcial

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.