Qual é a lógica por trás do método dos momentos?


20

Por que, no "Método dos momentos", equiparamos momentos de amostra a momentos de população para encontrar um estimador de pontos?

Onde está a lógica por trás disso?


2
Seria bom se tivéssemos um físico em nossa comunidade para enfrentar este.
Mugen

4
@mugen, não vejo relação alguma com a física.
Aksakal

2
@ Aksakal também usam momentos de funções na física, e sempre é bom quando alguém faz um paralelo para uma melhor interpretação.
mugen

1
Conforme mencionado na esta resposta , a lei dos grandes números fornece uma justificativa (embora assintótica) para estimar um momento população por um momento de amostra, resultando em (muitas vezes) simples, estimadores consistentes
Glen_b -Reinstate Monica

A idéia não é representar os parâmetros usando momentos? Como se você tentar estimar o parâmetro da distribuição de Poisson, encontrando a média (primeiro momento), você pode usá-lo como um estimador para o seu parâmetro lambda.
Denis631 9/08

Respostas:


14

Uma amostra que consiste em n realizações de variáveis ​​aleatórias distribuídas de forma idêntica e independente é ergódica. Nesse caso, "momentos de amostra" são estimadores consistentes de momentos teóricos da distribuição comum, se os momentos teóricos existem e são finitos.

Isso significa que

(1)μ^k(n)=μk(θ)+ek(n),ek(n)p0

Então, equiparando o momento teórico ao momento amostral correspondente, temos

μ^k(n)=μk(θ)θ^(n)=μk1(μ^k(n))=μk1[μk(θ)+ek(n)]

Então ( não depende de ) nμkn

plimθ^(n)=plim[μk1(μk(θ)+ek)]=μk1(μk(θ)+plimek(n))

=μk1(μk(θ)+0)=μk1μk(θ)=θ

Fazemos isso porque obtemos estimadores consistentes para os parâmetros desconhecidos.


o que significa "plim"? Não estou familiarizado com "p" em ek(n)p0
usuário 31466

@leaf probability limit
Alecos Papadopoulos

O que aconteceria se fosse o limite regular em vez do limite de probabilidade?
usuário 31466

Nos diria que o estimador se torna uma constante, não que tende probabilisticamente a um. Talvez você deva procurar modos de convergência de variáveis ​​aleatórias, a wikipedia tem uma introdução decente, en.wikipedia.org/wiki/Convergence_of_random_variables
Alecos Papadopoulos

1
@AlecosPapadopoulos Agreed. Gostaria de saber então se faz sentido colocar algo simples como "... e sob certas condições em "? μk
Jerome Baum

12

Os economometristas chamam isso de "princípio da analogia". Você calcula a média da população como o valor esperado em relação à distribuição da população; você calcula o estimador como o valor esperado em relação à distribuição da amostra e acaba sendo a média da amostra. Você tem uma expressão unificada na qual você conecta a população , diga ou a amostra , de modo que seja um monte de delta -funções e a integrante (Lebesgue) com relação aF ( x ) F ( x ) = x 1

T(F)=t(x)dF(x)
F(x)F n ( x ) = 1F(x)=x12πσ2exp[(uμ)22σ2]dudFn(x)dFn(x)1Fn(x)=1ni=1n1{xix}dFn(x)dFn(x)é a soma da amostra . Se o seu é (fracamente) diferenciável e converge no sentido apropriado para , é fácil estabelecer que a estimativa é consistente, embora, obviamente, sejam necessárias mais discussões. obter digamos normalidade assintótica.T()Fn(x)F(x)1nEu=1nt(xEu)T()Fn(x)F(x)

1
Não ouvi isso chamado "princípio da analogia", mas é um padrão de análise econométrica frequentemente usado: conecte o estimador de amostra sempre que o parâmetro populacional for necessário, mas desconhecido.
Aksakal

@Aksakal: "conecte o estimador de amostra sempre que o parâmetro populacional for necessário, mas desconhecido." Essa abordagem não é simplesmente chamada de estatística?
user603

@ user603: Não, não. Existem outras abordagens alternativas, e os estimadores de plu-in podem ser ruins.
b Kjetil Halvorsen
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.