Essa também é uma condição * necessária * para ser um estimador de Bayes ou apenas suficiente?


7

Um estimador de Bayes é aquele que minimiza o risco de Bayes. Especificamente, se e somente se

δΛ=argminBR(Λ,δ):=R(θ,δ)dΛ(θ)=(L(θ,δ(x))dx)dΛ(θ)
onde L(θ,δ(X)) é uma função de perda dada, R(θ,δ) é a função de risco correspondente e BR(Λ,δ) é definido como o risco de Bayes, é δΛ um estimador de Bayes.

Teorema 4.1.1 na p. 228 de Casella, Lehmann, Teoria da estimativa pontual , bem como o Teorema 7.1 na p. 116 de Estatísticas teóricas mais precisas: Tópicos para um curso básico , declare a seguinte condição suficiente para δΛ ser um estimador de Bayes:

x,δΛ=argminE[L(Θ,δ(X))|X=x]

É óbvio por que essa é uma condição suficiente: integrando primeiro sobre x , obtemos pela monotonicidade de integrais e argmin para E[L(Θ,δ(X))]=L(Θ,δ(x))dx=R(Θ,δ) . Então, integrando over θ , obtemos um argmin para o risco de Bayes, novamente pela monotonicidade de integrais.

Pergunta: A condição acima é necessária para δΛ ser um estimador de Bayes?

Intuitivamente, não vejo razão para isso ser necessário, a menos que tenhamos condições adicionais que garantam a exclusividade ( -as) do estimador de Bayes. Além disso, as provas nos dois livros que mencionei acima parecem mostrar suficiência, não necessidade.P

No entanto, a Wikipedia diz que: "Um estimador ... é considerado um estimador de Bayes se minimizar o risco de Bayes entre todos os estimadores. Equivalentemente , o estimador que minimiza a perda posterior esperada ... para cada x". Ou seja, parece implicar que as duas condições são equivalentes, ou seja, que a última condição é não apenas suficiente, mas necessária . Isso é realmente verdade em geral?

Respostas:


1

Primeiro, se a condição mantém quase certamente em , o mesmo argumento se aplica. Portanto, o estimador de Bayes é definido quase certamente e, portanto, pode variar arbitrariamente em um conjunto arbitrário de medida zero.

δΛ=argminE[L(Θ,δ(X))|X=x]
x

Segundo, há situações em que existem vários estimadores de Bayes. Por exemplo, aqui está um exercício do meu livro :

2.40 Considere e . Mostre que, na perda (2.5.4), para cada , existem valores de e modo que o estimador Bayes não é exclusivo.π(θ)=(1/3)(U[0,1](θ)+U[2,3](θ)+U[4,5](θ))f(x|θ)=θeθxxk1k2

onde a perda (2.5.4) é

Lk1,k2(θ,d)={k2(θd)if θ>d,k1(dθ)otherwise.

Terceiro, quando o risco de Bayes é infinito, qualquer estimador é um estimador de Bayes.minBR(Λ,δ)


Não importa, depois de reler minha pergunta original, vejo como isso aborda uma observação feita na pergunta. Isso não parece responder à pergunta principal, embora essa possa não ter sido sua intenção de qualquer maneira. Mas é útil na medida em que esclarece um ponto relacionado que levantei implicitamente.
Chill2Macht
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.