Um estimador de Bayes é aquele que minimiza o risco de Bayes. Especificamente, se e somente se
Teorema 4.1.1 na p. 228 de Casella, Lehmann, Teoria da estimativa pontual , bem como o Teorema 7.1 na p. 116 de Estatísticas teóricas mais precisas: Tópicos para um curso básico , declare a seguinte condição suficiente para ser um estimador de Bayes:
É óbvio por que essa é uma condição suficiente: integrando primeiro sobre , obtemos pela monotonicidade de integrais e para . Então, integrando over , obtemos um para o risco de Bayes, novamente pela monotonicidade de integrais.
Pergunta: A condição acima é necessária para ser um estimador de Bayes?
Intuitivamente, não vejo razão para isso ser necessário, a menos que tenhamos condições adicionais que garantam a exclusividade ( -as) do estimador de Bayes. Além disso, as provas nos dois livros que mencionei acima parecem mostrar suficiência, não necessidade.
No entanto, a Wikipedia diz que: "Um estimador ... é considerado um estimador de Bayes se minimizar o risco de Bayes entre todos os estimadores. Equivalentemente , o estimador que minimiza a perda posterior esperada ... para cada x". Ou seja, parece implicar que as duas condições são equivalentes, ou seja, que a última condição é não apenas suficiente, mas necessária . Isso é realmente verdade em geral?