Em seu livro "All of Statistics", o Prof. Larry Wasserman apresenta o seguinte Exemplo (11.10, página 188). Suponha que temos uma densidade tal que , onde é uma função conhecida (não-negativa, integrável) e a constante de normalização é desconhecida .f ( x ) = Cg c > 0
Estamos interessados nos casos em que não podemos calcular . Por exemplo, pode ser que seja um pdf em um espaço de amostra com dimensões muito altas.f
É sabido que existem técnicas de simulação que nos permitem coletar amostras de , mesmo que seja desconhecido. Portanto, o enigma é: como poderíamos estimar partir de uma amostra?c c
Wasserman descreve a seguinte solução bayesiana: seja um pouco anterior para . A probabilidade é Portanto, o posterior não depende dos valores da amostra . Portanto, um bayesiano não pode usar as informações contidas na amostra para fazer inferências sobre .c L x ( c ) = n Π i = 1 F ( x i ) = n Π i = 1 ( cπ ( c ∣ x ) ∝ c n π ( c ) x 1 , … , x n c
Wasserman ressalta que "os bayesianos são escravos da função de probabilidade. Quando a probabilidade dá errado, o mesmo ocorre com a inferência bayesiana".
Minha pergunta para meus colegas empilhadores é: Nesse exemplo em particular, o que deu errado (se houver) na metodologia bayesiana?
PS Como o professor Wasserman gentilmente explicou em sua resposta, o exemplo é devido a Ed George.