Desculpe por não estar claro no meu blog !
Nota: Forneci algumas informações sobre a escolha do modelo bayesiano e o paradoxo de Jeffreys-Lindley nesta outra resposta validada por Cross.
O paradoxo de Jeffreys-Lindley está relacionado à escolha do modelo bayesiano, em que a probabilidade marginal
se torna sem sentido quando π é umamedida σ- definida (isto é, uma medida com massa infinita) em vez de uma medida de probabilidade. A razão para essa dificuldade é que a massa infinita torna π e c π indistinguíveis de qualquer constante positiva c
m ( x ) = ∫π( θ ) f( x | θ )d θ
πσπc πc . Em particular, o fator Bayes não pode ser usado e não deve ser usado quando um modelo possui um "plano" anterior.
O paradoxo original de Jeffreys-Lindley usa a distribuição normal como exemplo. Ao comparar os modelos e X ~ N ( θ , 1 ) o fator de Bayes, é
B 12 = exp { - N ( ˉ x n ) 2 / 2 }
x ∼ N( 0 , 1 )
x ∼ N( θ , 1 )
é bem definido É quando
πé uma adequada antes, mas se você tomar um normal antes
N(0,τ2)em
θe deixe
τir ao infinito, o denominador vai a zero para qualquer valor de
ˉ x ndiferente de zero e qualquer valor de
n. (A menos que
τe
nestejam relacionados, mas isso fica mais complicado!) Se, em vez disso, você usar diretamente
π(θ)=conde
cé uma constante necessariamente arbitrária, o fator
B deBayes
B12= exp{ - n ( x¯n)2/ 2}∫+ ∞- ∞exp{ - n ( x¯n- θ )2/ 2}π( θ )d θ
πN( 0 , τ2)θτx¯nnτnπ( θ ) = c
cB12B12= exp{ - n ( x¯n)2/ 2}c ∫+ ∞- ∞exp{ - n ( x¯n- θ )2/ 2}d θ= exp{ - n ( x¯n)2/ 2}c 2 π/ n----√
portanto, diretamente dependente de
c.
Agora, se seus antecedentes são informativos (e, portanto, adequados), não há razão para o paradoxo de Jeffreys-Lindley ocorrer. Com um número suficiente de observações, o fator Bayes selecionará consistentemente o modelo que gerou os dados. (Ou, mais precisamente, o modelo dentro da coleção de modelos considerados para escolha de modelo mais próximo do modelo "verdadeiro" que gerou os dados.)