Cálculo da probabilidade marginal de amostras MCMC


24

Esta é uma pergunta recorrente (veja este post , este post e este post ), mas eu tenho uma opinião diferente.

Suponha que eu tenha várias amostras de um amostrador genérico do MCMC. Para cada amostra , eu sei o valor da probabilidade do log e do log anterior . Se ajudar, também sei o valor da probabilidade do log por ponto de dados, (essas informações ajudam em certos métodos, como WAIC e PSIS-LOO).log f ( x | θ ) log f ( θ ) log f ( x i | θ )θregistrof(x|θ)registrof(θ)logf(xi|θ)

Quero obter uma estimativa (bruta) da probabilidade marginal, apenas com as amostras que tenho e, possivelmente, algumas outras avaliações de função (mas sem executar novamente um MCMC ad hoc ).

Primeiro de tudo, vamos limpar a mesa. Todos sabemos que o estimador harmônico é o pior estimador de todos os tempos . Vamos continuar. Se você estiver fazendo uma amostragem de Gibbs com anteriores e posteriores na forma fechada, poderá usar o método de Chib ; mas não sei como generalizar fora desses casos. Também existem métodos que exigem que você modifique o procedimento de amostragem (como via posterior temperado ), mas não estou interessado nisso aqui.

A abordagem em que estou pensando consiste em aproximar a distribuição subjacente com uma forma paramétrica (ou não paramétrica) e depois descobrir a constante de normalização como um problema de otimização 1-D (ou seja, o que minimiza algum erro entre e , avaliadas sobre as amostras). No caso mais simples, suponha que o posterior seja aproximadamente multivariado normal, eu posso ajustar como um normal multivariado e obter algo semelhante a uma aproximação de Laplace (eu poderia querer usar algumas avaliações de funções adicionais para refinar a posição de o modo). No entanto, eu poderia usar comoZ Z Z g ( θ ) f ( x | θ ) f ( θ ) g ( θ ) g ( θ )g(θ)ZZZg(θ)f(x|θ)f(θ)g(θ)g(θ)uma família mais flexível, como uma mistura variacional de distribuições multivariadas de t .

Compreendo que esse método funcione apenas se Zg(θ) for uma aproximação razoável de f(x|θ)f(θ) , mas qualquer motivo ou conto preventivo sobre por que seria muito imprudente faça? Alguma leitura que você recomendaria?

A abordagem totalmente não paramétrica usa alguma família não paramétrica, como um processo Gaussiano (GP), para aproximar (ou alguma outra transformação não linear do mesmo, como como raiz quadrada) e quadratura bayesiana para integrar implicitamente sobre o alvo subjacente (veja aqui e aqui ). Essa parece ser uma abordagem alternativa interessante, mas de espírito análogo (observe também que os GPs seriam difíceis de manejar no meu caso).logf(x|θ)+logf(θ)


6
Eu acho que Chib, S. e Jeliazkov, I. 2001 "A probabilidade marginal da saída de Metropolis - Hastings" generaliza para saídas normais do MCMC - estaria interessada em ouvir experiências com essa abordagem. Quanto ao GP - basicamente, isso se resume à emulação do posterior, o que você também pode considerar para outros problemas. Eu acho que o problema é que você nunca tem certeza da qualidade da aproximação. O que também me pergunto é se uma amostra do MCMC é ideal para um modelo de GP ou se você deve investir mais nas caudas.
Florian Hartig 29/04

2
(+1) Obrigado pela referência, parece perfeito - vou dar uma olhada. Concordo que todas as abordagens baseadas em modelo podem ser problemáticas (a coisa boa da quadratura bayesiana é que você obtém uma estimativa da incerteza, embora não tenha certeza de como está calibrada). No momento, meu objetivo modesto é fazer algo "melhor do que uma aproximação de Laplace".
lacerbi

Respostas:


26

Infelizmente, a extensão de Chib e Jeliazkov (2001) fica rapidamente cara ou altamente variável, razão pela qual não é muito usada fora dos casos de amostragem de Gibbs.

Embora existam muitas maneiras e abordagens para o problema de estimativa de constante normalização (como ilustrado pelas palestras bastante diversas no workshop Estimando Constante que realizamos na semana passada na Universidade de Warwick, slides disponíveis ), algumas soluções exploram diretamente a saída do MCMC .Z

  1. Como você mencionou, o estimador de média harmônica de Newton e Raftery (1994) é quase sempre invariavelmente pobre por ter uma variação infinita. No entanto, existem maneiras de evitar a maldição de variação infinita usando um alvo de suporte finito na identidade média harmônica escolhendoαcomo o indicador de uma região HPD para a parte posterior. Isso garante uma variação finita, removendo as caudas na média harmônica. (Detalhes podem ser encontrados emum artigo que escrevi com Darren Wraithe em umcapítulo sobre normalização de constantesescritas com Jean-Michel Marin.) Em resumo, o método recicla a saída do MCMCθ1,,θMidentificando oβ( 20% dizem que os maiores valores do alvoπ(θ)f(x|θ)e criandoα

    α(θ)π(θ)f(x|θ)dπ(θ|x)=1Z
    αθ1,,θMβπ(θ)f(x|θ)αcomo um uniforme através da união das bolas centrado no aqueles maior densidade (HPD) simulações e com raio ρ , o que significa que a estimativa da constante de normalização Z é dada por Z - 1 = 1θi0ρZ sedé a dimensão deθ(as correções se aplicam a bolas que se cruzam) e seρé pequeno o suficiente para que as bolas nunca se cruzem (significando que, na melhor das hipóteses, apenas um indicador nas bolas é diferente de zero). A explicação para odenominadorαM2é que esta é uma soma dupla determosβM2: 1
    Z^1=1βM2m=1Mdouble sum overβM ball centres θi0and M simulations θmI(0,ρ)(mini||θmθi0||){π(θm)f(x|θm)}1/πd/2ρdΓ(d/2+1)1volume of ball with radius ρβMα(θm)π(θm)f(x|θm)
    dθραM2βM2 com cada termo emθmintegrado aZ-1.
    1βMi=1βM1Mm=1MU(θi0,ρ)(θm)same as with min×1π(θm)f(x|θm)
    θmZ1
  2. Outra abordagem é transformar a constante de normalização em um parâmetro. Isso soa como uma heresia estatística, mas o artigo de Guttmann e Hyvärinen (2012) me convenceu do contrário. Sem entrar muito em detalhes, a idéia pura é transformar a probabilidade logarítmica observada n i = 1 f ( x i | θ ) - n log exp f ( x | θ ) d x em uma probabilidade logarítmica conjunta n i = 1 [ fZ

    i=1nf(xi|θ)nlogexpf(x|θ)dx
    que é a probabilidade logarítmica de um processo de ponto de Poisson com função de intensidade exp { f ( x | θ ) + ν + log n }
    i=1n[f(xi|θ)+ν]nexp[f(x|θ)+ν]dx
    exp{f(x|θ)+ν+logn}
    Este é um modelo alternativo, pois a probabilidade original não aparece como marginal do que foi mencionado acima. Somente os modos coincidem, com o modo condicional em ν fornecendo a constante de normalização. Na prática, a probabilidade do processo de Poisson acima está indisponível e Guttmann e Hyvärinen (2012) oferecem uma aproximação por meio de uma regressão logística. Para se conectar ainda melhor com sua pergunta, a estimativa de Geyer é um MLE, portanto, solução para um problema de maximização.
  3. π(θ|x)π(θ|x)g(θ)π(θ|x)g(θ)) Com os regressores sendo os valores de ambas as densidades, normalizados ou não. Isso está diretamente relacionado à amostragem de ponte de Gelman e Meng (1997), que também recicla amostras de diferentes alvos. E versões posteriores, como o MLE de Meng.
  4. Uma abordagem diferente que obriga a executar um amostrador MCMC específico é a amostragem aninhada de Skilling . Embora eu [e outros] tenhamos algumas reservas quanto à eficiência do método, ele é bastante popular em astrostatística e cosmologia, com softwares disponíveis como multinacionais .
  5. H0:θ=θ0ξπ1(θ)π2(ξ)H0
    B01(x)=πθ(θ0|x)π1(θ0)
    πθ(θ0|x)θθ0H0:θ=θ0
    m0(x)=Ξf(x|θ0,ξ)π2(ξ)dξ
    ma(x)=Θ×Ξf(x|θ,ξ)π1(θ)π2(ξ)dθdξ

[Aqui está um conjunto de slides que escrevi sobre a estimativa de constantes de normalização para um workshop do NIPS em dezembro passado.]


2
(+1) Resposta incrivelmente rica, obrigado. Isso será útil para mim e, suponho, para muitas outras pessoas. Levarei algum tempo para dar uma olhada nas várias abordagens, e então eu posso voltar com perguntas específicas.
lacerbi

2
A partir do ponto (1) ... eu li os artigos relevantes. O estimador de média harmônica "corrigido" parece exatamente o que eu estava procurando. É puro e fácil de calcular, dada a saída do MCMC. Então ... qual é o problema? Não parece que o método esteja sendo amplamente utilizado, a julgar por uma pesquisa rápida no Google Scholar. Quais são as suas limitações? (além da necessidade de identificar as regiões HPD, que eu imagino que possam se tornar um problema para posteriores muito complicados em alta dimensão). Definitivamente vou tentar - mas me pergunto se há algo de que preciso tomar cuidado.
lacerbi

2
Adicionei mais alguns detalhes: a questão da implementação do uniforme da HPD é descobrir uma aproximação compacta adequada para a região da HPD. O casco convexo de pontos com altos valores posteriores é (NP?) Difícil de determinar, enquanto as bolas centralizadas nesses pontos podem se cruzar, o que cria um problema constante de normalização secundária.
Xian

2
@ Xi'an: muito útil, obrigado! Posso perguntar: de todas as abordagens mencionadas, qual seria a sua recomendação atualmente se alguém procurar uma abordagem geral que tenda a funcionar imediatamente (ou seja, não é necessário ajuste / verificação do usuário)? Eu estaria especialmente interessado no caso de modelos com um número baixo (<50) de parâmetros, posteriores não normais e fortes correlações entre os parâmetros.
Florian Hartig 04/04

1
@FlorianHartig: o fato de um software genérico como o BUGS não retornar uma estimativa genérica de Zé meio que revelar a extensão do problema. As muitas soluções que podemos encontrar na literatura especializada não produziram uma estimativa de consenso. Portanto, minha recomendação seria optar pela solução de regressão logística de Geyer, que é um tanto insensível à dimensão.
Xian
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.