Sim. Diferentemente do que as outras respostas afirmam, métodos 'típicos' de aprendizado de máquina, como os não paramétricos e as redes neurais (profundas), podem ajudar a criar melhores amostradores de MCMC.
O objetivo do MCMC é coletar amostras de uma distribuição-alvo (não normalizada) . As amostras obtidas são usadas para aproximar e permitem principalmente calcular expectativas de funções sob (isto é, integrais de alta dimensão) e, em particular, propriedades de (como momentos).f f ff( X )fff
A amostragem geralmente requer um grande número de avaliações de , e possivelmente de seu gradiente, para métodos como o Hamiltoniano Monte Carlo (HMC). Se for caro para avaliar ou o gradiente não estiver disponível, às vezes é possível criar uma função substituta menos dispendiosa que possa ajudar a orientar a amostragem e é avaliada no lugar de (de uma maneira que ainda preserva as propriedades do MCMC).f ffff
Por exemplo, um artigo seminal ( Rasmussen 2003 ) propõe o uso de Processos Gaussianos (uma aproximação de função não paramétrica) para construir uma aproximação a e executar o HMC na função substituta, apenas com a etapa de aceitação / rejeição do HMC com base em . Isso reduz o número de avaliação do original e permite executar o MCMC em PDFs que, de outra forma, seriam muito caros para avaliar.f fregistrofff
A idéia de usar substitutos para acelerar o MCMC tem sido muito explorada nos últimos anos, essencialmente ao tentar maneiras diferentes de criar a função substituta e combiná-la de forma eficiente / adaptável a diferentes métodos do MCMC (e de maneira a preservar a 'correção' 'da amostragem MCMC). Relacionados à sua pergunta, esses dois artigos muito recentes usam técnicas avançadas de aprendizado de máquina - redes aleatórias ( Zhang et al. 2015 ) ou funções exponenciais do kernel aprendidas adaptativamente ( Strathmann et al. 2015 ) - para criar a função substituta.
O HMC não é a única forma de MCMC que pode se beneficiar dos substitutos. Por exemplo, Nishiara et al. (2014) constroem uma aproximação da densidade do alvo ajustando a distribuição de Student multivariada ao estado de várias cadeias de um amostrador de conjunto e use isso para executar uma forma generalizada de amostragem de fatia elíptica .t
Estes são apenas exemplos. Em geral, várias técnicas distintas de ML (principalmente na área de aproximação de função e estimativa de densidade) podem ser usadas para extrair informações que possam melhorar a eficiência dos amostradores MCMC. A sua real utilidade - por exemplo, medido em número de "amostras independentes eficazes por segundo" - é condicional na ser caro ou um pouco difícil de calcular; Além disso, muitos desses métodos podem exigir ajustes próprios ou adicionais, restringindo sua aplicabilidade.f
Referências:
Rasmussen, Carl Edward. "Processos gaussianos para acelerar o Monte Carlo híbrido para integrais bayesianas caras". Estatísticas Bayesianas 7. 2003.
Zhang, Cheng, Babak Shahbaba e Hongkai Zhao. "Aceleração Hamiltoniana de Monte Carlo usando Funções Substitutas com Bases Aleatórias". pré-impressão do arXiv arXiv: 1506.05555 (2015).
Strathmann, Heiko, et al. "Monte Carlo Hamiltoniano sem gradiente, com famílias exponenciais de kernel eficientes". Avanços nos sistemas de processamento de informações neurais. 2015.
Nishihara, Robert, Iain Murray e Ryan P. Adams. "MCMC paralelo com amostragem de fatia elíptica generalizada." Journal of Machine Learning Research 15.1 (2014): 2087-2112.