Li em algum lugar que o método Variational Bayes é uma generalização do algoritmo EM. De fato, as partes iterativas dos algoritmos são muito semelhantes. Para testar se o algoritmo EM é uma versão especial do Variational Bayes, tentei o seguinte:
são dados, é a coleção de variáveis latentes e é os parâmetros. Em Bayes Variacionais, podemos fazer uma aproximação tal que . Onde são distribuições simples e tratáveis.
Como o algoritmo EM encontra uma estimativa de ponto MAP, pensei que Bayes Variacionais podem convergir para EM se eu usar uma Função Delta, de modo que: . é a primeira estimativa para os parâmetros, como geralmente é feito no EM.
Quando é dado, que minimiza a divergência de KL é encontrado pela fórmula A fórmula acima simplifica para , essa etapa é equivalente à etapa de Expectativa do algoritmo EM!
Mas não posso derivar a etapa de maximização como a continuação disso. Na próxima etapa, precisamos calcular e, de acordo com a regra de iteração Variational Bayes, é:
Os algoritmos VB e EM estão realmente conectados dessa maneira? Como podemos derivar o EM como um caso especial dos Bayes Variacionais, é minha abordagem verdadeira?