Antecedentes: Muitas pesquisas modernas nos últimos ~ 4 anos (pós- alexnet ) parecem ter deixado de usar o pré-treinamento generativo para redes neurais para obter resultados de classificação de ponta.
Por exemplo, os principais resultados para o mnist aqui incluem apenas 2 artigos dos 50 principais que parecem usar modelos generativos, sendo ambos RBMs. Os outros 48 trabalhos vencedores são sobre diferentes arquiteturas discriminativas de avanço de alimentação, com muito esforço para encontrar melhores / novas inicializações de peso e funções de ativação diferentes do sigmóide usado no RBM e em muitas redes neurais mais antigas.
Pergunta: Existe alguma razão moderna para usar mais máquinas Restricted Boltzmann?
Caso contrário, existe uma modificação de fato que se possa aplicar a essas arquiteturas de feed forward para tornar alguma de suas camadas generativa?
Motivação: pergunto porque alguns dos modelos que estou vendo disponíveis, geralmente variantes no RBM, não têm necessariamente contrapartidas discriminatórias análogas óbvias a essas camadas / modelos generativos e vice-versa. Por exemplo:
CRBM (embora se possa argumentar que a CNN usou arquiteturas de feed forward é a arquitetura análoga discriminativa)
Além disso, esses também foram claramente pré-alexnet, de 2010, 2011 e 2009, com respeito.