Estou usando redes neurais para a maioria dos problemas. O ponto é que, na maioria dos casos, é mais sobre a experiência do usuário do que sobre o modelo. Aqui estão algumas razões pelas quais eu gosto de NNs.
- Eles são flexíveis. Eu posso jogar qualquer perda que eu quiser: perda de dobradiça, quadrado, entropia cruzada, o que você quiser. Desde que seja diferenciável, posso até projetar uma perda que atenda exatamente às minhas necessidades.
- Eles podem ser tratados probabilisticamente: redes neurais bayesianas, Bayes variacionais, MLE / MAP, está tudo lá. (Mas, em alguns casos, mais difícil.)
- Eles são rápidos. A maioria dos MLPs será composta de duas multiplicações de matriz e um componente aplicado de não-linearidade no sentido intermediário. Bata isso com um SVM.
Analisarei seus outros pontos passo a passo.
Tenha uma forte teoria fundadora
Eu diria que os NNs são igualmente fortes nesse caso: desde que você os treine em uma estrutura probabilística. Isso possibilita o uso de priores e um tratamento bayesiano (por exemplo, com técnicas variacionais ou aproximações).
Alcance o melhor global devido à programação quadrática
Para um conjunto de hiperparâmetros. No entanto, a busca por bons hps não é convexa e você não saberá se também encontrou o ideal global.
Não há problema em escolher um número adequado de parâmetros
Com os SVMs, você também deve selecionar hiper parâmetros.
Precisa de menos memória para armazenar o modelo preditivo
Você precisa armazenar os vetores de suporte. Em geral, os SVMs não serão mais baratos para armazenar MLPs, dependendo do caso.
Obtenha resultados mais legíveis e uma interpretação geométrica
A camada superior de um MLP é uma regressão logística no caso de classificação. Assim, há uma interpretação geométrica (separando o hiperplano) e uma interpretação probabilística também.