Esta pergunta é uma resposta a um comentário que vi em outra pergunta.
O comentário foi sobre o programa do curso de Aprendizado de Máquina no Coursera, e na linha de "SVMs não são tão usados hoje em dia".
Acabei de terminar as palestras relevantes, e meu entendimento dos SVMs é que eles são um algoritmo de aprendizado robusto e eficiente para classificação e que, ao usar um kernel, eles têm um "nicho" que abrange vários recursos, talvez 10 a 1000 e número de amostras de treinamento, talvez 100 a 10.000. O limite para amostras de treinamento é que o algoritmo principal gira em torno da otimização dos resultados gerados a partir de uma matriz quadrada com dimensões baseadas no número de amostras de treinamento, e não no número de recursos originais.
O mesmo comentário que eu vi referiu alguma mudança real desde que o curso foi feito, e se sim, qual é essa mudança: Um novo algoritmo que cobre o "ponto ideal" do SVM também, CPUs melhores, o que significa que as vantagens computacionais do SVM não valem tanto ? Ou talvez seja a opinião ou a experiência pessoal do comentarista?
Tentei pesquisar, por exemplo, "são máquinas de vetores de suporte fora de moda" e não achei nada que sugerisse que elas estavam sendo descartadas em favor de qualquer outra coisa.
E a Wikipedia possui: http://en.wikipedia.org/wiki/Support_vector_machine#Issues . . . o principal ponto de discórdia parece ser a dificuldade de interpretar o modelo. O que torna o SVM adequado para um mecanismo de previsão de caixa preta, mas não tão bom para gerar insights. Não vejo isso como uma questão importante, apenas outra coisa menor a ser levada em consideração ao escolher a ferramenta certa para o trabalho (junto com a natureza dos dados de treinamento e da tarefa de aprendizagem, etc.).