Já houve uma excelente discussão sobre como as máquinas de vetores de suporte lidam com a classificação, mas estou muito confuso sobre como as máquinas de vetores de suporte se generalizam para regressão.
Alguém se importar de me esclarecer?
Já houve uma excelente discussão sobre como as máquinas de vetores de suporte lidam com a classificação, mas estou muito confuso sobre como as máquinas de vetores de suporte se generalizam para regressão.
Alguém se importar de me esclarecer?
Respostas:
Basicamente, eles generalizam da mesma maneira. A abordagem de regressão baseada no kernel é transformar o recurso, chamá-lo de para algum espaço vetorial e executar uma regressão linear nesse espaço vetorial. Para evitar a 'maldição da dimensionalidade', a regressão linear no espaço transformado é um pouco diferente dos mínimos quadrados comuns. O resultado é que a regressão no espaço transformada pode ser expressa como ℓ ( x ) = Σ i w i φ ( x i ) ⋅ φ ( x ) , onde x i são as observações do conjunto de treino, φ ( é a transformação aplicada aos dados e o ponto é o produto escalar. Assim, a regressão linear é 'suportada' por alguns (de preferência um número muito pequeno de) vetores de treinamento.
Todos os detalhes matemáticos estão ocultos na regressão estranha feita no espaço transformado ('tubo insensível ao épsilon' ou qualquer outra coisa) e na escolha da transformação, . Para um praticante, também existem perguntas sobre alguns parâmetros livres (geralmente na definição de ϕ e na regressão), bem como na caracterização , que é onde o conhecimento do domínio geralmente é útil.
Para uma visão geral do SVM: Como funciona um SVM (Support Vector Machine)?
Em relação à regressão de vetores de suporte (SVR), acho esses slides de http://cs.adelaide.edu.au/~chhshen/teaching/ML_SVR.pdf ( mirror ) muito claros:
A documentação do Matlab também possui uma explicação decente e, além disso, aborda o algoritmo de solução de otimização: https://www.mathworks.com/help/stats/understanding-support-vector-machine-regression.html ( mirror ).
Até agora, essa resposta apresentou a chamada regressão SVM (ε-SVM) insensível ao epsilon. Existe uma variante mais recente do SVM para qualquer classificação de regressão: os mínimos quadrados suportam a máquina de vetores .
Além disso, o SVR pode ser estendido para saída múltipla, também conhecida como destino múltiplo, por exemplo, consulte {1}.
Referências: