Máquinas de vetores de suporte e regressão


26

Já houve uma excelente discussão sobre como as máquinas de vetores de suporte lidam com a classificação, mas estou muito confuso sobre como as máquinas de vetores de suporte se generalizam para regressão.

Alguém se importar de me esclarecer?

Respostas:


17

Basicamente, eles generalizam da mesma maneira. A abordagem de regressão baseada no kernel é transformar o recurso, chamá-lo de para algum espaço vetorial e executar uma regressão linear nesse espaço vetorial. Para evitar a 'maldição da dimensionalidade', a regressão linear no espaço transformado é um pouco diferente dos mínimos quadrados comuns. O resultado é que a regressão no espaço transformada pode ser expressa como ( x ) = Σ i w i φ ( x i ) φ ( x ) , onde x i são as observações do conjunto de treino, φ (x(x)=EuWEuϕ(xEu)ϕ(x)xEu é a transformação aplicada aos dados e o ponto é o produto escalar. Assim, a regressão linear é 'suportada' por alguns (de preferência um número muito pequeno de) vetores de treinamento. ϕ()

Todos os detalhes matemáticos estão ocultos na regressão estranha feita no espaço transformado ('tubo insensível ao épsilon' ou qualquer outra coisa) e na escolha da transformação, . Para um praticante, também existem perguntas sobre alguns parâmetros livres (geralmente na definição de ϕ e na regressão), bem como na caracterização , que é onde o conhecimento do domínio geralmente é útil.ϕϕ


Do ponto de vista da intuição, isso é quase como uma classificação de classe única, onde a linha de "limite" da classe acaba passando pelos pontos em vez de entre os pontos de duas classes?
Wayne

@ Wayne, esse é o meu entendimento, sim. Eu não sou 100%, no entanto.
Zach

5

Para uma visão geral do SVM: Como funciona um SVM (Support Vector Machine)?

Em relação à regressão de vetores de suporte (SVR), acho esses slides de http://cs.adelaide.edu.au/~chhshen/teaching/ML_SVR.pdf ( mirror ) muito claros:

insira a descrição da imagem aqui

insira a descrição da imagem aquiinsira a descrição da imagem aqui

insira a descrição da imagem aqui

insira a descrição da imagem aqui

insira a descrição da imagem aqui

insira a descrição da imagem aqui

insira a descrição da imagem aqui

insira a descrição da imagem aqui

A documentação do Matlab também possui uma explicação decente e, além disso, aborda o algoritmo de solução de otimização: https://www.mathworks.com/help/stats/understanding-support-vector-machine-regression.html ( mirror ).

Até agora, essa resposta apresentou a chamada regressão SVM (ε-SVM) insensível ao epsilon. Existe uma variante mais recente do SVM para qualquer classificação de regressão: os mínimos quadrados suportam a máquina de vetores .

Além disso, o SVR pode ser estendido para saída múltipla, também conhecida como destino múltiplo, por exemplo, consulte {1}.


Referências:

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.