O termo de perda de dobradiça ∑imax(0,1−yi(w⊺xi+b)) na margem flexível SVM penaliza erros de classificação . No SVM de margem rígida, por definição, não há erros de classificação.
Isso realmente significa que o SVM de margem rígida tenta minimizar ∥w∥2 . Devido à formulação do problema SVM, a margem é 2/∥w∥. Assim, minimizar a norma w é geometricamente equivalente a maximizar a margem. Exatamente o que queremos!
A regularização é uma técnica para evitar ajustes excessivos, penalizando grandes coeficientes no vetor de solução. Na margem rígida, SVM é a função de perda e um regularizador .∥w∥2L2
No SVM de margem flexível, o termo de perda de dobradiça também atua como um regularizador, mas nas variáveis de folga em vez de e em e não em . regularização induz a , razão pela qual o SVM padrão é escasso em termos de vetores de suporte (em contraste com o SVM de mínimos quadrados).wL1L2L1