Sou iniciante em Machine Learning. No SVM, o hiperplano de separação é definido como . Por que dizemos vetor w ortogonal ao hiperplano de separação?
Sou iniciante em Machine Learning. No SVM, o hiperplano de separação é definido como . Por que dizemos vetor w ortogonal ao hiperplano de separação?
Respostas:
Geometricamente, o vetor w é direcionado ortogonalmente à linha definida por . Isto pode ser entendido como o seguinte:
Primeiro, pegue . Agora está claro que todos os vetores, x , com produto interno em fuga com w satisfazem esta equação, ou seja, todos os vetores ortogonais w satisfazem essa equação.
Agora traduza o hiperplano para longe da origem sobre um vetor a. A equação para o plano agora se torna: , ou seja, achamos que para o deslocamento b = a T w , que é a projeção do vetor a no vetor w .
Sem perda de generalidade, podemos assim escolher uma perpendicular ao plano, caso em que o comprimento que representa a distância ortogonal mais curta entre a origem e o hiperplano.
Portanto, o vetor é ortogonal ao hiperplano de separação.
A razão pela qual é normal para o hiperplano é porque definimos que é dessa maneira:
Suponha que tenhamos um (hiper) plano no espaço 3d. Seja um ponto neste plano, ou seja, P 0 = x 0 , y 0 , z 0 . Portanto, o vetor da origem ( 0 , 0 , 0 ) até este ponto é apenas < x 0 , y 0 , z 0 > . Suponha que tenhamos um ponto arbitrário P ( x , y , z ) no plano. O vetor que une Pe é então dado por: → P - → P 0 = < x - x 0 , y - y 0 , z - z 0 > Observe que esse vetor está no plano.
Agora vamos n ser o (ortogonal) vector normal ao plano. Portanto: n ∙ ( → P - → P 0 ) = 0 Assim: n ∙ → P - N ∙
Seja o limite de decisão definido como . Considere os pontos e , que estão no limite da decisão. Isso nos dá duas equações:
Subtraindo estas duas equações nos dá . Observe que o vetor fica no limite de decisão e é direcionado a partir de