No meu projeto, quero criar um modelo de regressão logística para prever a classificação binária (1 ou 0).
Eu tenho 15 variáveis, 2 das quais são categóricas, enquanto o restante é uma mistura de variáveis contínuas e discretas.
Para ajustar um modelo de regressão logística, fui aconselhado a verificar a separabilidade linear usando SVM, perceptron ou programação linear. Isso está de acordo com as sugestões feitas aqui sobre o teste de separabilidade linear.
Como iniciante no aprendizado de máquina, entendo os conceitos básicos sobre os algoritmos mencionados acima, mas conceitualmente luto para visualizar como podemos separar dados com tantas dimensões, ou seja, 15 no meu caso.
Todos os exemplos no material on-line geralmente mostram um gráfico 2D de duas variáveis numéricas (altura, peso), que mostram uma clara diferença entre categorias e facilitam a compreensão, mas no mundo real os dados geralmente têm uma dimensão muito mais alta. Eu continuo sendo atraído de volta ao conjunto de dados Iris e tentando encaixar um hiperplano nas três espécies e como é particularmente difícil, se não impossível, fazer isso entre duas espécies, as duas classes me escapam agora.
Como se consegue isso quando temos ordens de dimensões ainda mais altas , presume-se que, quando excedemos um certo número de recursos, usamos kernels para mapear para um espaço dimensional mais alto, a fim de obter essa separabilidade?
Também para testar a separabilidade linear, qual é a métrica usada? É a precisão do modelo SVM, ou seja, a precisão baseada na matriz de confusão?
Qualquer ajuda para entender melhor este tópico seria muito apreciada. Também abaixo está uma amostra de um gráfico de duas variáveis no meu conjunto de dados que mostra como essas duas variáveis se sobrepõem.