Qual é a melhor maneira de selecionar automaticamente os recursos para detecção de anomalias?
Eu normalmente trato a Detecção de Anomalias como um algoritmo em que os recursos são selecionados por especialistas humanos: o que importa é o intervalo de saída (como em "entrada anormal - saída anormal"); portanto, mesmo com muitos recursos, você pode criar um subconjunto muito menor combinando as características.
No entanto, supondo que, em geral, uma lista de recursos possa ser enorme, talvez um aprendizado automatizado às vezes seja preferível. Tanto quanto posso ver, existem algumas tentativas:
- "Seleção automatizada de recursos para detecção de anomalias" ( pdf ) que generaliza Descrição de dados de vetores de suporte
- "Um sistema rápido de detecção de intrusões baseado em host usando a teoria dos conjuntos aproximados" (nenhum pdf disponível?) Que, eu acho, usa a teoria dos conjuntos aproximados
- "Regras de aprendizagem para detecção de anomalias do tráfego de rede hostil" ( pdf , vídeo ), que utiliza abordagem estatística
Então agora eu me pergunto se alguém pode dizer - assumindo a detecção de anomalias e um conjunto de recursos realmente grande (centenas?):
- Esses enormes conjuntos de recursos fazem sentido? Não devemos apenas reduzir o recurso configurado para, digamos, algumas dezenas e é isso?
- Se conjuntos enormes de recursos fazem sentido, qual das abordagens acima daria melhores previsões e por quê? Existe algo não listado que é muito melhor?
- Por que eles deveriam fornecer melhores resultados comparando, por exemplo, a redução da dimensionalidade ou a construção de recursos por meio de cluster / ranking / etc?