Um caso típico para a aplicação da estimativa de densidade é a detecção de novidade, também conhecida como detecção externa, onde a idéia é que você só (ou principalmente) possui dados de um tipo, mas está interessado em dados distintos qualitativos muito raros, que se desviam significativamente de casos comuns.
Exemplos são detecção de fraude, detecção de falhas nos sistemas e assim por diante. São situações em que é muito difícil e / ou caro reunir dados do tipo em que você está interessado. Esses casos raros, como casos com baixa probabilidade de ocorrência.
Na maioria das vezes, você não está interessado em estimar com precisão a distribuição exata, mas nas probabilidades relativas (qual a probabilidade de uma determinada amostra ser um outlier real versus não ser um).
Existem dezenas de tutoriais e análises sobre o tópico. Este um pode ser uma boa para começar.
EDIT: para algumas pessoas, parece estranho usar a estimativa de densidade para detecção de valores extremos. Vamos primeiro concordar com uma coisa: quando alguém ajusta um modelo de mistura aos seus dados, ele está realmente realizando uma estimativa de densidade. Um modelo de mistura representa uma distribuição de probabilidade.
Na verdade, o kNN e o GMM estão relacionados: são dois métodos para estimar essa densidade de probabilidade. Essa é a idéia subjacente para muitas abordagens na detecção de novidades. Por exemplo, este baseado em kNNs, este outro baseado em janelas Parzen (que enfatizam essa mesma idéia no início do artigo), e muitas outras .
Parece-me (mas é apenas a minha percepção pessoal) que a maioria, se não todos, trabalha nessa idéia. De que outra forma você expressaria a ideia de um evento anômalo / raro?