Estimativa de densidade do kernel significa integração em uma janela local (difusa), e suavização do kernel significa média em uma janela local (difusa).
Suavização do kernel:
.y~( x ) ∝ 1ρ ( x )∑ K( | | x - xEu| | )yEu
Estimativa da densidade do kernel:
.ρ ( x ) ct Σ K( | | x - xEu| | )
Como são os mesmos?
Considere amostras de uma função com valor booleano, isto é, um conjunto contendo "amostras verdadeiras" (cada uma com valor unitário) e "amostras falsas" (cada uma com valor zero). Supondo que a densidade geral da amostra seja constante (como uma grade), a média local dessa função é idêntica proporcional à densidade local (parcial) do subconjunto com valor real. (As amostras falsas nos permitem desconsiderar constantemente o denominador da equação de suavização, adicionando zero termos ao somatório, para simplificar a equação de estimativa de densidade.)
Da mesma forma, se suas amostras forem representadas como elementos esparsos em uma varredura booleana, você poderá estimar sua densidade aplicando um filtro de desfoque na varredura.
Como isso é diferente?
Intuitivamente, você pode esperar que a escolha do algoritmo de suavização dependa se as medidas da amostra contêm ou não um erro significativo.
Em um extremo (sem ruído), você simplesmente precisa interpolar entre os valores exatamente conhecidos nos locais da amostra. Digamos, pela triangulação de Delaunay (com interpolação bilinear por partes).
A estimativa de densidade se assemelha ao extremo oposto, é totalmente ruído, pois a amostra isolada não é acompanhada por uma medida do valor da densidade naquele ponto. (Portanto, não há nada para simplesmente interpolar. Você pode medir as áreas de células do diagrama de Voronoi, mas a suavização / suavização ainda será importante.)
O ponto é que, apesar da semelhança, esses são problemas fundamentalmente diferentes, portanto, abordagens diferentes podem ser ótimas.