Métodos locais como o K-NN fazem sentido em algumas situações.
Um exemplo que fiz no trabalho da escola tinha a ver com a previsão da resistência à compressão de várias misturas de ingredientes de cimento. Todos esses ingredientes eram relativamente não voláteis em relação à resposta ou entre si, e a KNN fez previsões confiáveis. Em outras palavras, nenhuma das variáveis independentes apresentou variação desproporcionalmente grande para conferir ao modelo individualmente ou possivelmente por interação mútua.
Tome isso com um pouco de sal, porque não conheço uma técnica de investigação de dados que mostre isso conclusivamente, mas intuitivamente parece razoável que, se seus recursos tiverem um grau proporcional de variações, não sei qual proporção, você pode ter uma Candidato KNN. Eu certamente gostaria de saber se existem alguns estudos e técnicas resultantes desenvolvidas para esse efeito.
Se você pensar sobre isso de uma perspectiva de domínio generalizada, há uma ampla classe de aplicativos em que 'receitas' semelhantes produzem resultados semelhantes. Isso certamente parecia descrever a situação de previsão dos resultados da mistura de cimento. Eu diria que se você tivesse dados que se comportassem de acordo com esta descrição e, além disso, sua medida de distância também fosse natural para o domínio em questão e, por último, que você tivesse dados suficientes, eu imaginaria que você deveria obter resultados úteis do KNN ou outro método local .
Você também está obtendo o benefício de um viés extremamente baixo ao usar métodos locais. Às vezes, os modelos aditivos generalizados (GAM) equilibram o viés e a variação ajustando cada variável individual usando o KNN, de modo que:
y^=f1(x1)+f2(x2)+⋯+fn(xn)+ϵ
fn( xn)
Eu não descartaria o KNN tão rapidamente. Tem o seu lugar.