Perguntas com a marcação «k-nearest-neighbour»

Classificadores k-vizinhos mais próximos Esses classificadores são baseados em memória e não requerem modelo para serem adequados. Dado um ponto de consulta x0, encontramos os k pontos de treinamento x (r), r = 1, ..., k mais próximos da distância de x0 e, em seguida, classificamos com voto majoritário entre os k vizinhos.

1
Kernelised k Vizinho mais próximo
Eu sou novo no kernels e encontrei um problema ao tentar kernelizar o kNN. Preliminares Estou usando um kernel polinomial: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d O kNN euclidiano típico usa a seguinte métrica de distância: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Deixe mapear para algum espaço …

3
Explicação da fórmula para o ponto mais próximo mediano da origem das amostras N da bola unitária
Em Elements of Statistical Learning , um problema é introduzido para destacar problemas com k-nn em espaços de alta dimensão. Existem pontos de dados que são distribuídos uniformemente em uma esfera unitária dimensional.NNNppp A distância média da origem ao ponto de dados mais próximo é dada pela expressão: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = …


1
Distância Pros of Jeffries Matusita
De acordo com algum artigo que estou lendo, a distância de Jeffries e Matusita é comumente usada. Mas não consegui encontrar muita informação, exceto a fórmula abaixo JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} É semelhante à distância euclidiana, exceto pela raiz quadrada E (x, y) =∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} A distância JM é reivindicada como …



1
Teorema Sem Almoço Grátis e consistência K-NN
No aprendizado computacional, o teorema da NFL afirma que não existe um aprendiz universal. Para todo algoritmo de aprendizado, existe uma distribuição que causa ao aluno uma hipotese com um grande erro, com alta probabilidade (embora exista um baixo índice de erro). A conclusão é que, para aprender, a classe …


3
Por que o KNN não é "baseado em modelo"?
O capítulo 2.4 da ESL parece classificar a regressão linear como "baseada em modelo", porque assume , enquanto nenhuma aproximação semelhante é declarada para os vizinhos k-mais próximos. Mas os dois métodos não fazem suposições sobre ?f( x ) ≈ x ⋅ βf(x)≈x⋅βf(x) \approx x\cdot\betaf( X )f(x)f(x) Mais tarde, na …

4
Dada uma cadeia 10D MCMC, como posso determinar seus modos posteriores em R?
Pergunta: Com uma cadeia MCMC de 10 dimensões, digamos que estou preparado para entregar uma matriz dos sorteios: 100.000 iterações (linhas) por 10 parâmetros (colunas), qual a melhor forma de identificar os modos posteriores? Estou especialmente preocupado com vários modos. Fundo:Eu me considero um estatístico computacionalmente experiente, mas quando um …



3
KNN: 1 vizinho mais próximo
Minha pergunta é sobre o classificador de um vizinho mais próximo e é sobre uma afirmação feita no excelente livro The Elements of Statistical Learning, de Hastie, Tibshirani e Friedman. A declaração é (p. 465, seção 13.3): "Como ele usa apenas o ponto de treinamento mais próximo ao ponto de …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.