Algumas diferenças importantes, que precedem uma explicação mais longa abaixo, são as seguintes:
- Fundamentalmente: a distância de Jeffries-Matusita se aplica a distribuições, e não a vetores em geral.
- A fórmula de distância JM citada acima se aplica apenas a vetores que representam distribuições de probabilidade discretas (ou seja, vetores que somam 1).
- Diferentemente da distância euclidiana, a distância JM pode ser generalizada para qualquer distribuição para a qual a distância Bhattacharrya possa ser formulada.
- A distância JM tem, através da distância Bhattacharrya, uma interpretação probabilística.
bp,q[0,inf)[0,2–√]
JMp,q=2(1−exp(−b(p,q))−−−−−−−−−−−−−−−√
Uma vantagem prática da distância JM, de acordo com este artigo, é que esta medida "tende a suprimir altos valores de separabilidade, enfatizando excessivamente os baixos valores de separabilidade".
As medidas Bhattacharrya distância a dissimilaridade de duas distribuições de e o seguinte sentido contínuo resumo:
Se o distribuições e são capturados por histogramas, representados por vetores de comprimento unitário (em que o ésimo elemento é a contagem normalizada de és de posições), isto se torna:
E, consequentemente, a distância JM para os dois histogramas é:
Qual, observando isso para histogramas normalizadospq
b(p,q)=−ln∫p(x)q(x)−−−−−−−√dx
pqiiNb(p,q)=−ln∑i=1Npi⋅qi−−−−−√
JMp,q=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷
∑ipi=1, é igual à fórmula que você forneceu acima:
JMp,q=∑i=1N(pi−−√−qi−−√)2−−−−−−−−−−−−−−⎷=∑i=1N(pi−2pi−−√qi−−√+qi)−−−−−−−−−−−−−−−−−−−⎷=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷