Algunas diferencias clave, que preceden a una explicación más larga a continuación, son:
- Crucialmente: la distancia Jeffries-Matusita se aplica a distribuciones, en lugar de vectores en general.
- La fórmula de distancia JM que cita arriba solo se aplica a vectores que representan distribuciones de probabilidad discretas (es decir, vectores que suman 1).
- A diferencia de la distancia euclidiana, la distancia JM se puede generalizar a cualquier distribución para la que se pueda formular la distancia Bhattacharrya.
- La distancia JM tiene, a través de la distancia Bhattacharrya, una interpretación probabilística.
bp,q[0,inf)[0,2–√]
JMp,q=2(1−exp(−b(p,q))−−−−−−−−−−−−−−−√
Una ventaja práctica de la distancia JM, de acuerdo con este documento, es que esta medida "tiende a suprimir los valores altos de separabilidad, mientras que enfatiza demasiado los valores bajos de separabilidad".
La distancia de Bhattacharrya mide la disimilitud de dos distribuciones y en el siguiente sentido continuo abstracto:
Si las distribuciones y son capturados por histogramas, representados por vectores de longitud unitaria (donde el ésimo elemento es el recuento normalizado para ésima de contenedores) esto se convierte en:
Y, en consecuencia, la distancia JM para los dos histogramas es:
Que, señalando eso para histogramas normalizadospq
b(p,q)=−ln∫p(x)q(x)−−−−−−−√dx
pqiiNb(p,q)=−ln∑i=1Npi⋅qi−−−−−√
JMp,q=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷
∑ipi=1, es la misma que la fórmula que proporcionó anteriormente:
JMp,q=∑i=1N(pi−−√−qi−−√)2−−−−−−−−−−−−−−⎷=∑i=1N(pi−2pi−−√qi−−√+qi)−−−−−−−−−−−−−−−−−−−⎷=2(1−∑i=1Npi⋅qi−−−−−√)−−−−−−−−−−−−−−−−⎷