Distancia de Mahalanobis entre dos distribuciones bivariadas con diferentes covarianzas


8

La pregunta está más o menos contenida en el título. ¿Cuál es la distancia de Mahalanobis para dos distribuciones de diferentes matrices de covarianza? Lo que he encontrado hasta ahora supone la misma covarianza para ambas distribuciones, es decir, algo de este tipo:

ΔTΣ1Δ

¿Qué pasa si tengo dos s diferentes ?Σ

Nota: - El problema es este: hay dos distribuciones bivariadas que tienen las mismas dimensiones pero que se rotan y traducen entre sí (lo siento, vengo de un fondo matemático puro, no estadístico). Necesito medir su grado de superposición / distancia.

* Actualización: * Lo que podría o no estar implícito en lo que pregunto es que necesito una distancia entre los medios de las dos distribuciones. Yo que los medios son, pero ya que las dos distribuciones se rotan una respecto a la otra, lo que necesito para asignar diferentes pesos a diferentes orientaciones y por lo tanto un simple distancia euclídea entre los medios no funciona. Ahora, como lo he entendido, la distancia de Mahalanobis no se puede usar para medir esta información si las distribuciones tienen una forma diferente (aparentemente funciona con dos distribuciones normales multivariadas de covarianzas idénticas, pero no en el caso general). ¿Existe una buena medida que codifique este deseo de codificar orientaciones con diferentes pesos?


1
La distancia de Mahalanobis no tiene sentido cuando las distribuciones difieren. (Es como decir "Peter vive en una esfera y Paul vive en un avión euclidiano; ¿cómo calculamos la distancia entre ellos?") Tal vez podría retroceder un paso y ayudarnos a comprender la motivación de la pregunta: ¿qué es exactamente lo que hace? quieres lograr aquí? ¿Cuál es el contexto estadístico?
Whuber

Muy bien, sospechaba mucho. La razón por la que pregunto es que he visto la siguiente ecuación que se usa para calcular una distancia de 'Mahalanobis', o eso decía: I ' No estoy muy seguro de que sea una distancia de Mahalanobis; Solo estoy reflejando lo que se reclamó. ¿Funcionaría mejor una distancia de Bhattacharya en su lugar?
ΔT\(Σ1Σ2\)1Δ
Kristian D'Amato

@ k-damato La distancia de Mahalanobis mide la distancia entre puntos, no distribuciones.
vqv

Muy bien, ¿alguien reconoce la ecuación anterior como algo significativo? Los deltas son vectores de desplazamiento.
Kristian D'Amato

@ Kristian He fusionado tus dos cuentas duplicadas. Utilice su cuenta registrada, de ahora en adelante.
chl

Respuestas:


6

Hay muchas nociones de distancia entre las distribuciones de probabilidad. Cuál usar depende de tus objetivos. La distancia de variación total es una forma natural de medir la superposición entre distribuciones. Si está trabajando con normales multivariantes, la divergencia Kullback-Leibler es matemáticamente conveniente. Aunque en realidad no es una distancia (ya que no puede ser simétrica y no obedece a la desigualdad del triángulo), limita la distancia de variación total (ver Desigualdad de Pinsker) .


2
un par de discusiones recientes aquí se han centrado en modificaciones a la divergencia de KL que resultan en una métrica adecuada. En caso de que esté interesado, vea aquí y aquí .
Cardenal

3

Introducción Como @vqv mencionó La variación total y Kullback Leibler son dos distancias interesantes. El primero es significativo porque puede estar directamente relacionado con los errores de primer y segundo tipo en las pruebas de hipótesis. El problema con la distancia de variación total es que puede ser difícil de calcular. La distancia de Kullback Leibler es más fácil de calcular y lo abordaré más adelante. No es simétrico, pero puede hacerse simétrico (de alguna manera artificial).

Respuesta Algo que menciono aquí es que si es la razón de probabilidad logarítmica entre sus dos medidas gaussianas P 0 , P 1 (digamos que para i = 0 , 1 P i tiene una medida de error media μ i y covarianza C i ) que también se cruza (en el caso gaussiano lo encontré bastante central en realidad) esLP0,P1i=0,1 PiμiCi

LL2(P1/2)2

para un bien elegido .P1/2

En palabras simples :

  • puede haber diferentes "direcciones" interesantes rotaciones, que se obtienen mediante su fórmula con uno de los "interpolada" covarianza matrices ( i = 1 , 2 , 3 , 4 o 5 ) definido en el extremo de esta publicación (el número 5 es el que propones en tu comentario a tu pregunta). Σ=Ci,1/2i=1,2,3,455
  • Como sus dos distribuciones tienen covarianzas diferentes, no es suficiente comparar las medias , también debe comparar las covarianzas.

Déjeme explicar por qué esto es mi sentimiento, cómo se puede calcular esto en el caso de y cómo elegir P 1 / 2 .C1C0P1/2

Caso lineal Si .C1=C0=Σ

σ=ΔΣ1Δ=2LL2(P1/2)2

donde es el "Interpolar" entre P 1 y P 0 (gaussiana con covarianza Σ y media ( μ 1 + μ 0 ) / 2 ). Tenga en cuenta que en este caso, la distancia de Hellinger, la distancia de variación total se puede escribir usando σ .P1/2P1P0Σ(μ1+μ0)/2σ

Cómo calcular en el caso generalL Una pregunta natural que surge de su pregunta (y la mía ) es qué es una "interpolación" natural entre y P 0 cuando C 1C 0 . Aquí, la palabra natural puede ser específico de usuario, pero por ejemplo puede estar relacionado con la mejor interpolación de tener un límite superior ajustado con otra distancia (por ejemplo, L 1 distancia aquí )P1P0C1C0L1

Escribiendo (i=0,j=1) puede ayudar a ver dónde está la tarea de interpolación, pero:

L=ϕ(Ci1/2(xμi))ϕ(Cj1/2(xμj))12log(CiCj)
i=0,j=1

L(x)=12Aij(xsij),xsijRp+Gij,xsijRpcij,[1]

con

Aij=CiCj,Gij=Sijmij,Sij=Ci+Cj2,
cij=18Aijmij,mijRp+12log|det(CjCi)|

y

mij=μiμjandsij=μi+μj2

es más relevante para fines computacionales. Para cualquier gaussiano con media y covarianza el cálculo de de la ecuación es un poco técnico pero faisible. También puede usarlo para calcular la distancia del leulizador Kulback. s 01 C L 2 L 2 ( P 1 / 2 ) 1P1/2s01CLL2(P1/2)21

Qué interpolación deberíamos elegir (es decir, cómo elegir )P1/2 Se entiende claramente de la Ecuación que hay muchos candidatos diferentes para (interpolar) en el caso "cuadrático". Los dos candidatos que encontré "más naturales" (subjetivos :)) surgen de definir para una distribución gaussiana con media :1PAGS1/ /2t[0 0,1]PAGSttμ1+(1-t)μ0 0

  1. ξ t = t ξ 1 + ( 1 - t ) ξ 0PAGSt1 como la distribución de (donde se extrae de ) que tiene la covarianza ).
    ξt=tξ1+(1-t)ξ0 0
    ξyoPAGSyo yo=0 0,1Ct,1=(tC11/ /2+(1-t)C0 01/ /2)2
  2. PAGSt2 con covarianza inversaCt,2-1=tC1-1+(1-t)C0 0-1
  3. PAGSt3 con covarianzaCt,3=tC1+(1-t)C0 0
  4. C - 1 t , 4 = ( t C - 1 / 2 1 + ( 1 - t ) C - 1 / 2 0 ) 2PAGSt4 4 con covarianza inversaCt,4 4-1=(tC1-1/ /2+(1-t)C0 0-1/ /2)2

EDITAR: El que propone en un comentario a su pregunta podría ser , por qué no ...Ct,5 5=C1tC0 01-t

Tengo mi opción favorita, que no es la primera :) no tengo mucho tiempo para discutir eso aquí. Tal vez edite esta respuesta más tarde ...


2

Esto es antiguo, pero para otros que están leyendo esto, la matriz de covarianza refleja la rotación de las distribuciones gaussianas y la media refleja la traducción o la posición central de la distribución. Para evaluar la distancia mahab, es simplemente D = ((m2-m1) * inv ((C1 + C2) / 2) * (m2-m1) '). Ahora, si sospecha que las dos distribuciones bivariadas son iguales, pero sospecha que se han rotado, calcule los dos pares de vectores propios y valores propios para cada distribución. Los vectores propios apuntan en la dirección de la propagación de los datos bivariados a lo largo de los ejes mayor y menor, y los valores propios indican la longitud de esta expansión. Si los valores propios son los mismos, entonces las dos distribuciones son las mismas pero rotadas. Tome el producto puntual entre los vectores propios para obtener el ángulo de rotación.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.