Introducción Como @vqv mencionó La variación total y Kullback Leibler son dos distancias interesantes. El primero es significativo porque puede estar directamente relacionado con los errores de primer y segundo tipo en las pruebas de hipótesis. El problema con la distancia de variación total es que puede ser difícil de calcular. La distancia de Kullback Leibler es más fácil de calcular y lo abordaré más adelante. No es simétrico, pero puede hacerse simétrico (de alguna manera artificial).
Respuesta Algo que menciono aquí es que si es la razón de probabilidad logarítmica entre sus dos medidas gaussianas P 0 , P 1 (digamos que para i = 0 , 1 P i tiene una medida de error media μ i y covarianza C i ) que también se cruza (en el caso gaussiano lo encontré bastante central en realidad) esLP0,P1i=0,1 PiμiCi
∥L∥2L2(P1/2)
para un bien elegido .P1/2
En palabras simples :
- puede haber diferentes "direcciones" interesantes rotaciones, que se obtienen mediante su fórmula con uno de los "interpolada" covarianza matrices ( i = 1 , 2 , 3 , 4 o 5 ) definido en el extremo de esta publicación (el número 5 es el que propones en tu comentario a tu pregunta). Σ=Ci,1/2i=1,2,3,455
- Como sus dos distribuciones tienen covarianzas diferentes, no es suficiente comparar las medias , también debe comparar las covarianzas.
Déjeme explicar por qué esto es mi sentimiento, cómo se puede calcular esto en el caso de y cómo elegir P 1 / 2 .C1≠C0P1/2
Caso lineal Si .C1=C0=Σ
σ=ΔΣ−1Δ=∥2L∥2L2(P1/2)
donde es el "Interpolar" entre P 1 y P 0 (gaussiana con covarianza Σ y media ( μ 1 + μ 0 ) / 2 ). Tenga en cuenta que en este caso, la distancia de Hellinger, la distancia de variación total se puede escribir usando σ .P1/2P1P0Σ(μ1+μ0)/2σ
Cómo calcular en el caso generalL Una pregunta natural que surge de su pregunta (y la mía ) es qué es una "interpolación" natural entre y P 0 cuando C 1 ≠ C 0 . Aquí, la palabra natural puede ser específico de usuario, pero por ejemplo puede estar relacionado con la mejor interpolación de tener un límite superior ajustado con otra distancia (por ejemplo, L 1 distancia aquí )P1P0C1≠C0L1
Escribiendo
(i=0,j=1) puede ayudar a ver dónde está la tarea de interpolación, pero:
L =ϕ( C- 1 / 2yo( x - μyo) ) - ϕ ( C- 1 / 2j( x - μj) ) - 12Iniciar sesión( CyoC-j)
i = 0 , j = 1
L (x)=- 12⟨ Unyo j( x - syo j) , x - syo j⟩Rpags+ ⟨ Gyo j, x - syo j⟩Rpags- cyo j,[ 1 ]
con
UNAyo j= C-yo- C-j,solyo j= Syo jmetroyo j,Syo j= C-yo+ C-j2,
Cyo j= 18⟨ Unyo jmetroyo j, myo j⟩Rpags+ 12Iniciar sesiónEl | det( C-jCyo) |
y
metroyo j= μyo- μjun n dsyo j= μyo+ μj2
es más relevante para fines computacionales. Para cualquier gaussiano con media y covarianza el cálculo de de la ecuación es un poco técnico pero faisible. También puede usarlo para calcular la distancia del leulizador Kulback. s 01 C ‖ L ‖ 2 L 2 ( P 1 / 2 ) 1PAGS1 / 2s01C∥ L ∥2L2( P1 / 2)1
Qué interpolación deberíamos elegir (es decir, cómo elegir )PAGS1 / 2
Se entiende claramente de la Ecuación que hay muchos candidatos diferentes para (interpolar) en el caso "cuadrático". Los dos candidatos que encontré "más naturales" (subjetivos :)) surgen de definir para una distribución gaussiana con media :1PAGS1 / 2t ∈ [ 0 , 1 ]PAGStt μ1+ ( 1 - t ) μ0 0
- ξ t = t ξ 1 + ( 1 - t ) ξ 0PAGS1t como la distribución de (donde se extrae de ) que tiene la covarianza ).
ξt= t ξ1+ ( 1 - t ) ξ0 0
ξyoPAGSyo i = 0 , 1Ct , 1= ( t C1 / 21+ ( 1 - t ) C1 / 20 0)2
- PAGS2t con covarianza inversaC- 1t , 2= t C- 11+ ( 1 - t ) C- 10 0
- PAGS3t con covarianzaCt , 3= t C1+ ( 1 - t ) C0 0
- C - 1 t , 4 = ( t C - 1 / 2 1 + ( 1 - t ) C - 1 / 2 0 ) 2PAGS4 4t con covarianza inversaC- 1t , 4= ( t C- 1 / 21+ ( 1 - t ) C- 1 / 20 0)2
EDITAR: El que propone en un comentario a su pregunta podría ser , por qué no ...Ct , 5= Ct1C1 - t0 0
Tengo mi opción favorita, que no es la primera :) no tengo mucho tiempo para discutir eso aquí. Tal vez edite esta respuesta más tarde ...