La divergencia de Kullback-Leibler es una métrica para comparar dos funciones de densidad de probabilidad, pero ¿qué métrica se utiliza para comparar dos GP e ?Y
La divergencia de Kullback-Leibler es una métrica para comparar dos funciones de densidad de probabilidad, pero ¿qué métrica se utiliza para comparar dos GP e ?Y
Respuestas:
Observe que la distribución de los procesos gaussianos es la extensión del gaussiano multivariante para posiblemente infinito . Por lo tanto, puede utilizar la divergencia KL entre las distribuciones de probabilidad GP integrando over :
Puede usar métodos MC para aproximar numéricamente esta cantidad sobre un \ mathcal {X} discretizado muestreando repetidamente los procesos de acuerdo con su distribución GP. No sé si la velocidad de convergencia es suficientemente buena ...
Observe que si es finito con , entonces retrocede a la divergencia KL habitual para distribuciones normales multivariadas: | X | = n D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2
Recuerde que si es un proceso gaussiano con función media función de covarianza , entonces, para cada , el vector aleatorio tiene una distribución normal multivariada con vector medio y matriz de covarianza , donde hemos usado la abreviatura común . m K t 1 , … , t k ∈ T ( X ( t 1 ) , … , X ( t k ) ) ( m ( t 1 ) , … , m ( t k ) ) Σ = ( σ i j j ) ) X ( t
Cada realización es una función real cuyo dominio es el conjunto de índices . Supongamos que . Dados dos procesos gaussianos e , una distancia común entre dos realizaciones e es. Por lo tanto, parece natural definir la distancia entre los dos procesos e como X Y d ( X , Y ) = E0 ≤ t 1 < ⋯ < t k ≤ 1 ( x i 1 , … , x i k ) ( y i 1 , … , y i k ) ( X ( t 1 ) , … , X ( t k ) ) ( Y ( t 1 ) , … , Y