¿Cómo se comparan dos procesos gaussianos?


14

La divergencia de Kullback-Leibler es una métrica para comparar dos funciones de densidad de probabilidad, pero ¿qué métrica se utiliza para comparar dos GP e ?YXY


d(X,Y)=E[supt|X(t)Y(t)|]
Zen

@ Zen: si tienes tiempo, me interesa saber más sobre esta métrica de distancia.
Neil G

Hola neil No sé mucho al respecto. Por favor, mira mi respuesta a continuación.
Zen

Respuestas:


8

Observe que la distribución de los procesos gaussianos XR es la extensión del gaussiano multivariante para posiblemente infinito X . Por lo tanto, puede utilizar la divergencia KL entre las distribuciones de probabilidad GP integrando over RX :

DKL(P|Q)=RXlogdPdQdP.

Puede usar métodos MC para aproximar numéricamente esta cantidad sobre un \ mathcal {X} discretizado Xmuestreando repetidamente los procesos de acuerdo con su distribución GP. No sé si la velocidad de convergencia es suficientemente buena ...

Observe que si es finito con , entonces retrocede a la divergencia KL habitual para distribuciones normales multivariadas: | X | = n D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2X|X|=n

DKL(GP(μ1,K1),GP(μ2,K2))=12(tr(K21K1)+(μ2μ1)K21(μ2μ1)n+log|K2||K1|)

¿Cómo puedo calcular dos medias (mu1 y mu2) que mencionaste? ¿O debería tomarlos igual a cero como de costumbre para el proceso gaussiano?
Marat Zakirov

4

Recuerde que si es un proceso gaussiano con función media función de covarianza , entonces, para cada , el vector aleatorio tiene una distribución normal multivariada con vector medio y matriz de covarianza , donde hemos usado la abreviatura común . m K t 1 , , t kT ( X ( t 1 ) , , X ( t k ) ) ( m ( t 1 ) , , m ( t k ) ) Σ = ( σ i j j ) ) X ( tX:T×ΩRmKt1,,tkT(X(t1),,X(tk))(m(t1),,m(tk))Σ=(σij)=(K(ti,tj))X(t)=X(t,)

Cada realización es una función real cuyo dominio es el conjunto de índices . Supongamos que . Dados dos procesos gaussianos e , una distancia común entre dos realizaciones e es. Por lo tanto, parece natural definir la distancia entre los dos procesos e como X(,ω)TT=[0,1]XYX(,ω)Y(,ω)X Y d ( X , Y ) = Esupt[0,1]|X(t,ω)Y(t,ω)|XY0 t 1 < < t k1 ( x i 1 , , x i k ) ( y i 1 , , y i k ) ( X ( t 1 ) , , X ( t k ) ) ( Y ( t 1 ) , , Y

d(X,Y)=E[supt[0,1]|X(t)Y(t)|].()
No sé si hay una expresión analítica para esta distancia, pero creo que puedes calcular una aproximación de Monte Carlo de la siguiente manera. Arregle una cuadrícula fina , y extraiga muestras y de los vectores normales aleatorias y , respectivamente, para . Aproximadamente por 0t1<<tk1(xi1,,xik)(yi1,,yik)(X(t1),,X(tk))i = 1 , , N d ( X , Y ) 1(Y(t1),,Y(tk))i=1,,Nd(X,Y)
1Ni=1Nmax1jk|xijyij|.

¿Cómo muestras de cada vector? Si solo muestra las medias en cada uno de los GP, no tendrá en cuenta las variaciones. De lo contrario, deberá idear una técnica de muestreo que sea consistente.
pushkar

Este es un excelente recurso: gaussianprocess.org/gpml/chapters
Zen

También puede leer todas las respuestas a esta pregunta: stats.stackexchange.com/questions/30652/…
Zen

Tenga en cuenta que esto no es una distancia ya que . Como el KL compara dos distribuciones y no dos realizaciones, la distancia de Zen entre dos GP debe definirse como , y tenemos que para no degenerado proceso gaussiana . d ( G 1 , G 2 ) = E X G 1 , Y G 2 [ sup t | X ( t ) - Y ( t ) | ] E X G , Y G sup t | X ( t ) - Y ( td(X,X)0d(G1,G2)=EXG1,YG2[supt|X(t)Y(t)|]GEXG,YGsupt|X(t)Y(t)|>0G
Emile

@Emile: ¿cómo es que usa la definición ? d(X,X)0()
Zen
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.