Preguntas etiquetadas con kullback-leibler

Una medida asimétrica de distancia (o disimilitud) entre distribuciones de probabilidad. Podría interpretarse como el valor esperado de la razón de probabilidad logarítmica bajo la hipótesis alternativa.



1
KL divergencia entre dos gaussianos multivariados
Tengo problemas para derivar la fórmula de divergencia KL suponiendo dos distribuciones normales multivariadas. He hecho el caso univariado con bastante facilidad. Sin embargo, ha pasado bastante tiempo desde que tomé las estadísticas de matemáticas, por lo que tengo algunos problemas para extenderlo al caso multivariante. Estoy seguro de que …

1
¿Por qué utilizamos la divergencia Kullback-Leibler en lugar de la entropía cruzada en la función objetivo t-SNE?
En mi opinión, la divergencia KL de la distribución de la muestra a la distribución verdadera es simplemente la diferencia entre entropía cruzada y entropía. ¿Por qué utilizamos la entropía cruzada para ser la función de costo en muchos modelos de aprendizaje automático, pero utilizamos la divergencia de Kullback-Leibler en …


2
Diferencias entre la distancia Bhattacharyya y la divergencia KL
Estoy buscando una explicación intuitiva para las siguientes preguntas: En estadística y teoría de la información, ¿cuál es la diferencia entre la distancia de Bhattacharyya y la divergencia de KL, como medidas de la diferencia entre dos distribuciones de probabilidad discretas? ¿No tienen absolutamente ninguna relación y miden la distancia …

4
Medidas de similitud o distancia entre dos matrices de covarianza.
¿Hay alguna medida de similitud o distancia entre dos matrices de covarianza simétrica (ambas tienen las mismas dimensiones)? Estoy pensando aquí en análogos a la divergencia KL de dos distribuciones de probabilidad o la distancia euclidiana entre vectores, excepto que se aplica a las matrices. Me imagino que habría bastantes …

4
¿Una adaptación de la distancia Kullback-Leibler?
Mira esta imagen: Si extraemos una muestra de la densidad roja, se espera que algunos valores sean inferiores a 0.25, mientras que es imposible generar dicha muestra a partir de la distribución azul. Como consecuencia, la distancia Kullback-Leibler de la densidad roja a la densidad azul es infinita. Sin embargo, …

3
¿Cuáles son las ventajas de la métrica de Wasserstein en comparación con la divergencia Kullback-Leibler?
¿Cuál es la diferencia práctica entre la métrica de Wasserstein y la divergencia de Kullback-Leibler ? La métrica de Wasserstein también se conoce como la distancia del motor de la Tierra . De Wikipedia: La métrica de Wasserstein (o Vaserstein) es una función de distancia definida entre distribuciones de probabilidad …




3
Conexión entre la métrica de Fisher y la entropía relativa
¿Alguien puede probar la siguiente conexión entre la métrica de información de Fisher y la entropía relativa (o divergencia KL) de una manera puramente matemática rigurosa? D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(∥da∥3)D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(‖da‖3)D( p(\cdot , a+da) \parallel p(\cdot,a) ) =\frac{1}{2} g_{i,j} \, da^i \, da^j + (O( \|da\|^3) donde a=(a1,…,an),da=(da1,…,dan)a=(a1,…,an),da=(da1,…,dan)a=(a^1,\dots, a^n), da=(da^1,\dots,da^n) , gi,j=∫∂i(logp(x;a))∂j(logp(x;a)) p(x;a) dxgi,j=∫∂i(log⁡p(x;a))∂j(log⁡p(x;a)) …


1
¿Por qué la divergencia KL no es negativa?
¿Por qué la divergencia KL no es negativa? Desde la perspectiva de la teoría de la información, tengo una comprensión tan intuitiva: Digamos que hay dos conjuntos y que se componen del mismo conjunto de elementos etiquetados por . y son diferentes distribuciones de probabilidad sobre el conjunto y respectivamente.AAABBBxxxp(x)p(x)p(x)q(x)q(x)q(x)AAABBB …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.