Estoy comparando dos distribuciones con la divergencia KL que me devuelve un número no estandarizado que, según lo que leí sobre esta medida, es la cantidad de información que se requiere para transformar una hipótesis en la otra. Tengo dos preguntas:
a) ¿Hay alguna manera de cuantificar una divergencia KL para que tenga una interpretación más significativa, por ejemplo, como un tamaño de efecto o un R ^ 2? ¿Alguna forma de estandarización?
b) En R, cuando se usa KLdiv (paquete flexmix), se puede establecer el valor 'esp' (estándar esp = 1e-4) que establece todos los puntos más pequeños que esp en algún estándar para proporcionar estabilidad numérica. He estado jugando con diferentes valores esp y, para mi conjunto de datos, obtengo una divergencia KL cada vez más grande cuanto menor es el número que elijo. Que esta pasando? Esperaría que cuanto más pequeño sea el esp, más confiables serán los resultados ya que permiten que más 'valores reales' se conviertan en parte de la estadística. ¿No? Tengo que cambiar el esp ya que de lo contrario no calcula la estadística, sino que simplemente aparece como NA en la tabla de resultados ...