Sí, Bernardo y Reuda definieron algo llamado "discrepancia intrínseca" que para todos los efectos es una versión "simétrica" de la divergencia KL. Tomando la divergencia KL de a como La discrepancia intrínseca viene dada por:PQκ(P∣Q)
δ(P,Q)≡min[κ(P∣Q),κ(Q∣P)]
La búsqueda de discrepancias intrínsecas (o criterio de referencia bayesiano) le dará algunos artículos sobre esta medida.
En su caso, simplemente tomaría la divergencia KL que es finita.
Otra medida alternativa a KL es la distancia de Hellinger
EDITAR: aclaración, algunos comentarios planteados sugieren que la discrepancia intrínseca no será finita cuando una densidad 0 cuando la otra no lo sea. Esto no es cierto si la operación de evaluar la densidad cero se lleva a cabo como un límite o . El límite está bien definido y es igual a para una de las divergencias de KL, mientras que la otra divergerá. Para ver esta nota:Q→0 P→0 0
δ(P,Q)≡min[∫Plog(PQ),∫Qlog(QP)]
Tomando el límite como sobre una región de la integral, la segunda integral diverge y la primera integral converge a sobre esta región (suponiendo que las condiciones sean tales que uno pueda intercambiar límites e integración). Esto se debe a que . Debido a la simetría en y el resultado también es válido para .P→00limz→0zlog(z)=0PQQ