Estoy tratando de entender la forma normalizada de información mutua puntual.
¿Por qué la probabilidad conjunta logarítmica normaliza la información mutua puntual entre [-1, 1]?
La información mutua puntual es:
p (x, y) está delimitado por [0, 1] por lo que log (p (x, y)) está delimitado por (, 0]. Parece que el log (p (x, y)) debería equilibrar de alguna manera los cambios en el numerador, pero no entiendo exactamente cómo. También me recuerda a la entropía , pero nuevamente no entiendo la relación exacta.