Recientemente leí este artículo sobre la entropía de una distribución de probabilidad discreta. Describe una buena manera de pensar en la entropía como los bits de número esperados (al menos cuando se usa en su definición de entropía) necesarios para codificar un mensaje cuando su codificación es óptima, dada la distribución de probabilidad de las palabras que usa.
Sin embargo, cuando se extiende al caso continuo como aquí , creo que esta forma de pensar se rompe, ya que para cualquier distribución de probabilidad continua (corríjame si eso está mal), así que Me preguntaba si hay una buena manera de pensar sobre lo que significa la entropía continua, al igual que en el caso discreto.