Sé del trabajo de Shannon con la entropía, pero últimamente he trabajado en estructuras de datos sucintas en las que la entropía empírica se usa a menudo como parte del análisis de almacenamiento.
Shannon definió la entropía de la información producida por una fuente de información discreta como , donde es la probabilidad de que ocurra el evento , por ejemplo, un carácter específico generado, y hay posibles eventos. p i i k
Como señaló MCH en los comentarios, la entropía empírica es la entropía de la distribución empírica de estos eventos y, por lo tanto, está dada por donde es el número de ocurrencias observadas del evento y es el número total de eventos observados. Esto se llama entropía empírica de orden cero . La noción de Shannon de entropía condicional tiene una versión empírica de orden superior similar . niin
Shannon no usó el término entropía empírica, aunque seguramente merece algo del crédito por este concepto. ¿Quién utilizó por primera vez esta idea y quién utilizó por primera vez el nombre (muy lógico) entropía empírica para describirla?