Respuestas:
Cover y el libro Thomas of Elements Theory Theory es una buena fuente sobre la entropía y sus aplicaciones, aunque no sé si aborda exactamente los problemas que tiene en mente.
Estas notas de clase sobre teoría de la información de O. Johnson contienen una buena introducción a los diferentes tipos de entropía.
Si está interesado en la estadística matemática sobre la entropía, puede consultar este libro
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
¡está disponible gratuitamente!
La entropía es solo una (como concepto): la cantidad de información necesaria para describir algún sistema; solo hay muchas generalizaciones. La entropía de muestra es solo un descriptor similar a la entropía utilizado en el análisis de la frecuencia cardíaca.
La teoría del juego, la máxima entropía, la mínima discrepancia y la sólida teoría de decisión bayesiana de Grünwald y Dawid discuten las generalizaciones de la noción tradicional de entropía. Dada una pérdida, su función de entropía asociada es el mapeo de una distribución a la pérdida esperada mínima alcanzable para esa distribución. La función de entropía habitual es la entropía generalizada asociada con la pérdida de registro. Otras opciones de pérdidas producen entropía diferente, como la entropía de Rényi.