Andrew More define la ganancia de información como:
donde es la entropía condicional . Sin embargo, Wikipedia llama a la cantidad anterior información mutua .
Wikipedia, por otro lado, define la ganancia de información como la divergencia Kullback-Leibler (también conocida como divergencia de información o entropía relativa) entre dos variables aleatorias:
donde se define como la entropía cruzada .
Estas dos definiciones parecen ser inconsistentes entre sí.
También he visto a otros autores hablar sobre dos conceptos relacionados adicionales, a saber, la entropía diferencial y la ganancia de información relativa.
¿Cuál es la definición o relación precisa entre estas cantidades? ¿Hay un buen libro de texto que los cubra a todos?
- Ganancia de información
- Información mutua
- Entropía cruzada
- Entropía condicional
- Entropía diferencial
- Ganancia de información relativa