Tengo problemas para desarrollar cierta intuición sobre la entropía conjunta. = incertidumbre en la distribución conjunta p ( x , y ) ; H ( X ) = incertidumbre en p x ( x ) ; H ( Y ) = incertidumbre en p y ( y ) .
Si H (X) es alto, la distribución es más incierta y si conoce el resultado de dicha distribución, ¡entonces tiene más información! Entonces H (X) también cuantifica la información.
Ahora podemos mostrar
Pero si conoce puede obtener p x ( x ) y p y ( y ), por lo que en cierto sentido p ( x , y ) tiene más información que p x ( x ) y p y ( y ) , entonces, ¿no debería ser la incertidumbre relacionada con p (x, y) más que la suma de las incertidumbres individuales?