La entropía de Renyi es análoga, en cierto sentido, a las normas , así que primero recordemos por qué esas normas son útiles.ℓpag
Supongamos que tenemos un vector de números . Queremos tener un solo número que represente, en cierto sentido, cómo se ve el elemento típico de un .a ∈ Rnorteun
Una forma de hacerlo es tomar el promedio de los números en , que corresponde aproximadamente a la norma ℓ 1 : E 1 ≤ i ≤ n [ | a i | ] . Esto a menudo es útil, pero para algunas aplicaciones tiene los siguientes problemas: Primero, la norma ℓ 1 no nos da un buen límite superior en el elemento más grande de a , porque si hay un solo elemento grande y muchos ceros, el ℓ 1 norma será significativamente más pequeña que el elemento más grande. Por otro lado, el ℓ 1unℓ1mi1 ≤ i ≤ n[ | unyoEl | ]ℓ1unℓ1ℓ1norma también no nos da una buena cota lo pequeño que los elementos de son, por ejemplo, el número de ceros de una cuenta - este problema se produce exactamente en la misma situación que antes.unun
Por supuesto, cuando los elementos de tienen mucha varianza, como en el escenario extremo anterior, ningún número puede resolver los dos problemas anteriores. Tenemos un compromiso. Por ejemplo, si solo queremos conocer el elemento más grande, podemos usar la norma ℓ ∞ , pero luego perderemos toda la información sobre los elementos más pequeños. Si queremos el número de ceros, podemos mirar la norma ℓ 0 , que es solo el tamaño del soporte de a .unℓ∞ℓ0 0un
Ahora, la razón para considerar las normas es que nos dan todo el equilibrio continuo entre los dos extremos. Si queremos más información sobre los elementos grandes, consideramos que p es más grande y viceversa.ℓpagpag
Lo mismo ocurre con las entropías de Renyi: la entropía de Shanon es como la norma : nos dice algo sobre la probabilidad "típica" de un elemento, pero nada sobre la varianza o los extremos. La entropía mínima nos da información sobre el elemento con la mayor probabilidad, pero pierde toda la información sobre el resto. El tamaño del soporte da el otro extremo. Las entropías de Renyi nos dan una compensación continua entre los dos extremos.ℓ1
Por ejemplo, muchas veces la entropía Renyi-2 es útil porque está, por un lado, cerca de la entropía de Shanon, y por lo tanto contiene información sobre todos los elementos de la distribución, y por otro lado, brinda más información sobre los elementos con mayor probabilidad. En particular, se sabe que los límites de la entropía Renyi-2 dan límites a la entropía mínima, véase, por ejemplo, el Apéndice A aquí: http://people.seas.harvard.edu/~salil/research/conductors-prelim .PD