¿La utilidad de las entropías de Renyi?


14

La mayoría de nosotros estamos familiarizados, o al menos hemos oído hablar, de la entropía de Shannon de una variable aleatoria, H(X)=-mi[Iniciar sesiónpag(X)] , y todas las medidas teóricas relacionadas con la información, como la entropía relativa, información mutua, etc. Hay algunas otras medidas de entropía que se usan comúnmente en la informática teórica y la teoría de la información, como la entropía mínima de una variable aleatoria.

He comenzado a ver estas llamadas entropías de Renyi con más frecuencia mientras navego por la literatura. Ellos generalizan la entropía de Shannon y la entropía mínima, y ​​de hecho proporcionan un espectro completo de medidas entrópicas de una variable aleatoria. Trabajo principalmente en el área de información cuántica, donde la versión cuántica de la entropía de Renyi también se considera con bastante frecuencia.

Lo que realmente no entiendo es por qué son útiles. He oído que a menudo son más fáciles de trabajar analíticamente que decir entropía o minentropía de Shannon / von Neumann. Pero también pueden relacionarse con la entropía / min-entropía de Shannon.

¿Alguien puede proporcionar ejemplos (clásicos o cuánticos) de cuando usar las entropías de Renyi es "lo correcto"? Lo que estoy buscando es un "gancho mental" o "plantilla" para saber cuándo podría querer usar las entropías de Renyi.

¡Gracias!


Anexo a mi respuesta: Parece que hay una definición probabilística de la entropía q-Renyi ( ) i, e H q ( { p i } n i = 1 ) = 1qZ+. Entonceslimq1Hq=-Σpkln(pk)y esto RHS es llamado el `` Shannon Entropy" Se define también el otro límite es decir.H(X)=ln[1Hq({pi}i=1n)=11qln[k=1npkq]limq1Hq=pkln(pk). Estas ideas parecen haber encontrado usos en la construcción de expansores como se ve aquí, math.rutgers.edu/~sk1233/courses/topics-S13, math.ias.edu/~avi/PUBLICATIONS/MYPAPERS/CRVW01/crvw01.pdf, arxiv. org / pdf / math / 0406038.pdfH(X)=ln[1maxaPr[X=a]]
Anirbit

Respuestas:


15

Considerar tratando de hacer conjeturas atómicas para una variable aleatoria desconocida distribuidos en un conjunto finito A . En la entropía de Shannon, se supone que puede consultar bit por bit, es decir, si A = { 1 , ... , N } puede preguntar:XUN.UN={1,...,norte}

¿Es ? X{1,...,norte/ /2}(asuma incluso o use las funciones de piso / techo)norte

En criptografía y algunos escenarios de decodificación esto no es realista. Intentando adivinar una contraseña desconocida necesita hacer consultas atómicas, es decir, preguntar si es un valor específico.X

Resulta que el número esperado de consultas para adivinar una variable aleatoria luego depende estrechamente de la entropía de Renyi de orden 1 / 2. También lo hacen algunos momentos más altos. Por ejemploX1/ /2)

E[G](xAPX(x)1/2)22

y el numerador es esencialmente el logaritmo de la entropía de Renyi de orden También se puede hacer que la entropía de Shannon sea muy grande, mientras que la entropía de Renyi y la expectativa del número de conjeturas es muy pequeña. Si confiaras en la entropía de Shannon por seguridad, estarías en problemas en ese caso.1/2.

Consulte también la pregunta relacionada Adivinar un valor de entropía bajo en múltiples intentos

Algunas referencias:

  1. JO Pliam, Sobre la incompatibilidad de la entropía y las conjeturas marginales en los ataques de fuerza bruta. INDOCRYPT 2000: 67-79
  2. E. Arikan, Una desigualdad en adivinar y su aplicación a la decodificación secuencial. IEEE Transactions on Information Theory 42 (1): 99-105,1996.
  3. S. Boztas, Sobre las entropías de Renyi y sus aplicaciones para adivinar ataques en criptografía, Transacciones IEICE sobre Fundamentos de Electrónica, Comunicaciones y Ciencias de la Computación 97 (12): 2542-2548, 2014.

No puedo acceder a este documento de S.Boztas. ¿Tienes un enlace de acceso público?
Anirbit

@Anirbit vea el repositorio de investigación RMIT, researchbank.rmit.edu.au
kodlu

He buscado a través de ese enlace. Solo me llevó en círculos. ¡Nunca encontré un archivo pdf accesible al público!
Anirbit

@Anirbit, lo siento, ¡pensé que realmente estaba depositado allí!
kodlu

18

La entropía de Renyi es análoga, en cierto sentido, a las normas , así que primero recordemos por qué esas normas son útiles.pag

Supongamos que tenemos un vector de números . Queremos tener un solo número que represente, en cierto sentido, cómo se ve el elemento típico de un .unRnorteun

Una forma de hacerlo es tomar el promedio de los números en , que corresponde aproximadamente a la norma 1 : E 1 i n [ | a i | ] . Esto a menudo es útil, pero para algunas aplicaciones tiene los siguientes problemas: Primero, la norma 1 no nos da un buen límite superior en el elemento más grande de a , porque si hay un solo elemento grande y muchos ceros, el 1 norma será significativamente más pequeña que el elemento más grande. Por otro lado, el 1un1mi1yonorte[El |unyoEl |]1un11norma también no nos da una buena cota lo pequeño que los elementos de son, por ejemplo, el número de ceros de una cuenta - este problema se produce exactamente en la misma situación que antes.unun

Por supuesto, cuando los elementos de tienen mucha varianza, como en el escenario extremo anterior, ningún número puede resolver los dos problemas anteriores. Tenemos un compromiso. Por ejemplo, si solo queremos conocer el elemento más grande, podemos usar la norma , pero luego perderemos toda la información sobre los elementos más pequeños. Si queremos el número de ceros, podemos mirar la norma 0 , que es solo el tamaño del soporte de a .un0 0un

Ahora, la razón para considerar las normas es que nos dan todo el equilibrio continuo entre los dos extremos. Si queremos más información sobre los elementos grandes, consideramos que p es más grande y viceversa.pagpag

Lo mismo ocurre con las entropías de Renyi: la entropía de Shanon es como la norma : nos dice algo sobre la probabilidad "típica" de un elemento, pero nada sobre la varianza o los extremos. La entropía mínima nos da información sobre el elemento con la mayor probabilidad, pero pierde toda la información sobre el resto. El tamaño del soporte da el otro extremo. Las entropías de Renyi nos dan una compensación continua entre los dos extremos.1

Por ejemplo, muchas veces la entropía Renyi-2 es útil porque está, por un lado, cerca de la entropía de Shanon, y por lo tanto contiene información sobre todos los elementos de la distribución, y por otro lado, brinda más información sobre los elementos con mayor probabilidad. En particular, se sabe que los límites de la entropía Renyi-2 dan límites a la entropía mínima, véase, por ejemplo, el Apéndice A aquí: http://people.seas.harvard.edu/~salil/research/conductors-prelim .PD


11

La entropía de Renyi (de orden 2) es útil en criptografía para analizar la probabilidad de colisiones.

Recuerde que la entropía de Renyi de orden 2 de una variable aleatoria viene dada porX

H2(X)=-Iniciar sesión2XPr[X=X]2.

Resulta que nos permite medir la probabilidad de que dos valores dibujados en función de la distribución de X sean iguales ("colisionar"): esta probabilidad es exactamente 2 - H 2 ( X ) . Después de extraer n veces de esta distribución, el número esperado de colisiones entre estos n sorteos es C ( n , 2 ) 2 - H 2 ( X ) .H2(X)X2-H2(X)nortenorteC(norte,2)2-H2(X)

Estos hechos son útiles en la criptografía, donde las colisiones a veces pueden ser problemáticas y permitir ataques.

Para algunos análisis de otros usos en criptografía, recomiendo la siguiente tesis doctoral:

Christian Cachin. Medidas de entropía y seguridad incondicional en criptografía . Tesis doctoral, ETH Zurich, mayo de 1997.


¿Existe una definición probabilística tan directa de cualquier entropía q-Renyi? (Como puede ver en mi respuesta, la única forma en que sé definir esto en q arbitraria es mediante la definición de funciones de partición correspondientes a un sistema físico que se ha especificado a través de su Lagrangian o Hamiltonian o su acción)
Anirbit

@ Anirbit, no sé. Ninguna que recuerde haber visto (aunque es posible que la entropía q-Renyi pueda llevar a límites en otros límites que nos interesan ...)
DW

También parece que la "entropía de la información" parece ser básicamente la "entropía termodinámica". Entonces, incluso en (q = 1) -enentropía Renyi, es decir, entropía de enredo, hay una brecha conceptual sobre la interpretación compleja de la misma.
Anirbit


@DW Parece haber una interpretación probabilística. Ve mi comentario sobre la pregunta original.
Anirbit

3

Esta otra respuesta de stackexchange y esta publicación de blog pueden ser muy útiles para tener una idea rápida de un ejemplo básico,

Hablando en términos generales, las entropías de Renyi conocen los estados excitados de un sistema cuántico, pero la entropía de enredos conoce los estados fundamentales. ADVERTENCIA: Esta intuición podría ser terriblemente tosca, pero podría ser un buen "gancho mental": ¡DI estaría MUY feliz de saber de una manera mejor y precisa de decir esto!

S1SqqZ+S1=lyometroyotq1SqSqqRq1qRSq

q>1q-q

Siempre hay muchos problemas sobre la existencia y la buena postura cuando uno intenta hacer estas continuaciones analíticas, pero para alguien como yo que se crió en una dieta diaria de integrales de ruta Feynman es un problema muy común con el que lidiar y nosotros tener muchas herramientas para abordar esto. Tres buenos documentos para analizar estos problemas son, http://arxiv.org/pdf/1306.5242.pdf , http://arxiv.org/pdf/1402.5396.pdf , http://arxiv.org/pdf/1303.7221 .pdf (el último de estos documentos podría ser un punto de partida más fácil) Esta presentación también podría ayudar, https://www.icts.res.in/media/uploads/Talk/Document/Tadashi_Takayanagi.pdf

¡Lo que dice la entropía de Renyi en términos de teoría de la complejidad cuántica podría ser una pregunta emocionante! ¿Se puede pensar que el índice de Renyi está parametrizando de alguna manera una jerarquía de clases de complejidad? ¡Eso debería ser divertido si es verdad! Déjame saber :)


0

La entropía de Renyi ha encontrado su camino en las definiciones de flujo de información cuantitativa , un área o investigación de seguridad. Ver la encuesta de G. Smith .

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.