Pido disculpas, esta es una pregunta un poco "blanda".
La teoría de la información no tiene un concepto de complejidad computacional. Por ejemplo, una instancia de SAT, o una instancia de SAT más un bit que indica la satisfacción lleva la misma cantidad de información.
¿Hay alguna forma de formalizar el concepto de "polinomialmente conocible"?
Tal marco podría definir, por ejemplo, la noción de polinomio-KL divergencia entre una variable aleatoria X relativa Y como el número de bits necesarios para calcular X en tiempo polinómico dado Y.
Del mismo modo, la entropía de una variable aleatoria X podría definirse como el número de bits necesarios para codificar X de una manera que pueda decodificarse en tiempo polinomial.
¿Se ha estudiado tal generalización? ¿Se puede hacer consistente?