Voy a intentar esto, aunque está un poco por encima de mi cabeza, así que trata con una pizca de sal ...
No estás exactamente equivocado. Creo que donde cae tu experimento mental es que la entropía diferencial no es el caso limitante de la entropía. Supongo que debido a esto, se pierden los paralelos entre él y la complejidad de Kolmogorov.
Digamos que tenemos una variable aleatoria discreta . Podemos calcular su entropía de Shannon de la siguiente manera sumando todos sus valores posibles x i ,
H ( X ) = - ∑ i P ( X = x i ) log ( P ( X = x i ) ) .XXyo
H( X) = - ∑yoPAG( X= xyo) registro( P( X= xyo) ) .
Hasta ahora muy aburrido. Ahora supongamos que es una versión cuantizada de una variable aleatoria continua; por ejemplo, tenemos la función de densidad p ( ) que genera muestras del conjunto de números reales y la convertimos en un histograma. Tendremos un histograma lo suficientemente fino como para que la función de densidad sea esencialmente lineal. En ese caso vamos a tener una entropía como esta,
H ( X ) ≈ - ∑ i p ( X = x i ) δ x log ( p ( X = x i ) δ xXp ( )
dondeδxes el ancho de nuestros contenedores de histograma yxies el punto medio de cada uno. Tenemos un producto dentro de ese logaritmo: separémoslo y usemos la propiedad de las distribuciones de probabilidad que suman 1 para moverlo fuera de la suma, dándonos
H(X)≈-log ( δx ) - ∑ i p(X=xi)δxlog ( p(X=xi) ) .
H( X) ≈ - ∑yop ( X= xyo) δx log( p(X= xyo) δx ) ,
δXXyoH( X) ≈ - log( δx ) - ∑yop ( X= xyo) δx log( p(X= xyo) ) .
δx → dX
H( X) = - log( dx ) - ∫Xp ( X= x ) log( p(X= x ) ) dx .
Iniciar sesión( dx )
σ
δ
∫Xp ( X= x ) log( p ( X= x )q( X= x )) dX
q( X)Xp ( X)q( X)