Estos sabios caballeros,
Kotz, S., Kozubowski, TJ y Podgorski, K. (2001). La distribución y generalizaciones de Laplace: una nueva visita con aplicaciones a comunicaciones, economía, ingeniería y finanzas (No. 183). Saltador.
desafiarnos con un ejercicio:
La prueba puede seguir la prueba teórica de la información de que lo normal es la entropía máxima para la media y la varianza. Específicamente: Sea la densidad de Laplace anterior, y sea cualquier otra densidad, pero que tenga la misma media y la desviación absoluta media. Esto significa que se cumple la siguiente igualdad:g ( x )f(x)g(x)
Eg(|X−c1|)=∫g(x)|x−c1|dx=c2=∫f(x)|x−c1|dx=Ef(|X−c1|)[1]
Ahora considere la
divergencia Kullback-Leibler de las dos densidades:
0≤DKL(g||f)=∫g(x)ln(g(x)f(x))dx=∫g(x)lng(x)dx−∫g(x)lnf(x)dx[2]
La primera integral es el negativo de la entropía (diferencial) de , denotarlo . La segunda integral es (escribir explícitamente el pdf laplaciano)g−h(g)
∫g(x)ln[f(x)]dx=∫g(x)ln[12c2exp{−1c2|x−c1|}]dx
=ln[12c2]∫g(x)dx−1c2∫g(x)|x−c1|dx
La primera integral se integra a la unidad, y usando también la ecuación. obtenemos
[1]
∫g(x)ln[f(x)]dx=−ln[2c2]−1c2∫f(x)|x−c1|dx=−(ln[2c2]+1)
Pero esto es lo negativo de la entropía diferencial del laplaciano, denotándolo .
−h(f)
Insertar estos resultados en la ecuación. tenemos
Dado que fue arbitrario, esto prueba que el por encima de la densidad laplaciana es la entropía máxima entre todas las distribuciones con las prescripciones anteriores.0 ≤ D ( g | | f ) = - h ( g ) - ( - h ( f ) ) ⇒ h ( g ) ≤ h ( f ) g[2]
0≤D(g||f)=−h(g)−(−h(f))⇒h(g)≤h(f)
g