¿Cuál es la función de densidad de probabilidad de entropía máxima para una variable continua positiva de media dada y desviación estándar?


13

¿Cuál es la distribución máxima de entropía para una variable continua positiva, dados sus primeros y segundos momentos?

Por ejemplo, una distribución gaussiana es la distribución de entropía máxima para una variable ilimitada, dada su media y desviación estándar, y una distribución Gamma es la distribución de entropía máxima para una variable positiva, dado su valor medio y el valor medio de su logaritmo.

Respuestas:


13

Uno puede simplemente usar el teorema de Boltzmann que se encuentra en el mismo artículo de Wikipedia al que señala .

Tenga en cuenta que especificar la media y la varianza es equivalente a especificar los dos primeros momentos crudos: cada uno determina el otro (en realidad no es necesario invocar esto, ya que podemos aplicar el teorema directamente a la media y la varianza, es un poco más simple de esta manera )

El teorema establece que la densidad debe ser de la forma:

F(X)=CExp(λ1X+λ2X2) para todos X0 0

La integrabilidad sobre la línea real positiva restringirá que sea 0 , y creo que impone algunas restricciones en las relaciones entre el λλ20 0λ s (que presumiblemente se satisfarán automáticamente al comenzar desde la media y la varianza especificadas en lugar de los momentos brutos).

Para mi sorpresa (ya que no lo hubiera esperado cuando comencé esta respuesta), esto parece dejarnos con una distribución normal truncada.

De hecho, no creo que haya usado este teorema antes, por lo que serían bienvenidas las críticas o sugerencias útiles sobre cualquier cosa que no haya considerado o dejado fuera.


+1 gracias. Parece bien Cuando leí el artículo de Wikipedia, parece haber pasado por alto el hecho de que el teorema de Boltzmann se aplica a todos los intervalos cerrados. Supuse que solo se aplicaba a las variables que iban de a .
Becko

Por alguna razón, la medida de base uniforme y la distribución normal truncada resultante no me convencen completamente: como enfatiza Fred Schoen, para encontrar la entropía máxima (relativa) en el caso continuo necesitamos una medida de base o una distribución de probabilidad de referencia. Dado que la variable continua en cuestión es positiva, podría ser una variable de escala, y una medida base proporcional a 1 / x se recomienda por varias razones (por ejemplo, invariancia grupal; vea el libro de Jaynes o el de Jeffreys). x1/x
pglpm

Con esta medida base, la distribución resultante es proporcional a
1xexp(αxβx2)

7

Quiero hacer que la respuesta de @ Glen_b sea más explícita, aquí hay una respuesta adicional solo porque no cabe como un comentario.

f(x)N(x|1/2λ1/λ2,1/(2λ2))
For the unbounded variable, you can explicitly solve for the Lagrange multipliers λ1 and λ2 in terms of the constraint values (a1,a2 in the Wikipedia article). With a1=μ,a2=μ2+σ2, you then get λ1=μ/σ2,λ2=0.5σ2, so the standard Gaussian N(x|μ,σ2).

For the bounded variable x>xmin, I (and mathematica) cannot solve for λ1,2 explicitly anymore because of the error function term that appears when computing the partition function (1/c in wikipedia). This means that that the μ and σ2 parameters of the truncated Gaussian are not the mean and variance of the continuous variable you started with. It can even happen that for xmin=0, the mode of the Gaussian is negative! Of course the numbers all agree again when you take xmin.

If you have concrete values for a1,a2, you can still solve for λ1,2 numerically and plug in the solutions into the general equation and you are done! The values of λ1,2 from the unbounded case may be a good starting point for the numerical solver.

This question is a duplicate of /math/598608/what-is-the-maximum-entropy-distribution-for-a-continuous-random-variable-on-0

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.