La entropía te dice cuánta incertidumbre hay en el sistema. Digamos que está buscando un gato y sabe que está en algún lugar entre su casa y los vecinos, que está a 1 milla de distancia. Tus hijos te dicen que la distribución beta describe mejor la probabilidad de que un gato esté en la distancia de tu casa . Por lo tanto, un gato puede estar en cualquier lugar entre 0 y 1, pero es más probable que esté en el medio, es decir, .x f(x;2,2)xmax=1/2
la distribución beta a su ecuación, luego obtendrá .H=−0.125
Luego, le preguntas a tu esposa y ella te dice que la mejor distribución para describir su conocimiento de tu gato es la distribución uniforme. Si lo conecta a su ecuación de entropía, obtiene .H=0
Tanto la distribución uniforme como la beta permiten que el gato esté en cualquier lugar entre 0 y 1 millas de su casa, pero hay más incertidumbre en el uniforme, porque su esposa realmente no tiene idea de dónde se esconde el gato, mientras que los niños tienen alguna idea , piensan que es más Es probable que esté en algún lugar en el medio. Es por eso que la entropía de Beta es más baja que la de Uniform.
Puede probar otras distribuciones, tal vez su vecino le diga que al gato le gusta estar cerca de cualquiera de las casas, por lo que su distribución beta es con . Su debe ser más baja que la del uniforme nuevamente, porque tienes una idea de dónde buscar un gato. ¿Adivina si la entropía de información de su vecino es mayor o menor que la de sus hijos? Apostaría a los niños cualquier día en estos asuntos.α=β=1/2H
ACTUALIZAR:
¿Como funciona esto? Una forma de pensar en esto es comenzar con una distribución uniforme. Si está de acuerdo en que es el que tiene más incertidumbre, piense en perturbarlo. Veamos el caso discreto por simplicidad. Tome de un punto y agréguelo a otro de la siguiente manera:
Δp
p′i=p−Δp
p′j=p+Δp
Ahora, veamos cómo cambia la entropía:
Esto significa que cualquier perturbación de la distribución uniforme reduce la entropía (incertidumbre). Para mostrar lo mismo en caso continuo, tendría que usar cálculo de variaciones o algo por el estilo, pero en principio obtendrás el mismo tipo de resultado.
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
ACTUALIZACIÓN 2: La media de variables aleatorias uniformes es una variable aleatoria en sí misma, y proviene de la distribución de Bates . De CLT sabemos que la varianza de esta nueva variable aleatoria se reduce como . Entonces, la incertidumbre de su ubicación debe reducirse con el aumento de : estamos cada vez más seguros de que un gato está en el medio. Mi siguiente diagrama y código MATLAB muestra cómo la entropía disminuye de 0 para (distribución uniforme) a . Estoy usando la biblioteca de distribuciones31 aquí.nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'