Este es más un comentario extendido, así que tómalo como tal. Definir:
F( x ) ≡1norte∑i = 1nortenorte( x |Xyo,σ2yo)
(Estoy usando la notación estándar para distribuciones gaussianas).
Quieres probar que:
1norte∑i = 1norteIniciar sesiónF(Xyo) - ∫F( x ) registroF( x ) dx ≥ 0
cual es
{1norte∑i = 1norteIniciar sesiónF(Xyo) } + H [ f] ≥ 0.
Debido a la desigualdad de Jensen (véase, por ejemplo, Huber et al., On Entropy Approximation for Gaussian Mixture Random Vectors, 2008 ),
H [f] ≥ -1norte∑i = 1norteIniciar sesión∫F( x ) N( x |Xyo,σ2yo) dx = -1norte∑i = 1norteIniciar sesiónsolyo(Xyo)
con
solyo( x ) ≡1norte∑nortej = 1norte( x |Xj,σ2yo+σ2j), que proviene de la convolución de dos densidades gaussianas. Entonces obtenemos:
{1norte∑i = 1norteIniciar sesiónF(Xyo) } + H [ f] ≥1norte∑i = 1norteIniciar sesiónF(Xyo)solyo(Xyo).
Curiosamente, el
solyo siguen siendo mezclas de gaussianos con medios componentes iguales a los de
F, pero cada componente de
solyo tiene una varianza estrictamente mayor que su componente correspondiente en
F. ¿Puedes hacer algo con esto?