La forma más simple de la información teórica CLT es la siguiente:
Sea iid con media y varianza . Sea la densidad de la suma normalizada n D ( f n ‖ ϕ ) → 0 n → ∞
Ciertamente, esta convergencia, en cierto sentido, es "más fuerte" que las convergencias bien establecidas en la literatura, la convergencia en la distribución y la convergencia en métrica, gracias a la desigualdad de Pinsker . Es decir, la convergencia en KL-divergencia implica convergencia en la distribución y convergencia en la distancia .( ∫ | f n - ϕ | ) 2 ≤ 2 ⋅ ∫ f n log ( f n / ϕ ) L 1
Me gustaría saber dos cosas.
¿Qué tiene de bueno el resultado ?
¿Es solo por la razón establecida en el tercer párrafo que decimos que la convergencia en KL-divergencia ( es decir , ) es más fuerte?
NB: Hice esta pregunta hace algún tiempo en math.stackexchange donde no obtuve respuesta.