1
¿Por qué la parte posterior bayesiana se concentra alrededor del minimizador de la divergencia KL?
Considere la bayesiana posterior . Asintóticamente, su máximo ocurre en la estimación MLE , que simplemente maximiza la probabilidad .θ ∣ Xθ∣X\theta\mid Xθ argmin θθ^θ^\hat \thetaargminθFθ( X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Todos estos conceptos (antecedentes bayesianos, maximizando la probabilidad) suenan súper principios y no son en absoluto arbitrarios. No hay un registro a …