El enfoque bayesiano tiene ventajas prácticas. Ayuda con la estimación, a menudo es obligatorio. Y permite nuevas familias de modelos, y ayuda en la construcción de modelos más complicados (jerárquicos, multinivel).
Por ejemplo, con modelos mixtos (incluidos los efectos aleatorios con parámetros de varianza) se obtienen mejores estimaciones si los parámetros de varianza se estiman marginando los parámetros de nivel inferior (coeficientes del modelo; esto se llama REML ). El enfoque bayesiano hace esto naturalmente. Con estos modelos, incluso con REML, las estimaciones de probabilidad máxima (ML) de los parámetros de varianza son a menudo cero o sesgadas hacia abajo. Un previo adecuado para los parámetros de varianza ayuda.
Incluso si se usa la estimación puntual ( MAP , máximo a posteriori), los anteriores cambian la familia del modelo. La regresión lineal con un gran conjunto de variables algo colineales es inestable. La regularización L2 se usa como remedio, pero es interpretable como un modelo bayesiano con una estimación previa de Gauss (no informativa) y MAP. (La regularización de L1 es un previo diferente y da resultados diferentes. En realidad, el anterior puede ser algo informativo, pero se trata de las propiedades colectivas de los parámetros, no de un solo parámetro).
¡Así que hay algunos modelos comunes y relativamente simples en los que se necesita un enfoque bayesiano solo para lograrlo!
Las cosas están aún más a favor con modelos más complicados, como la asignación de Dirichlet latente (LDA) utilizada en el aprendizaje automático. Y algunos modelos son inherentemente bayesianos, por ejemplo, aquellos basados en procesos de Dirichlet .