La lista de Glen es buena. Voy a agregar 1 aplicación más para complementar su respuesta: derivar los conjugados anteriores para la inferencia bayesiana.
Una parte central de la inferencia bayesiana es derivar distribuciones posteriores . Tener una previa que se conjuga con la probabilidad significa que la posterior y la pertenecerán a la misma clase de distribuciones de probabilidad.p ( θ | y) ∝ p ( yEl | θ)p(θ)p ( θ )p ( yEl | θ)p ( yEl | θ)p ( θ )
La propiedad útil a la que me refiero es que, para una probabilidad de observaciones extraídas de una familia exponencial de un parámetro de la formanorte
p (y1, ... ,ynorteEl | θ)=∏p(yyoEl | θ)∝g( θ)norteExp[ h(θ)∑t(yyo) ] ,
simplemente podemos escribir un conjugado antes como
p ( θ ) ∝ g( θ)ν[ h(θ)δ]
y luego el posterior funciona como
p ( θ |y1, ... ,ynorte) ∝ g( θ)n + νExp[ h(θ) ( ∑t(yyo) + δ) ]
¿Por qué es útil esta conjugación? Porque simplifica nuestra interpretación y cálculo mientras realizamos la inferencia bayesiana. También significa que podemos encontrar fácilmente expresiones analíticas para la parte posterior sin tener que hacer demasiado álgebra.