Respuestas:
Usando la definición en Bayesian Data Analysis (3rd ed) , si es una clase de distribuciones de muestreo , y es una clase de distribuciones anteriores para , entonces el class es conjugado para si p ( y | θ ) P θ P F
Si es una clase de distribuciones de muestreo , y es una clase de distribuciones anteriores para condicional en , entonces la clase es conjugado condicional para si p ( y | θ , ϕ ) P θ ϕ P F
Los antecedentes conjugados condicionalmente son convenientes para construir una muestra de Gibbs ya que el condicional completo será una familia conocida.
Busqué una versión electrónica de Bayesian Data Analysis (3ª ed.) Y no pude encontrar una referencia a semi-conjugado antes. Supongo que es sinónimo de conjugación condicional, pero si proporciona una referencia a su uso en el libro, debería poder proporcionarle una definición.
Me gustaría usar multivariante normal como ejemplo.
Recordemos que la probabilidad viene dada por
Con el fin de encontrar un antes de esta probabilidad, podemos elegir
Le aseguro que NO se preocupe por por ahora; son simplemente parámetros de la distribución previa.
Sin embargo, lo importante es que esto no se conjuga con la probabilidad. Para ver por qué, me gustaría citar una referencia que encontré en línea.
tenga en cuenta que y aparecen juntos de manera no factorizada en la probabilidad; por lo tanto, también se unirán en la parte posterior
La referencia es "Aprendizaje automático: una perspectiva probabilística" de Kevin P. Murphy. Aquí está el enlace . Puede encontrar la cita en la Sección 4.6 (Inferir los parámetros de un MVN) en la parte superior de la página 135.
Para continuar la cita,
El anterior anterior a veces se llama semi-conjugado o condicionalmente conjugado , ya que ambos condicionales, y , son conjugados individualmente. Para crear un conjugado previo completo , necesitamos usar un previo donde y dependen el uno del otro. Utilizaremos una distribución conjunta del formulario.
La idea aquí es que la primera distribución previa
supone que y son separables (o independientes en cierto sentido). Sin embargo, observamos que en la función de verosimilitud, y no se pueden factorizar por separado, lo que implica que no serán separables en la parte posterior (Recall, ). Esto muestra que el posterior "no separable" y el anterior "separable" al principio no están conjugados. Por otro lado, reescribiendoΣ μ Σ ( Posterior ) ∼ ( Anterior ) ( Probabilidad )
de modo que y dependen el uno del otro (a través de ), obtendrá un conjugado previo, que se denomina semi-conjugado previo . Espero que esto responda tu pregunta.Σ p ( μ | Σ )
ps : Otra referencia realmente útil que he usado es "Un primer curso en métodos estadísticos bayesianos" de Peter D. Hoff. Aquí hay un enlace al libro. Puede encontrar contenido relevante en la Sección 7 a partir de la página 105, y él tiene una muy buena explicación (e intuición) sobre la distribución normal de una sola variable en la Sección 5 a partir de la página 67, que se reforzará nuevamente en la Sección 7 cuando trate con MVN.