¿Cuáles son las definiciones de semiconjugados y anteriores conjugados condicionales?


12

¿Cuáles son las definiciones de los semi-conjugados anteriores y de los condicional conjugados anteriores ? Los encontré en el Análisis de datos bayesianos de Gelman , pero no pude encontrar sus definiciones.

Respuestas:


16

Usando la definición en Bayesian Data Analysis (3rd ed) , si es una clase de distribuciones de muestreo , y es una clase de distribuciones anteriores para , entonces el class es conjugado para si p ( y | θ ) P θ P FFp(y|θ)PθPF

p(θ|y)P for all p(|θ)F and p()P.

Si es una clase de distribuciones de muestreo , y es una clase de distribuciones anteriores para condicional en , entonces la clase es conjugado condicional para si p ( y | θ , ϕ ) P θ ϕ P FFp(y|θ,ϕ)PθϕPF

p(θ|y,ϕ)P for all p(|θ,ϕ)F and p(|ϕ)P.

Los antecedentes conjugados condicionalmente son convenientes para construir una muestra de Gibbs ya que el condicional completo será una familia conocida.

Busqué una versión electrónica de Bayesian Data Analysis (3ª ed.) Y no pude encontrar una referencia a semi-conjugado antes. Supongo que es sinónimo de conjugación condicional, pero si proporciona una referencia a su uso en el libro, debería poder proporcionarle una definición.


+1. ¿Cuál es la URL para la 3ª edición de Bayesian Data Analysis?
Patrick Coulombe

1
¡Gracias! Semi-conjugado aparece aquí (2ª ed.) Books.google.com/… . Por cierto, ¿cómo obtuviste el libro electrónico para la 3ra ed?
Tim

1
No estoy seguro de por qué dice semiconjugado antes ya que el anterior está completamente conjugado. Esta declaración se elimina en la 3ª edición. El libro electrónico se puede comprar aquí: crcpress.com/product/isbn/9781439840955 .
jaradniemi

@jaradniemi: En el enlace que di, además de p84, se señala que el semiconjugado anterior no es un conjugado anterior.
Tim

1
En ¿a qué se refiere cada y cada uno se refiere a lo mismo?
p(θ|y,ϕ)P for all p(|θ,ϕ)F and p(|ϕ)P.
Muno

6

Me gustaría usar multivariante normal como ejemplo.

Recordemos que la probabilidad viene dada por

P(y1,y2,...,yn|μ,Σ)=(2π)ND2det(Σ)N2exp(12i=1N(xiμ)TΣ1(xiμ))

Con el fin de encontrar un antes de esta probabilidad, podemos elegir

P(μ,Σ)=Normal(μ;μ0,Λ0)InverseWishart(Σ;ν0,S0)

Le aseguro que NO se preocupe por por ahora; son simplemente parámetros de la distribución previa.μ0,Λ0,ν0,S0

Sin embargo, lo importante es que esto no se conjuga con la probabilidad. Para ver por qué, me gustaría citar una referencia que encontré en línea.

tenga en cuenta que y aparecen juntos de manera no factorizada en la probabilidad; por lo tanto, también se unirán en la parte posteriorμΣ

La referencia es "Aprendizaje automático: una perspectiva probabilística" de Kevin P. Murphy. Aquí está el enlace . Puede encontrar la cita en la Sección 4.6 (Inferir los parámetros de un MVN) en la parte superior de la página 135.

Para continuar la cita,

El anterior anterior a veces se llama semi-conjugado o condicionalmente conjugado , ya que ambos condicionales, y , son conjugados individualmente. Para crear un conjugado previo completo , necesitamos usar un previo donde y dependen el uno del otro. Utilizaremos una distribución conjunta del formulario.p(μ|Σ)p(Σ|μ)μΣ

p(μ,Σ)=p(Σ)p(μ|Σ)

La idea aquí es que la primera distribución previa

P(μ,Σ)=Normal(μ;μ0,Λ0)InverseWishart(Σ;ν0,S0)

supone que y son separables (o independientes en cierto sentido). Sin embargo, observamos que en la función de verosimilitud, y no se pueden factorizar por separado, lo que implica que no serán separables en la parte posterior (Recall, ). Esto muestra que el posterior "no separable" y el anterior "separable" al principio no están conjugados. Por otro lado, reescribiendoΣ μ Σ ( Posterior ) ( Anterior ) ( Probabilidad )μΣμΣ(Posterior)(Prior)(Likelihood)

p(μ,Σ)=p(Σ)p(μ|Σ)

de modo que y dependen el uno del otro (a través de ), obtendrá un conjugado previo, que se denomina semi-conjugado previo . Espero que esto responda tu pregunta.Σ p ( μ | Σ )μΣp(μ|Σ)

ps : Otra referencia realmente útil que he usado es "Un primer curso en métodos estadísticos bayesianos" de Peter D. Hoff. Aquí hay un enlace al libro. Puede encontrar contenido relevante en la Sección 7 a partir de la página 105, y él tiene una muy buena explicación (e intuición) sobre la distribución normal de una sola variable en la Sección 5 a partir de la página 67, que se reforzará nuevamente en la Sección 7 cuando trate con MVN.


1

Si es una clase de distribuciones de muestreo , y es una clase de distribuciones anteriores para , entonces la clase es semiconjugada para si para todo y , donde y no pertenece a la clase .Fp(y|θ,ϕ)PθPFp(θ|y,ϕ)Pp(|θ,ϕ)Fp(θ,ϕ)=p(θ)×p(ϕ)p(θ)Pp(ϕ)P

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.