Comprender las distribuciones predictivas bayesianas


9

Estoy tomando un curso de Introducción a Bayes y tengo dificultades para comprender las distribuciones predictivas. Entiendo por qué son útiles y estoy familiarizado con la definición, pero hay algunas cosas que no entiendo del todo.

1) Cómo obtener la distribución predictiva correcta para un vector de nuevas observaciones

Supongamos que hemos construido un modelo de muestreo p(yi|θ) para los datos y un p(θ) . Suponga que las observaciones yi son condicionalmente independientes dado θ .

Hemos observado algunos datos D={y1,y2,...,yk} , y actualizamos nuestrap(θ) a la posterior ( θ | D )p(θ|D) .

Si quisiéramos predecir un vector de nuevas observaciones N={y~1,y~2,...,y~n} , creo que deberíamos intentar obtener la predicción posterior utilizando esta fórmula

p(N|D)=p(θ|D)p(N|θ)dθ=p(θ|D)i=1np(y~i|θ)dθ,
que no es igual a
i=1np(θ|D)p(y~i|θ)dθ,
entonces las observaciones predichas no son independientes, ¿verdad?

Di que Beta ( a , b ) y p ( y i | θ ) Binomial ( n , θ ) para un n fijo . En este caso, si quisiera simular 6 nuevas ˜ y , si entiendo esto correctamente, sería un error simular 6 sorteos independientemente de la distribución Beta-Binomial que corresponde al predictivo posterior para una sola observación. ¿Es esto correcto? No sé cómo interpretar que las observaciones no son independientes marginalmente, y no estoy seguro de entender esto correctamente.θ|Da,bp(yi|θ)n,θny~

Simulando a partir de predicciones posteriores

Muchas veces, cuando simulamos datos del predictivo posterior, seguimos este esquema:

Para de 1 a B :bB

1) Muestra de p ( θ | D ) .θ(b)p(θ|D)

2) Luego simule nuevos datos de p ( N | θ ( b ) ) .N(b)p(N|θ(b))

No sé cómo demostrar que este esquema funciona, aunque parece intuitivo. Además, ¿esto tiene un nombre? Traté de buscar una justificación y probé diferentes nombres, pero no tuve suerte.

¡Gracias!


Hice una pregunta similar en stats.stackexchange.com/questions/72570/… pero parece que la suya ha recibido más votos hasta ahora.
John

Respuestas:


4

Supongamos que son condicionalmente independientes dado que Θ = θ . Entonces, f X n + 1X 1 , , X n ( x n + 1x 1 , , x n ) = f X n + 1 , Θ X 1X1,,Xn,Xn+1Θ=θ=

fXn+1X1,,Xn(xn+1x1,,xn)=fXn+1,ΘX1,,Xn(xn+1,θx1,,xn)dθ
= f X n + 1Θ ( x n + 1θ ) f Θ X 1 , , X n ( θ x 1 , , x n )
=fXn+1Θ,X1,,Xn(xn+1θ,x1,,xn)fΘX1,,Xn(θx1,,xn)dθ
en el que la primera igualdad se deriva de la ley de probabilidad total, la segunda se desprende de la regla del producto y la tercera de la independencia condicional supuesta: dado el valor de Θ , no necesitamos los valores de X 1 , ... , X n para determinar la distribución de X n + 1 .
=fXn+1Θ(xn+1θ)fΘX1,,Xn(θx1,,xn)dθ,
ΘX1,,XnXn+1

El esquema de simulación es correcto: para , dibuje θ ( i )i=1,,Nθ(i) de la distribución de , luego extraiga x ( i ) n + 1 de La distribución de X n + 1Θ = θ ( i ) . Esto te da una muestra { xΘX1=x1,,Xn=xnxn+1(i)Xn+1Θ=θ(i) de la distribución deXn+1X1=x1,,Xn=xn.{xn+1(i)}i=1NXn+1X1=x1,,Xn=xn


θ(i)xn+j

2

Trataré de repasar la intuición detrás de generar la distribución predictiva posterior paso a paso.

yp(y|θ)y~y~yθθθp(θ|y)y~yθy

p(y~|θ,y)=p(y~,y|θ)p(θ)p(θ,y)=p(y~|θ)p(y|θ)p(θ)p(y|θ)p(θ)=p(y~|θ).

y~

p(y~|y)=Θp(y~|θ,y)p(θ|y)dθ=Θp(y~|θ)p(θ|y)dθ

Θθ

p(y~|y)


para s = 1,2, ..., S do

θ(s)p(θ|y)

y~(s)p(y~|θ(s))


p(θ|y)

p(y~,θ|y)=p(y~|θ,y)p(θ|y)θ(s)p(θ|y)y~(s)p(y~|θ(s))=p(y~|θ(s),y). De ello se desprende que los valores muestreadosp(y~,θ|y)y~(s),s=1,2,...,Sp(y~|y)


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.