Estoy tomando un curso de Introducción a Bayes y tengo dificultades para comprender las distribuciones predictivas. Entiendo por qué son útiles y estoy familiarizado con la definición, pero hay algunas cosas que no entiendo del todo.
1) Cómo obtener la distribución predictiva correcta para un vector de nuevas observaciones
Supongamos que hemos construido un modelo de muestreo para los datos y un . Suponga que las observaciones son condicionalmente independientes dado .
Hemos observado algunos datos , y actualizamos nuestra a la posterior ( θ | D ) .
Si quisiéramos predecir un vector de nuevas observaciones , creo que deberíamos intentar obtener la predicción posterior utilizando esta fórmula
Di que Beta ( a , b ) y p ( y i | θ ) ∼ Binomial ( n , θ ) para un n fijo . En este caso, si quisiera simular 6 nuevas ˜ y , si entiendo esto correctamente, sería un error simular 6 sorteos independientemente de la distribución Beta-Binomial que corresponde al predictivo posterior para una sola observación. ¿Es esto correcto? No sé cómo interpretar que las observaciones no son independientes marginalmente, y no estoy seguro de entender esto correctamente.
Simulando a partir de predicciones posteriores
Muchas veces, cuando simulamos datos del predictivo posterior, seguimos este esquema:
Para de 1 a B :
1) Muestra de p ( θ | D ) .
2) Luego simule nuevos datos de p ( N | θ ( b ) ) .
No sé cómo demostrar que este esquema funciona, aunque parece intuitivo. Además, ¿esto tiene un nombre? Traté de buscar una justificación y probé diferentes nombres, pero no tuve suerte.
¡Gracias!