Sugeriría el libro Bayesian Data Analysis como una gran fuente para responder esta pregunta (en particular el capítulo 6) y todo lo que voy a decir. Pero una de las formas habituales en que los bayesianos atacan este problema es mediante el uso de valores P predictivos posteriores (PPP). Antes de pasar a cómo las PPP resolverían este problema, permítanme definir primero la siguiente notación:
Sean los datos observados y sea el vector de parámetros. Definimos como los replicados de datos que podrían haber sido observados, o, a pensar de forma predictiva, ya que los datos que podrían ver mañana si el experimento que produjo hoy se replicaron con el mismo modelo y el mismo valor de que produjo los datos observados.θ y rep y θyθyrepyθ
Tenga en cuenta que definiremos la distribución de dado el estado actual del conocimiento con la distribución predictiva posterior
p ( y rep | y ) = ∫ Θ p ( y rep | θ ) p ( θ | y ) d θyrep
p(yrep|y)=∫Θp(yrep|θ)p(θ|y)dθ
Ahora, podemos medir la discrepancia entre el modelo y los datos definiendo las cantidades de prueba , los aspectos de los datos que deseamos verificar. Una cantidad de prueba, o medida de discrepancia , , es un resumen escalar de parámetros y datos que se utiliza como estándar cuando se comparan datos con simulaciones predictivas. Las cantidades de prueba desempeñan el papel en el modelo bayesiano comprobando que las estadísticas de prueba juegan en la prueba clásica. Definimos la notación para un estadístico de prueba, que es una cantidad de prueba que depende solo de los datos; En el contexto bayesiano, podemos generalizar las estadísticas de prueba para permitir la dependencia de los parámetros del modelo bajo su distribución posterior.T ( y )T(y,θ)T(y)
Clásicamente, el valor p para el estadístico de prueba es
donde se toma la probabilidad sobre la distribución de con fijo.T(y)
pC=Pr(T(yrep)≥T(y)|θ)
yrepθ
Desde una perspectiva bayesiana, la falta de ajuste de los datos con respecto a la distribución predictiva posterior puede medirse por la probabilidad del área de la cola, o valor p, de la cantidad de prueba, y calcularse utilizando simulaciones posteriores de . En el enfoque bayesiano, las cantidades de prueba pueden ser funciones de los parámetros desconocidos, así como datos, porque la cantidad de prueba se evalúa sobre los sorteos de la distribución posterior de los parámetros desconocidos.(θ,yrep)
Ahora, podemos definir el valor p bayesiano (PPP) como la probabilidad de que los datos replicados puedan ser más extremos que los datos observados, medidos por la cantidad de prueba:
donde la probabilidad se toma sobre la distribución posterior de y la distribución predictiva posterior de (que es, la distribución conjunta, ):
donde es la función del indicador. En la práctica, aunque usualmente calculamos la distribución predictiva posterior utilizando simulaciones.
pB=Pr(T(yrep,θ)≥T(y,θ)|y)
θyrepp(θ,yrep|y)IpB=∬ΘIT(yrep,θ)≥T(y|θ)p(yrep|θ)p(θ|y)dyrepdθ,
I
Si ya tenemos, digamos, simulaciones de la distribución posterior de , entonces podemos simplemente dibujar una de la distribución predictiva para cada simulada ; ahora tenemos dibuja de la distribución posterior conjunta, . La verificación predictiva posterior es la comparación entre las cantidades de prueba realizadas y las cantidades de prueba predictiva . El valor p estimado es solo la proporción de estas simulaciones para las cuales la cantidad de prueba es igual o superior a su valor realizado; es decir, para lo cualθ y rep θLθyrepθp ( y rep , θ | y ) T ( y , θ l ) T ( y rep l , θ l ) L T ( y rep l , θ l ) ≥ T ( y , θ l ) l = 1 , . . . , LLp(yrep,θ|y)T(y,θl)T(yrepl,θl)L
T(yrepl,θl)≥T(y,θl)
para .
l=1,...,L
En contraste con el enfoque clásico, la verificación del modelo bayesiano no requiere métodos especiales para manejar "parámetros molestos". Al utilizar simulaciones posteriores, promediamos implícitamente todos los parámetros del modelo.
Una fuente adicional, Andrew Gelman también tiene un muy buen artículo sobre PPP aquí:
http://www.stat.columbia.edu/~gelman/research/unpublished/ppc_understand2.pdf