Suponiendo que tomo la media de la distribución posterior en lugar de una muestra aleatoria, ¿es esto lo que comúnmente se conoce como Rao-Blackwellization?
No estoy muy familiarizado con los modelos de volatilidad estocástica, pero sé que en la mayoría de los entornos, la razón por la que elegimos los algoritmos de Gibbs o MH para dibujar desde la parte posterior, es porque no conocemos la parte posterior. A menudo queremos estimar la media posterior, y como no conocemos la media posterior, extraemos muestras de la posterior y la estimamos utilizando la media de la muestra. Entonces, no estoy seguro de cómo podrá tomar la media de la distribución posterior.
En cambio, el estimador Rao-Blackwellized depende del conocimiento de la media del condicional completo; pero aun así se requiere muestreo. Os explico más a continuación.
Suponga que la distribución posterior se define en dos variables, ), de modo que desee estimar la media posterior: . Ahora, si hubiera una muestra de Gibbs disponible, podría ejecutar eso o ejecutar un algoritmo MH para muestrear desde la parte posterior.θ=(μ,ϕE[θ∣data]
Si puede ejecutar una muestra de Gibbs, entonces conoce en forma cerrada y conoce la media de esta distribución. Deje que eso significa ser . Tenga en cuenta que es una función de y los datos.f(ϕ∣μ,data)ϕ∗ϕ∗μ
Esto también significa que puede integrar desde la parte posterior, por lo que la parte posterior marginal de es (esto no se conoce completamente, pero se sabe hasta una constante). Ahora desea ejecutar una cadena de Markov tal que sea la distribución invariable, y obtenga muestras de este posterior marginal. La pregunta esϕμf(μ∣data)f(μ∣data)
¿Cómo puede estimar ahora la media posterior de utilizando solo estas muestras del marginal posterior de ?ϕμ
Esto se hace a través de Rao-Blackwellization.
E[ϕ∣data]=∫ϕf(μ,ϕ∣data)dμdϕ=∫ϕf(ϕ∣μ,data)f(μ∣data)dμdϕ=∫ϕ∗f(μ∣data)dμ.
Supongamos que hemos obtenido muestras del margen posterior de . Entonces
X1,X2,…XNμ
ϕ^=1norte∑i = 1norteϕ∗(Xyo) ,
se llama estimador Rao-Blackwellized para . Lo mismo se puede hacer simulando también desde los márgenes articulares.ϕ
Ejemplo (puramente para demostración).
Suponga que tiene una articulación posterior desconocida para de la que desea muestrear. Sus datos son algunos , y tiene los siguientes condicionales completos
θ = ( μ , ϕ )y
μ ∣ ϕ , y∼ N(ϕ2+ 2 y,y2)
ϕ ∣ μ , y∼ G a m m a ( 2 μ + y, y+ 1 )
Ejecutas la muestra de Gibbs con estos condicionales y obtienes muestras de la articulación posterior . Deje que estas muestras sean . Puede encontrar la media muestral de s, y ese sería el estimador habitual de Monte Carlo para la media posterior de ..F( μ , ϕ ∣ y)(μ1,ϕ1) , (μ2,ϕ2) , ... , (μnorte,ϕnorte)ϕϕ
O tenga en cuenta que por las propiedades de la distribución Gamma
mi[ ϕ | μ , y] =2 μ + yy+ 1=ϕ∗.
Aquí son los datos que se le proporcionan y, por lo tanto, se conocen. El estimador Rao Blackwellized sería entoncesy
ϕ^=1norte∑i = 1norte2μyo+ yy+ 1.
Observe cómo el estimador para la media posterior de ni siquiera usa las muestras , y solo usa las muestras . En cualquier caso, como puede ver, todavía está utilizando las muestras que obtuvo de una cadena de Markov. Este no es un proceso determinista.ϕϕμ