La pregunta que hace es diferente de "diagnóstico de convergencia". Digamos que ha ejecutado todos los diagnósticos de convergencia (elija su (s) favorito (s)), y ahora está listo para comenzar a tomar muestras desde la parte posterior.
Hay dos opciones en términos de tamaño de muestra efectivo (ESS): puede elegir un ESS univariado o un ESS multivariado. Un ESS univariante proporcionará un tamaño de muestra efectivo para cada parámetro por separado, y los métodos conservadores dictan que elija la estimación más pequeña. Este método ignora todas las correlaciones cruzadas entre los componentes. Esto es probablemente lo que la mayoría de la gente ha estado usando durante un tiempo.
Recientemente, se introdujo una definición multivariada de ESS. El ESS multivariante devuelve un número para el tamaño de muestra efectivo para las cantidades que desea estimar; y lo hace contabilizando todas las correlaciones cruzadas en el proceso. Personalmente, prefiero ESS multivariante. Suponga que está interesado en el vector de medias de la distribución posterior. El mESS se define de la siguiente manera
mESS = n ( | Λ |p
aquí
mESS=n(|Λ||Σ|)1/p.
- es la estructura de covarianza de la parte posterior (también la covarianza asintótica en el CLT si tenía muestras independientes)Λ
- es la matriz de covarianza asintótica en la cadena CLT de Markov (diferente de Λ ya que las muestras están correlacionadas.ΣΛ
- es el número de cantidades que se estiman (o en este caso, la dimensión de la parte posterior.p
- Es el determinante.|⋅|
mESS se puede estimar utilizando la matriz de covarianza de muestra para estimar y el lote significa matriz de covarianza para estimar Σ . Esto ha sido codificado en la función en el paquete R mcmcse .ΛΣmultiESS
Este artículo reciente proporciona un límite inferior teóricamente válido del número de muestras efectivas requeridas. Antes de la simulación, debes decidir
- ϵϵ
- α
- p
mESS≥22/pπ(pΓ(p/2))2/pχ21−α,pϵ2,
Γ(⋅)minESS
p=2095%ϵ=.05
> minESS(p = 20, alpha = .05, eps = .05)
[1] 8716
Esto es cierto para cualquier problema (en condiciones de regularidad). La forma en que este método se adapta de un problema a otro es que mezclar lentamente las cadenas de Markov toma más tiempo para alcanzar ese límite inferior, ya que el MESS será más pequeño. Así que ahora puede verificar un par de veces usando multiESS
si su cadena de Markov ha alcanzado ese límite; si no, ve y toma más muestras.