La cantidad de muestras (post quemado) que necesita depende de lo que esté tratando de hacer con esas muestras y de cómo se mezcle su cadena.
Por lo general, estamos interesados en las expectativas posteriores (o cuantiles) y las aproximamos por promedios de nuestras muestras posteriores, es decir,
donde son muestras de su MCMC. Según la Ley de Grandes Números, la estimación de MCMC converge casi seguramente a la expectativa deseada.
mi[ h ( θ ) | y] ≈1METRO∑m = 1METROh (θ( m )) =miMETRO
θ( m )
Pero para abordar la cuestión de cuántas muestras necesitamos asegurarnos de que estamos lo suficientemente cerca de la expectativa deseada, necesitamos un resultado del Teorema del límite central (CLT), es decir, algo como
Con este CLT podríamos hacer declaraciones probabilíticas como "hay un 95% de probabilidad de que está entre ". Los dos problemas aquí son
miMETRO- E[ h ( θ ) | y]METRO--√→renorte( 0 ,v2h)
mi[ h ( θ ) | y]miMETRO± 1.96vh
- ¿Aplica el CLT?
- ¿Cómo podemos estimar ?v2h
Tenemos algunos resultados sobre cuándo se aplica el CLT, por ejemplo, cadenas de estado discete, cadenas reversibles, cadenas geométricamente ergódicas. Ver Robert y Casella (2ª ed.) Sección 6.7.2 para algunos resultados en esta dirección. Lamentablemente, la gran mayoría de las cadenas de Markov que existen no tienen pruebas de que exista CLT.
Si existe un CLT, aún necesitamos estimar la varianza en el CLT. Una forma de estimar esta variación consiste en dividir la cadena en bloques, ver Gong y Flegal y las referencias allí. El método se ha implementado en el paquete R mcmcse
con las funciones mcse
y mcse.q
para estimar la varianza de las expectativas y cuantiles.