Según tengo entendido, la Computación Bayesiana Aproximada (ABC) y la Cadena de Markov Monte Carlo (MCMC) tienen objetivos muy similares. A continuación describo mi comprensión de estos métodos y cómo percibo las diferencias en su aplicación a los datos de la vida real.
Computación Bayesiana Aproximada
ABC consiste en muestrear un parámetro partir de una simulación numérica previa, calcular una estadística que se compara con algunos observados . Basado en un algoritmo de rechazo, se retiene o se rechaza. La lista de retenidos hizo la distribución posterior.x i x o b s x i x i
Cadena Markov Monte Carlo
MCMC consiste en muestrear una distribución previa del parámetro . Toma una primera muestra , calcula y luego salta (según alguna regla) a un nuevo valor para el cual se calcula nuevamente. La relación se calcula y, según algún valor de umbral, el próximo salto ocurrirá desde la primera o la segunda posición. La exploración de valores va uno y uno y al final, la distribución de los valores retenidos es la distribución posterior (por una razón que aún desconozco).
Me doy cuenta de que mis explicaciones no representan la variedad de métodos que existe bajo cada uno de estos términos (especialmente para MCMC).
ABC vs MCMC (pros y contras)
ABC tiene la ventaja de que no es necesario poder resolver analíticamente . Como tal, ABC es conveniente para un modelo complejo donde MCMC no lo haría.
MCMC permite realizar pruebas estadísticas (prueba de razón de verosimilitud, prueba G, ...) mientras que no creo que esto sea factible con ABC.
¿Estoy en lo cierto hasta ahora?
Pregunta
- ¿Cómo difieren ABC y MCMC en sus aplicaciones? ¿Cómo se decide hacer uso de uno u otro método?