Actualmente estoy aprendiendo modelos bayesianos jerárquicos usando JAGS de R, y también pymc usando Python ( "Métodos Bayesianos para Hackers" ).
Puedo entender algo de esta publicación : "terminarás con una pila de números que parece" como si "hubieras logrado tomar muestras independientes de la complicada distribución que querías saber". Es algo así como puedo dar la probabilidad condicional, luego puedo generar un proceso sin memoria basado en la probabilidad condicional. Cuando genero el proceso el tiempo suficiente, entonces la probabilidad conjunta puede converger, y luego puedo tomar una pila de números al final de la secuencia generada. Es como si tomo muestras independientes de la complicada distribución conjunta. Por ejemplo, puedo hacer histograma y puede aproximar la función de distribución.
Entonces mi problema es, ¿necesito demostrar si un MCMC converge para un determinado modelo? Estoy motivado a saber esto porque anteriormente aprendí el algoritmo EM para GMM y LDA (modelos gráficos). Si solo puedo usar el algoritmo MCMC sin probar si converge, entonces puede ahorrar mucho más tiempo que EM. Como tendré que calcular la función de probabilidad de registro esperada (tendré que calcular la probabilidad posterior) y luego maximizar la probabilidad de registro esperada. Aparentemente es más engorroso que el MCMC (solo necesito formular la probabilidad condicional).
También me pregunto si la función de probabilidad y la distribución previa son conjugadas. ¿Significa que el MCMC debe converger? Me pregunto sobre las limitaciones de MCMC y EM.