Burn-in está destinado a darle a la cadena de Markov tiempo para alcanzar su distribución de equilibrio, particularmente si ha comenzado desde un punto de partida pésimo. Para "quemar" una cadena, simplemente descarta las primeras muestras antes de comenzar a acumular puntos.n
La idea es que un punto de partida "malo" puede sobremuestrear regiones que en realidad tienen una probabilidad muy baja bajo la distribución de equilibrio antes de establecerse en la distribución de equilibrio. Si arroja esos puntos, entonces los puntos que deberían ser poco probables serán adecuadamente raros.
Esta página ofrece un buen ejemplo, pero también señala que el quemado es más un truco / forma de arte que una técnica basada en principios. En teoría, podría probar durante mucho tiempo o encontrar una forma de elegir un punto de partida decente.
Editar: el tiempo de mezcla se refiere al tiempo que tarda la cadena en acercarse a su estado estacionario, pero a menudo es difícil de calcular directamente. Si conociera el tiempo de mezcla, simplemente descartaría tantas muestras, pero en muchos casos, no. Por lo tanto, eliges un tiempo de encendido que, con suerte, es lo suficientemente grande.
En cuanto a la estabilidad, depende. Si su cadena ha convergido, entonces ... está convergente. Sin embargo, también hay situaciones en las que la cadena parece haber convergido, pero en realidad solo está "colgando" en una parte del espacio de estado. Por ejemplo, imagine que hay varios modos, pero cada modo está mal conectado a los demás. Es posible que la muestra demore mucho tiempo en atravesar esa brecha y se verá como si la cadena convergiera justo hasta que saltara.
Hay diagnósticos para la convergencia, pero muchos de ellos tienen dificultades para distinguir la verdadera convergencia y la pseudoconvergencia. El capítulo de Charles Geyer (# 1) en el Manual de Markov Chain Monte Carlo es bastante pesimista acerca de todo, excepto de manejar la cadena todo el tiempo que pueda.