¿Cuál es la conexión entre la cadena de Markov y la cadena de Markov Monte Carlo?


15

Estoy tratando de entender las cadenas de Markov usando SAS. Entiendo que un proceso de Markov es uno en el que el estado futuro depende solo del estado actual y no del estado pasado y hay una matriz de transición que captura la probabilidad de transición de un estado a otro.

Pero luego me encontré con este término: Markov Chain Monte Carlo. Lo que quiero saber es si Markov Chain Monte Carlo está relacionado de alguna manera con el proceso de Markov que describí anteriormente.

Respuestas:


9

Bueno, sí, hay una relación entre los dos términos porque los sorteos de MCMC forman una cadena de Markov. De Gelman, Bayesian Data Analysis (3rd ed), p. 265:

La simulación de la cadena de Markov (también llamada cadena de Markov Monte Carlo o MCMC) es un método general basado en dibujar valores de partir de distribuciones apropiadas y luego corregir esos sorteos para aproximar mejor la distribución posterior objetivo, . El muestreo se realiza secuencialmente, con la distribución de los sorteos muestreados dependiendo del último valor extraído; por lo tanto, los sorteos forman una cadena de Markov.p ( θ | y )θpag(θEl |y)


Umm, está bien, pero ¿por qué necesito extraer muestras aleatorias de un proceso de Markov? Hay tantos otros tipos de procesos como normal, bernoulli, posición, etc.
Victor

2
@Victor Creo que has perdido de vista el caso de uso de MCMC. Usamos MCMC en las estadísticas bayesianas cuando no hay una forma analítica de la distribución posterior.
Sycorax dice Reinstate Monica

3
La estadística bayesiana +1 es quizás la aplicación más obvia de MCMC (donde la distribución objetivo es una articulación posterior) pero no la única posible.
Glen_b -Reinstalar Monica

18

La conexión entre ambos conceptos es que los métodos de la cadena de Markov Monte Carlo (también conocido como MCMC) se basan en la teoría de la cadena de Markov para producir simulaciones y aproximaciones de Monte Carlo a partir de una distribución objetivo compleja .π

En la práctica, estos métodos de simulación una secuencia que es una cadena de Markov, es decir, tal que la distribución de dado todo el pasado solo depende en . En otras palabras, donde es una función especificada por el algoritmo y la distribución objetivo y son iid. La teoría (ergódico) garantiza que converge (en la distribución) a como se pone a .X i { X i - 1 , , X 1 } X i - 1 X i = f ( X i - 1 , ϵ i ) f π ϵ i X i π i X1,...,XnorteXyo{Xyo-1,...,X1}Xyo-1

Xyo=F(Xyo-1,ϵyo)
FπϵyoXyoπyo

El ejemplo más fácil de un algoritmo MCMC es la muestra de corte : en la iteración i de este algoritmo, haga

  1. simularϵyo1U(0 0,1)
  2. simular (que equivale a generar un segundo independiente )XyoU({X;π(X)ϵyo1π(Xyo-1)})ϵyo2

Por ejemplo, si la distribución objetivo es un normal [para el cual obviamente no necesitaría MCMC en la práctica, ¡este es un ejemplo de juguete!] Lo anterior se traduce comonorte(0 0,1)

  1. simularϵyo1U(0 0,1)
  2. simular , es decir, conXyoU({X;X2-2Iniciar sesión(2πϵyo1})Xyo=±ϵyo2{-2Iniciar sesión(2πϵyo1)φ(Xyo-1)}1/ /2ϵyo2U(0 0,1)

o en R

T=1e4
x=y=runif(T) #random initial value
for (t in 2:T){
  epsilon=runif(2)#uniform white noise 
  y[t]=epsilon[1]*dnorm(x[t-1])#vertical move       
  x[t]=sample(c(-1,1),1)*epsilon[2]*sqrt(-2*#Markov move from
        log(sqrt(2*pi)*y[t]))}#x[t-1] to x[t]

Aquí hay una representación de la salida, que muestra el ajuste correcto al objetivo y la evolución de la cadena de Markov . norte(0 0,1)(Xyo)arriba: histograma de 10⁴ iteraciones de la muestra de corte y ajuste normal de N (0,1);  abajo: secuencia $ (X_i) $

Y aquí hay un zoom sobre la evolución de la cadena de Markov en las últimas 100 iteraciones, obtenida por(Xyo,ϵyo1π(Xyo))

curve(dnorm,-3,3,lwd=2,col="sienna",ylab="")
for (t in (T-100):T){
lines(rep(x[t-1],2),c(y[t-1],y[t]),col="steelblue");
lines(x[(t-1):t],rep(y[t],2),col="steelblue")}

que sigue los movimientos verticales y horizontales de la cadena de Markov bajo la curva de densidad objetivo.100 últimos movimientos de la muestra de corte

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.