Preguntas etiquetadas con mcmc

Markov Chain Monte Carlo (MCMC) se refiere a una clase de métodos para generar muestras a partir de una distribución objetivo mediante la generación de números aleatorios a partir de una cadena Markov cuya distribución estacionaria es la distribución objetivo. Los métodos MCMC se usan típicamente cuando los métodos más directos para la generación de números aleatorios (por ejemplo, el método de inversión) no son factibles. El primer método MCMC fue el algoritmo Metropolis, luego modificado al algoritmo Metropolis-Hastings.


1
¿Cómo puedo optimizar la eficiencia computacional al ajustar un modelo complejo a un gran conjunto de datos repetidamente?
Tengo problemas de rendimiento al usar el MCMCglmmpaquete en R para ejecutar un modelo de efectos mixtos. El código se ve así: MC1<-MCMCglmm(bull~1,random=~school,data=dt,family="categorical" , prior=list(R=list(V=1,fix=1), G=list(G1=list(V=1, nu=0))) , slice=T, nitt=iter, ,burnin=burn, verbose=F) Hay alrededor de 20,000 observaciones en los datos y están agrupadas en alrededor de 200 escuelas. Eliminé todas …

2
Métodos MCMC: ¿quemar muestras?
En los métodos MCMC , sigo leyendo sobre el burn-intiempo o el número de muestras "burn". ¿Qué es esto exactamente y por qué es necesario? Actualizar: Una vez que MCMC se estabiliza, ¿permanece estable? ¿Cómo se relaciona la noción de burn-intiempo con la de tiempo de mezcla?
12 sampling  mcmc 

2
¿Un MCMC que cumple con el saldo detallado produce una distribución estacionaria?
Supongo que entiendo la ecuación de la condición de equilibrio detallado, que establece que para la probabilidad de transición y la distribución estacionaria , una cadena de Markov satisface el equilibrio detallado siqqqππ\piq(x|y)π(y)=q(y|x)π(x),q(x|y)π(y)=q(y|x)π(x),q(x|y)\pi(y)=q(y|x)\pi(x), Esto tiene más sentido para mí si lo reformulo como: q(x|y)q(y|x)=π(x)π(y).q(x|y)q(y|x)=π(x)π(y).\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. Básicamente, la probabilidad de transición …



2
Principiante de PyMC: cómo tomar muestras del modelo ajustado
Estoy probando un modelo muy simple: ajustando un Normal donde supongo que sé la precisión, y solo quiero encontrar la media. El siguiente código parece ajustarse a la Normal correctamente. Pero después de ajustar, quiero muestrear del modelo, es decir, generar nuevos datos que sean similares a mi datavariable. Sé …
12 mcmc  pymc 

2
Los parámetros de máxima verosimilitud se desvían de las distribuciones posteriores
Tengo una función de probabilidad L(d|θ)L(d|θ)\mathcal{L}(d | \theta) para la probabilidad de mis datos ddd dados algunos parámetros del modelo θ∈RNθ∈RN\theta \in \mathbf{R}^N , que me gustaría estimar. Suponiendo anteriores planos sobre los parámetros, la probabilidad es proporcional a la probabilidad posterior. Yo uso un método MCMC para probar esta …

2
¿Gibbs está probando un método MCMC?
Según tengo entendido, lo es (al menos, así es como lo define Wikipedia ). Pero he encontrado esta declaración de Efron * (énfasis agregado): La cadena de Markov Monte Carlo (MCMC) es la gran historia de éxito de las estadísticas bayesianas modernas. MCMC y su método hermano "muestreo de Gibbs" …
11 mcmc  gibbs 



1
¿Cómo derivar el muestreo de Gibbs?
De hecho, estoy dudando en preguntar esto, porque me temo que me remitirán a otras preguntas o a Wikipedia sobre el muestreo de Gibbs, pero no tengo la sensación de que describan lo que está a la mano. Dada una probabilidad condicional : p ( x | y ) y …
11 sampling  mcmc  gibbs 

1
Muestreo de Gibbs para el modelo Ising
Pregunta de tarea: Considere el modelo Ising 1-d. Deje . es -1 o +1x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Diseñe un algoritmo de muestreo de gibbs para generar muestras aproximadamente a partir de la distribución objetivo .π(x)π(x)\pi(x) Mi intento: Elija aleatoriamente valores (-1 o 1) para llenar el vector . …


3
Estimación de parámetros de un modelo lineal dinámico.
Quiero implementar (en R) el siguiente Modelo lineal dinámico muy simple para el que tengo 2 parámetros variables de tiempo desconocidos (la varianza del error de observación y la varianza del error de estado ).ϵ1tϵt1\epsilon^1_tϵ2tϵt2\epsilon^2_t Ytθt+1==θt+ϵ1tθt+ϵ2tYt=θt+ϵt1θt+1=θt+ϵt2 \begin{matrix} Y_t & = & \theta_t + \epsilon^1_t\\ \theta_{t+1} & = & \theta_{t}+\epsilon^2_t \end{matrix} …
11 r  mcmc  dlm  particle-filter 

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.