Preguntas etiquetadas con monte-carlo

Usar números (pseudo-) aleatorios y la Ley de números grandes para simular el comportamiento aleatorio de un sistema real.


1
Cómo distribuir de manera óptima los sorteos al calcular múltiples expectativas
Supongamos que queremos calcular algunas expectativas: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Supongamos que queremos aproximar esto usando la simulación de Monte Carlo. EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)miYmiXEl |Y[F(X,Y)]≈1RS∑r=1R∑s=1SF(Xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Pero supongamos que es costoso para extraer muestras de ambas distribuciones, por lo que sólo podemos darnos el lujo de dibujar un número fijo . KKK ¿Cómo debemos …

1
¿Monte Carlo == aplica un proceso aleatorio?
Nunca tuve un curso formal de estadística, pero debido a mi línea de investigación constantemente encuentro artículos que aplican varios conceptos estadísticos. A menudo veré una descripción de un proceso de Monte Carlo aplicado a una situación dada, y por lo que puedo reunir 9 de cada 10 veces se …

2
¿El muestreo basado en la cadena de Markov es el "mejor" para el muestreo de Monte Carlo? ¿Hay esquemas alternativos disponibles?
Markov Chain Monte Carlo es un método basado en cadenas de Markov que nos permite obtener muestras (en un entorno de Monte Carlo) a partir de distribuciones no estándar de las que no podemos extraer muestras directamente. Mi pregunta es por qué la cadena de Markov es "lo último en …



2
Robusto estimador MCMC de probabilidad marginal?
Estoy tratando de calcular la probabilidad marginal de un modelo estadístico por los métodos de Monte Carlo: F( x ) = ∫F( x ∣ θ ) π( θ )reθF(X)=∫F(X∣θ)π(θ)reθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta La probabilidad es de buen comportamiento - suave, cóncavo logarítmico - pero de alta dimensión. He …

2
Muestreo de distribución bivariada con densidad conocida utilizando MCMC
Traté de simular a partir de una densidad bivariada usando algoritmos Metropolis en R y no tuve suerte. La densidad se puede expresar como , donde es la distribución de Singh-Maddalap ( y | x ) p ( x ) p ( x )p(x,y)p(x,y)p(x,y)p(y|x)p(x)p(y|x)p(x)p(y|x)p(x)p(x)p(x)p(x) p(x)=aqxa−1ba(1+(xb)a)1+qp(x)=aqxa−1ba(1+(xb)a)1+qp(x)=\dfrac{aq x^{a-1}}{b^a (1 + (\frac{x}{b})^a)^{1+q}} con …

3
Malentendido de la estimación de Monte Carlo Pi
Estoy bastante seguro de que entiendo cómo funciona la integración de Monte Carlo, pero no entiendo la formulación de cómo se usa para estimar Pi. Voy por el procedimiento descrito en la 5ta diapositiva de esta presentación http://homepages.inf.ed.ac.uk/imurray2/teaching/09mlss/slides.pdf Entiendo los pasos preliminares. Pi es igual a 4 veces el área …

2
Rao-Blackwellization de Gibbs Sampler
Actualmente estoy estimando un modelo de volatilidad estocástica con los métodos de Markov Chain Monte Carlo. De este modo, estoy implementando los métodos de muestreo de Gibbs y Metropolis. Suponiendo que tomo la media de la distribución posterior en lugar de una muestra aleatoria, ¿es esto lo que comúnmente se …




1
Hamiltoniano Monte Carlo (HMC): ¿cuál es la intuición y la justificación detrás de una variable de momento distribuido gaussiano?
Estoy leyendo un impresionante artículo introductorio de HMC del profesor Michael Betancourt, pero me quedo atascado en la comprensión de cómo hacemos para elegir la distribución del impulso. Resumen La idea básica de HMC es introducir una variable de impulso junto con la variable objetivo . Conjuntamente forman un espacio …
8 mcmc  monte-carlo  hmc 

1
Expectativa "inesperada"
¿Puede alguno de nuestros expertos de Monte Carlo explicar la expectativa "inesperada" al final de esta respuesta ? Resumen ex post facto de la otra pregunta / respuesta: si son variables aleatorias IID y las expectativas , entonces un argumento de simetría simple muestra que , pero un experimento de …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.