Preguntas etiquetadas con mcmc

Markov Chain Monte Carlo (MCMC) se refiere a una clase de métodos para generar muestras a partir de una distribución objetivo mediante la generación de números aleatorios a partir de una cadena Markov cuya distribución estacionaria es la distribución objetivo. Los métodos MCMC se usan típicamente cuando los métodos más directos para la generación de números aleatorios (por ejemplo, el método de inversión) no son factibles. El primer método MCMC fue el algoritmo Metropolis, luego modificado al algoritmo Metropolis-Hastings.

2
Calcular curva ROC para datos
Entonces, tengo 16 ensayos en los que estoy tratando de autenticar a una persona de un rasgo biométrico usando Hamming Distance. Mi umbral está establecido en 3.5. Mis datos están a continuación y solo la prueba 1 es un verdadero positivo: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Rao-Blackwellization de Gibbs Sampler
Actualmente estoy estimando un modelo de volatilidad estocástica con los métodos de Markov Chain Monte Carlo. De este modo, estoy implementando los métodos de muestreo de Gibbs y Metropolis. Suponiendo que tomo la media de la distribución posterior en lugar de una muestra aleatoria, ¿es esto lo que comúnmente se …


3
MCMC para manejar problemas de probabilidad plana
Tengo una probabilidad bastante plana de que el muestreador Metropolis-Hastings se mueva a través del espacio de parámetros de forma muy irregular, es decir, no se puede lograr la convergencia sin importar los parámetros de distribución de la propuesta (en mi caso, es gaussiana). No hay una gran complejidad en …

2
Índice de aceptación en el algoritmo de Metrópolis-Hastings
En el algoritmo Metropolis – Hastings para muestrear una distribución objetivo, dejemos que: πiπi\pi_{i} sea ​​la densidad objetivo en el estado ,iii πjπj\pi_j sea ​​la densidad objetivo en el estado propuesto ,jjj hijhijh_{ij} sea ​​la densidad propuesta para la transición al estado dado el estado actual ,jjjiii aijaija_{ij} sea ​​la …




1
Hamiltoniano Monte Carlo (HMC): ¿cuál es la intuición y la justificación detrás de una variable de momento distribuido gaussiano?
Estoy leyendo un impresionante artículo introductorio de HMC del profesor Michael Betancourt, pero me quedo atascado en la comprensión de cómo hacemos para elegir la distribución del impulso. Resumen La idea básica de HMC es introducir una variable de impulso junto con la variable objetivo . Conjuntamente forman un espacio …
8 mcmc  monte-carlo  hmc 


2
Al aproximar un posterior usando MCMC, ¿por qué no guardamos las probabilidades posteriores sino que usamos las frecuencias del valor del parámetro después?
Actualmente estoy estimando los parámetros de un modelo definido por varias ecuaciones diferenciales ordinarias (EDO). Intento esto con un enfoque bayesiano al aproximar la distribución posterior de los parámetros dados algunos datos usando Markov Chain Monte Carlo (MCMC). Un muestreador MCMC genera una cadena de valores de parámetros donde utiliza …


1
Rastreo de probabilidad extraño de la cadena MCMC
Tengo un modelo que va: Single parameter -> Complex likelihood function -> Log-likelihood. Ejecuté una cadena MCMC (usando pymc) y tracé el rastro del parámetro y la probabilidad logarítmica. La estimación del parámetro terminó siendo razonable, pero el gráfico de probabilidad de registro me parece extraño. La probabilidad de registro …

3
Cómo realizar SVD para imputar valores perdidos, un ejemplo concreto
He leído los excelentes comentarios sobre cómo lidiar con los valores perdidos antes de aplicar SVD, pero me gustaría saber cómo funciona con un ejemplo simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Dada la matriz anterior, …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.