Preguntas etiquetadas con bayesian

La inferencia bayesiana es un método de inferencia estadística que se basa en tratar los parámetros del modelo como variables aleatorias y aplicar el teorema de Bayes para deducir declaraciones de probabilidad subjetivas sobre los parámetros o hipótesis, condicional en el conjunto de datos observado.




2
Configuración del algoritmo de simulación para verificar la calibración de probabilidades posteriores bayesianas
A menudo, descubrir cómo simular algo es la mejor manera de comprender los principios subyacentes. No sé exactamente cómo simular lo siguiente. Suponer que Y∼ N( μ ,σ2)Y∼norte(μ,σ2)Y \sim N(\mu, \sigma^{2}) y eso μμ\mu tiene una distribución previa que es norte( γ,τ2)norte(γ,τ2)N(\gamma, \tau^{2}). Basado en una muestra denortenorten observaciones Y1, …

2
Al aproximar un posterior usando MCMC, ¿por qué no guardamos las probabilidades posteriores sino que usamos las frecuencias del valor del parámetro después?
Actualmente estoy estimando los parámetros de un modelo definido por varias ecuaciones diferenciales ordinarias (EDO). Intento esto con un enfoque bayesiano al aproximar la distribución posterior de los parámetros dados algunos datos usando Markov Chain Monte Carlo (MCMC). Un muestreador MCMC genera una cadena de valores de parámetros donde utiliza …



3
Cómo realizar SVD para imputar valores perdidos, un ejemplo concreto
He leído los excelentes comentarios sobre cómo lidiar con los valores perdidos antes de aplicar SVD, pero me gustaría saber cómo funciona con un ejemplo simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Dada la matriz anterior, …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 



1
¿Se puede usar BIC para pruebas de hipótesis?
Defina el criterio de información bayesiano como (no dejo caer el constante, , para evitar problemas cuando se compara con la probabilidad marginal)BIC=−2⋅lnL^+k⋅(ln(n)−ln(2π))BIC=−2⋅ln⁡L^+k⋅(ln⁡(n)−ln⁡(2π)) \mathrm{BIC} = {-2 \cdot \ln{\hat L} + k \cdot (\ln(n) - \ln(2 \pi))} −ln(2π)−ln⁡(2π) - \ln(2 \pi) Dados los datos y un modelo , la relación aproximada …





Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.