Preguntas etiquetadas con bayesian

La inferencia bayesiana es un método de inferencia estadística que se basa en tratar los parámetros del modelo como variables aleatorias y aplicar el teorema de Bayes para deducir declaraciones de probabilidad subjetivas sobre los parámetros o hipótesis, condicional en el conjunto de datos observado.

2
¿Cómo se usa el teorema de Bayes con un previo continuo?
Si mi anterior se modela como una distribución de probabilidad continua, por ejemplo, una distribución beta sesgada para reflejar mi sesgo hacia ciertos modelos, ¿cómo puedo calcular la probabilidad posterior? El desafío para mí es calcular la probabilidad de un modelo dado, ya que la distribución continua solo me dará …
8 bayesian  prior 



1
Núcleo de transición de Gibbs Sampler
Deje que sea ​​la distribución objetivo en que es absolutamente continua wrt a la medida dimensional de Lebesgue, es decir:ππ\pi(Rre, B(Rre) )(Rd,B(Rd))(\mathbb{R}^d,\mathcal{B}(\mathbb{R^d}))redd ππ\pi admite una densidad wrt a con π(X1, . . . ,Xre)π(x1,...,xd)\pi(x_1,...,x_d)λreλre\lambda^dλre( dX1, . . . , dXre) = λ ( dX1) ⋅ ⋅ ⋅ λ ( dXre)λre(reX1,...,reXre)=λ(reX1)⋅⋅⋅λ(reXre)\lambda^d(dx_1,...,dx_d) …

3
Encuentra distribución y transforma a distribución normal
Tengo datos que describen con qué frecuencia tiene lugar un evento durante una hora ("número por hora", nph) y cuánto duran los eventos ("duración en segundos por hora", dph). Estos son los datos originales: nph <- c(2.50000000003638, 3.78947368414551, 1.51456310682008, 5.84686774940732, 4.58823529414907, 5.59999999993481, 5.06666666666667, 11.6470588233699, 1.99999999998209, NA, 4.46153846149851, 18, 1.05882352939726, 9.21739130425452, …
8 normal-distribution  data-transformation  logistic  generalized-linear-model  ridge-regression  t-test  wilcoxon-signed-rank  paired-data  naive-bayes  distributions  logistic  goodness-of-fit  time-series  eviews  ecm  panel-data  reliability  psychometrics  validity  cronbachs-alpha  self-study  random-variable  expected-value  median  regression  self-study  multiple-regression  linear-model  forecasting  prediction-interval  normal-distribution  excel  bayesian  multivariate-analysis  modeling  predictive-models  canonical-correlation  rbm  time-series  machine-learning  neural-networks  fishers-exact  factorisation-theorem  svm  prediction  linear  reinforcement-learning  cdf  probability-inequalities  ecdf  time-series  kalman-filter  state-space-models  dynamic-regression  index-decomposition  sampling  stratification  cluster-sample  survey-sampling  distributions  maximum-likelihood  gamma-distribution 






1
Derivando la densidad posterior para una probabilidad lognormal y el previo de Jeffreys
La función de probabilidad de una distribución lognormal es: F( x ; μ , σ) ∝∏norteyo11σXyoExp( -( lnXyo- μ)22σ2)F(X;μ,σ)∝∏yo1norte1σXyoExp⁡(-(En⁡Xyo-μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) y el Prior de Jeffreys es: p ( μ , σ) ∝1σ2pags(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} combinando …



1
Combinando datos de diferentes fuentes
Quiero combinar datos de diferentes fuentes. Digamos que quiero estimar una propiedad química (por ejemplo, un coeficiente de partición ): Tengo algunos datos empíricos, que varían debido al error de medición en torno a la media. Y, en segundo lugar, tengo un modelo que predice una estimación a partir de …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.