Preguntas etiquetadas con prior

En las estadísticas bayesianas, una distribución previa formaliza la información o el conocimiento (a menudo subjetivo), disponible antes de que se vea una muestra, en forma de distribución de probabilidad. Se utiliza una distribución con gran difusión cuando se sabe poco acerca de los parámetros, mientras que una distribución previa más estrecha representa un mayor grado de información.


1
Distribuciones hiperprior para los parámetros (matriz de escala y grados de libertad) de un wishart antes de una matriz de covarianza inversa
Estoy estimando varias matrices de covarianza inversa de un conjunto de mediciones a través de diferentes subpoblaciones usando un wishart anterior en jags / rjags / R. En lugar de especificar una matriz de escala y grados de libertad en la matriz de covarianza inversa anterior (la distribución de Wishart), …



3
Cómo realizar SVD para imputar valores perdidos, un ejemplo concreto
He leído los excelentes comentarios sobre cómo lidiar con los valores perdidos antes de aplicar SVD, pero me gustaría saber cómo funciona con un ejemplo simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Dada la matriz anterior, …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

3
Probabilidad gaussiana + which prior = Gaussian Marginal?
Dada una probabilidad gaussiana para una muestra como con siendo el espacio de parámetros y , parametrizaciones arbitrarias del vector medio y la matriz de covarianza.yyyp ( yEl | θ)= N( y; μ ( θ ) , Σ ( θ ) )p(y|θ)=N(y;μ(θ),Σ(θ))p(y|\theta) = \mathcal{N}(y;\mu(\theta),\Sigma(\theta))ΘΘ\Thetaμ ( θ )μ(θ)\mu(\theta)Σ ( θ )Σ(θ)\Sigma(\theta) …


2
¿Cómo se usa el teorema de Bayes con un previo continuo?
Si mi anterior se modela como una distribución de probabilidad continua, por ejemplo, una distribución beta sesgada para reflejar mi sesgo hacia ciertos modelos, ¿cómo puedo calcular la probabilidad posterior? El desafío para mí es calcular la probabilidad de un modelo dado, ya que la distribución continua solo me dará …
8 bayesian  prior 


1
Derivando la densidad posterior para una probabilidad lognormal y el previo de Jeffreys
La función de probabilidad de una distribución lognormal es: F( x ; μ , σ) ∝∏norteyo11σXyoExp( -( lnXyo- μ)22σ2)F(X;μ,σ)∝∏yo1norte1σXyoExp⁡(-(En⁡Xyo-μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) y el Prior de Jeffreys es: p ( μ , σ) ∝1σ2pags(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} combinando …



1
Elegir antecedentes no informativos
Estoy trabajando en un modelo que depende de una función parametrizada fea que actúa como una función de calibración en una parte del modelo. Utilizando una configuración bayesiana, necesito obtener antecedentes no informativos para los parámetros que describen mi función. Sé que, idealmente, debería derivar referencias o al menos anteriores …

2
¿Cómo se relaciona la distribución gamma inversa con y ?
Dado que la estimación posterior de de una probabilidad normal y una gamma inversa antes de es:σ′2σ′2\sigma'^{2}σ2σ2\sigma^2 σ′2∼IG(α+n2,β+∑ni=1(yi−μ)22)σ′2∼IG(α+n2,β+∑i=1n(yi−μ)22)\sigma'^{2}\sim\textrm{IG}\left(\alpha + \frac{n}{2}, \beta +\frac{\sum_{i=1}^n{(y_i-\mu)^2}}{2}\right) que es equivalente a σ′2∼IG(n2,nσ22)σ′2∼IG(n2,nσ22)\sigma'^{2}\sim\textrm{IG}\left( \frac{n}{2}, \frac{n\sigma^2}{2}\right) dado que un débil en elimina y de la ecuación 1:IG(α,β)IG(α,β)\textrm{IG}(\alpha, \beta)σ2σ2\sigma^2αα\alphaββ\beta σ′2∼IG(n2,∑ni=1(yi−μ)22)σ′2∼IG(n2,∑i=1n(yi−μ)22)\sigma'^{2}\sim\textrm{IG}\left( \frac{n}{2}, \frac{\sum_{i=1}^n{(y_i-\mu)^2}}{2}\right) Es evidente que la estimación posterior …

1
¿Cómo completo el cuadrado con probabilidad normal y normal anterior?
¿Cómo completo el cuadrado desde el punto donde lo dejé y es correcto hasta ahora? Tengo un previo normal para ββ\beta de la forma p(β|σ2)∼N(0,σ2V)p(β|σ2)∼N(0,σ2V)p(\beta|\sigma^2)\sim \mathcal{N}(0,\sigma^2V), Llegar: p(β|σ2)=(2πσ2V)p2exp[−12σ2βTβ]p(β|σ2)=(2πσ2V)p2exp⁡[−12σ2βTβ]p(\beta|\sigma^2)=(2\pi\sigma^2V)^\frac{p}{2}\exp[-\frac{1}{2\sigma^2}\beta^T\beta] dónde βTββTβ\beta^T\betaes .∑i=1pβ2i∑i=1pβi2\sum\limits_{i=1}^p \beta_i^2 Mi probabilidad tiene una distribución normal para los puntos de datos y de la formap(y|β,σ2)∼N(Bβ,σ2I)p(y|β,σ2)∼N(Bβ,σ2I)p(y|\beta,\sigma^2)\sim\mathcal{N}(B\beta,\sigma^2I) p(y|β,σ2)=(2πσ2V)n2exp[−12σ2(y−Bβ)T(y−Bβ)]p(y|β,σ2)=(2πσ2V)n2exp⁡[−12σ2(y−Bβ)T(y−Bβ)]p(y|\beta,\sigma^2)=(2\pi \sigma^2V)^\frac{n}{2}\exp[-\frac{1}{2\sigma^2}({\bf y}-{\bf …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.