Preguntas etiquetadas con conjugate-prior

Una distribución a priori en la estadística bayesiana que es tal que, cuando se combina con la probabilidad, el posterior resultante es de la misma familia de distribuciones.








2
¿Cuáles son los parámetros de un Wishart-Wishart posterior?
Al inferir la matriz de precisión ΛΛ\boldsymbol{\Lambda} de una distribución normal utilizada para generar NNN vectores dimensionales D x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} usualmente colocamos un Wishart anterior sobre ΛΛ\boldsymbol{\Lambda} ya que la distribución Wishart es el conjugado previo para La precisión de una distribución normal multivariada …



1
¿Qué modelo de aprendizaje profundo puede clasificar categorías que no son mutuamente excluyentes?
Ejemplos: Tengo una oración en la descripción del trabajo: "Ingeniero senior de Java en el Reino Unido". Quiero usar un modelo de aprendizaje profundo para predecirlo en 2 categorías: English y IT jobs. Si uso el modelo de clasificación tradicional, solo puede predecir 1 etiqueta con softmaxfunción en la última …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

3
Probabilidad gaussiana + which prior = Gaussian Marginal?
Dada una probabilidad gaussiana para una muestra como con siendo el espacio de parámetros y , parametrizaciones arbitrarias del vector medio y la matriz de covarianza.yyyp ( yEl | θ)= N( y; μ ( θ ) , Σ ( θ ) )p(y|θ)=N(y;μ(θ),Σ(θ))p(y|\theta) = \mathcal{N}(y;\mu(\theta),\Sigma(\theta))ΘΘ\Thetaμ ( θ )μ(θ)\mu(\theta)Σ ( θ )Σ(θ)\Sigma(\theta) …



1
Derivando la densidad posterior para una probabilidad lognormal y el previo de Jeffreys
La función de probabilidad de una distribución lognormal es: F( x ; μ , σ) ∝∏norteyo11σXyoExp( -( lnXyo- μ)22σ2)F(X;μ,σ)∝∏yo1norte1σXyoExp⁡(-(En⁡Xyo-μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) y el Prior de Jeffreys es: p ( μ , σ) ∝1σ2pags(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} combinando …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.