Preguntas etiquetadas con posterior

Se refiere a la distribución de probabilidad de parámetros condicionados a datos en estadísticas bayesianas.

2
Al aproximar un posterior usando MCMC, ¿por qué no guardamos las probabilidades posteriores sino que usamos las frecuencias del valor del parámetro después?
Actualmente estoy estimando los parámetros de un modelo definido por varias ecuaciones diferenciales ordinarias (EDO). Intento esto con un enfoque bayesiano al aproximar la distribución posterior de los parámetros dados algunos datos usando Markov Chain Monte Carlo (MCMC). Un muestreador MCMC genera una cadena de valores de parámetros donde utiliza …



1
Derivando la densidad posterior para una probabilidad lognormal y el previo de Jeffreys
La función de probabilidad de una distribución lognormal es: F( x ; μ , σ) ∝∏norteyo11σXyoExp( -( lnXyo- μ)22σ2)F(X;μ,σ)∝∏yo1norte1σXyoExp⁡(-(En⁡Xyo-μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) y el Prior de Jeffreys es: p ( μ , σ) ∝1σ2pags(μ,σ)∝1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} combinando …



2
¿Por qué un modelo estadístico se sobreajusta si se le da un gran conjunto de datos?
Mi proyecto actual puede requerir que construya un modelo para predecir el comportamiento de un determinado grupo de personas. el conjunto de datos de entrenamiento contiene solo 6 variables (la identificación es solo para fines de identificación): id, age, income, gender, job category, monthly spend en el cual monthly spendestá …
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 


2
Cálculo de probabilidad cuando es muy grande, ¿entonces la probabilidad se vuelve muy pequeña?
Estoy tratando de calcular esta distribución posterior: (θ|−)=∏ni=1pyii(1−pi)1−yi∑allθ,pi|θ∏ni=1pyii(1−pi)1−yi(θ|−)=∏i=1npiyi(1−pi)1−yi∑allθ,pi|θ∏i=1npiyi(1−pi)1−yi (\theta|-)=\frac{\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}}{\sum_{\text{all}\,\theta,p_i|\theta}\prod_{i=1}^{n}p_i^{y_i}(1-p_i)^{1-y_i}} El problema es que el numerador, que es el producto de un montón de probabilidades es demasiado pequeño. (Mi es grande, alrededor de 1500).Bernoulli(pi,yi)Bernoulli(pi,yi)\text{Bernoulli}(p_i,y_i)nnn Por lo tanto, los valores posteriores para all se calculan como 0 (estoy haciendo cálculos en R).θθ\theta …
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.