Preguntas etiquetadas con prior

En las estadísticas bayesianas, una distribución previa formaliza la información o el conocimiento (a menudo subjetivo), disponible antes de que se vea una muestra, en forma de distribución de probabilidad. Se utiliza una distribución con gran difusión cuando se sabe poco acerca de los parámetros, mientras que una distribución previa más estrecha representa un mayor grado de información.



2
Regresión de cresta - interpretación bayesiana
He oído que la regresión de cresta se puede derivar como la media de una distribución posterior, si la anterior se elige adecuadamente. ¿Es la intuición de que las restricciones establecidas en los coeficientes de regresión por el anterior (por ejemplo, distribuciones normales estándar alrededor de 0) son idénticas / …


1
¿Cuál es la intuición detrás de las muestras intercambiables bajo la hipótesis nula?
Las pruebas de permutación (también llamadas prueba de aleatorización, prueba de aleatorización o prueba exacta) son muy útiles y resultan útiles cuando t-testno se cumple el supuesto de distribución normal requerido por ejemplo y cuando se transforman los valores mediante la clasificación de prueba no paramétrica como Mann-Whitney-U-testconduciría a la …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
Plana, conjugada e hiperpreviales. ¿Qué son?
Actualmente estoy leyendo sobre los métodos bayesianos en la evolución molecular de la computación por Yang. En la sección 5.2 se habla de anteriores, y específicamente no informativo / plano / vago / difuso, conjugado e hiperprevio. Esto podría estar pidiendo una simplificación excesiva, pero, ¿alguien podría explicar simplemente la …
15 bayesian  prior 



2
Parámetros sin antecedentes definidos en Stan
Acabo de empezar a aprender a usar Stan y rstan. A menos que siempre haya estado confundido acerca de cómo funcionaba JAGS / BUGS, pensé que siempre tenía que definir una distribución previa de algún tipo para cada parámetro del modelo que se extraería. Sin embargo, parece que no tiene …



1
¿Cuándo debería preocuparme la paradoja de Jeffreys-Lindley en la elección del modelo bayesiano?
Estoy considerando un espacio grande (pero finito) de modelos de complejidad variable que exploro usando RJMCMC . Lo anterior en el vector de parámetros para cada modelo es bastante informativo. ¿En qué casos (si corresponde) debería preocuparme la paradoja de Jeffreys-Lindley que favorece modelos más simples cuando uno de los …


2
¿Puede una probabilidad adecuada anterior y exponencial conducir a una posterior incorrecta?
(Esta pregunta está inspirada en este comentario de Xi'an ). Es bien sabido que si la distribución anterior es adecuada y la probabilidad está bien definida, entonces la distribución posterior es apropiado casi con seguridad.π(θ)π(θ)\pi(\theta)L(θ|x)L(θ|x)L(\theta | x)π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) En algunos casos, utilizamos en cambio una probabilidad moderada o exponencial, …


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.