Preguntas etiquetadas con bayesian

La inferencia bayesiana es un método de inferencia estadística que se basa en tratar los parámetros del modelo como variables aleatorias y aplicar el teorema de Bayes para deducir declaraciones de probabilidad subjetivas sobre los parámetros o hipótesis, condicional en el conjunto de datos observado.


1
¿Por qué la parte posterior bayesiana se concentra alrededor del minimizador de la divergencia KL?
Considere la bayesiana posterior . Asintóticamente, su máximo ocurre en la estimación MLE , que simplemente maximiza la probabilidad .θ ∣ Xθ∣X\theta\mid Xθ argmin θθ^θ^\hat \thetaargminθFθ( X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Todos estos conceptos (antecedentes bayesianos, maximizando la probabilidad) suenan súper principios y no son en absoluto arbitrarios. No hay un registro a …

2
¿Estimación de incertidumbre en problemas de inferencia de alta dimensión sin muestreo?
Estoy trabajando en un problema de inferencia de alta dimensión (alrededor de 2000 parámetros del modelo) para el cual somos capaces de realizar una estimación MAP de manera sólida al encontrar el máximo global del log-posterior utilizando una combinación de optimización basada en gradiente y un algoritmo genético. Me gustaría …




3
Los hiperplanos clasifican de manera óptima los datos cuando las entradas son condicionalmente independientes. ¿Por qué?
En el artículo titulado Deep Learning and the Information Bottleneck Principle, los autores declaran en la sección II A) lo siguiente: Las neuronas individuales clasifican solo entradas separables linealmente, ya que pueden implementar solo hiperplanos en su espacio de entrada . Los hiperplanes pueden clasificar de manera óptima los datos …


1
¿Por qué está sesgado el intervalo bayesiano creíble en esta regresión polinómica mientras que el intervalo de confianza es correcto?
Considere la siguiente gráfica en la que simulé datos de la siguiente manera. Observamos un resultado binario para el cual la probabilidad real de ser 1 se indica mediante la línea negra. La relación funcional entre una covariable y es un polinomio de tercer orden con enlace logístico (por lo …


1
¿Qué modelo de aprendizaje profundo puede clasificar categorías que no son mutuamente excluyentes?
Ejemplos: Tengo una oración en la descripción del trabajo: "Ingeniero senior de Java en el Reino Unido". Quiero usar un modelo de aprendizaje profundo para predecirlo en 2 categorías: English y IT jobs. Si uso el modelo de clasificación tradicional, solo puede predecir 1 etiqueta con softmaxfunción en la última …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 


2
Aplicando inferencia variacional estocástica a la mezcla bayesiana de gaussiana
Estoy tratando de implementar el modelo de mezcla gaussiana con inferencia variacional estocástica, siguiendo este artículo . Esta es la pgm de Gaussian Mixture. Según el artículo, el algoritmo completo de inferencia variacional estocástica es: Y todavía estoy muy confundido con el método para escalarlo a GMM. Primero, pensé que …


1
Ejemplo de cómo las estadísticas bayesianas pueden estimar parámetros que son muy difíciles de estimar a través de métodos frecuentistas
Los estadísticos bayesianos sostienen que "las estadísticas bayesianas pueden estimar parámetros que son muy difíciles de estimar mediante métodos frecuentistas". ¿La siguiente cita tomada de esta documentación de SAS dice lo mismo? Proporciona inferencias que son condicionales a los datos y son exactas, sin depender de la aproximación asintótica. La …

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.