Preguntas etiquetadas con bayesian

La inferencia bayesiana es un método de inferencia estadística que se basa en tratar los parámetros del modelo como variables aleatorias y aplicar el teorema de Bayes para deducir declaraciones de probabilidad subjetivas sobre los parámetros o hipótesis, condicional en el conjunto de datos observado.


2
Plana, conjugada e hiperpreviales. ¿Qué son?
Actualmente estoy leyendo sobre los métodos bayesianos en la evolución molecular de la computación por Yang. En la sección 5.2 se habla de anteriores, y específicamente no informativo / plano / vago / difuso, conjugado e hiperprevio. Esto podría estar pidiendo una simplificación excesiva, pero, ¿alguien podría explicar simplemente la …
15 bayesian  prior 

2
Estimación de la distribución posterior de covarianza de un gaussiano multivariante
Necesito "aprender" la distribución de un gaussiano bivariado con pocas muestras, pero una buena hipótesis sobre la distribución anterior, por lo que me gustaría utilizar el enfoque bayesiano. Definí mi anterior: P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = …

2
¿Qué es un 'método para pasar mensajes'?
Tengo un vago sentido de lo que es un método de paso de mensajes: un algoritmo que construye una aproximación a una distribución construyendo iterativamente aproximaciones de cada uno de los factores de la distribución condicional a todas las aproximaciones de todos los demás factores. Creo que ambos son ejemplos …



2
¿De dónde vienen los condicionales completos en el muestreo de Gibbs?
Los algoritmos MCMC como el muestreo de Metropolis-Hastings y Gibbs son formas de muestreo de las distribuciones posteriores conjuntas. Creo que entiendo y puedo implementar la aceleración de las metrópolis con bastante facilidad: simplemente elige los puntos de partida de alguna manera y "recorre el espacio de parámetros" al azar, …
15 bayesian  mcmc  gibbs 


2
Constante de normalización en el teorema de Bayes
Pr(data)Pr(data)\Pr(\textrm{data}) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} se llama una constante de normalización . ¿Qué es exactamente? ¿Cual es su propósito? ¿Por qué se ve como ? ¿Por qué no depende de los parámetros?Pr(data)Pr(data)\Pr(data)

5
¿Hay más en la probabilidad que el bayesianismo?
Como estudiante de física, he experimentado la conferencia "Por qué soy bayesiano" tal vez media docena de veces. Siempre es lo mismo: el presentador explica con aire de suficiencia cómo la interpretación bayesiana es superior a la interpretación frecuentista supuestamente empleada por las masas. Mencionan la regla de Bayes, marginación, …

1
¿Qué método de comparación múltiple usar para un modelo lmer: lsmeans o glht?
Estoy analizando un conjunto de datos utilizando un modelo de efectos mixtos con un efecto fijo (condición) y dos efectos aleatorios (participante debido al diseño del sujeto y al par). El modelo se ha generado con el lme4paquete: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). A continuación, realicé una prueba de razón de probabilidad de este …



1
Hamiltoniano Monte Carlo para tontos
¿Podría proporcionar una explicación paso a paso para tontos de cómo funciona el Hamiltoniano Monte Carlo? PD: Ya he leído las respuestas aquí, Hamiltoniano Monte Carlo , y aquí, Hamiltoniano Monte Carlo vs. Sequential Monte Carlo , y aquí, Hamiltoniano Monte Carlo: ¿cómo dar sentido a la propuesta de Metrópolis …
14 bayesian  hmc 


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.