Preguntas etiquetadas con bayesian

La inferencia bayesiana es un método de inferencia estadística que se basa en tratar los parámetros del modelo como variables aleatorias y aplicar el teorema de Bayes para deducir declaraciones de probabilidad subjetivas sobre los parámetros o hipótesis, condicional en el conjunto de datos observado.

1
Detección de punto de cambio bayesiano en línea (distribución predictiva marginal)
Estoy leyendo el artículo de detección de punto de cambio en línea Bayesiano de Adams y MacKay ( enlace ). Los autores comienzan escribiendo la distribución predictiva marginal: dondeP(xt+1|x1:t)=∑rtP(xt+1|rt,x(r)t)P(rt|x1:t)(1)P(xt+1|x1:t)=∑rtP(xt+1|rt,xt(r))P(rt|x1:t)(1) P(x_{t+1} | \textbf{x}_{1:t}) = \sum_{r_t} P(x_{t+1} | r_t, \textbf{x}_t^{(r)}) P(r_t | \textbf{x}_{1:t}) \qquad \qquad (1) xtxtx_t es la observación en el …



2
Comparación entre estimadores de Bayes
Considere la pérdida cuadrática , con la anterior donde . Sea la probabilidad. Encuentre el estimador de Bayes .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Considere la pérdida cuadrática ponderada donde con anterior . Sea sea ​​la probabilidad. Encuentre el estimador de Bayes .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Compare yδπδπ\delta^\piδπ1δ1π\delta^\pi_1 Primero noté que , y …

2
Ayuda en Expectativa Maximización del papel: ¿cómo incluir la distribución previa?
La pregunta se basa en el artículo titulado: Reconstrucción de imágenes en tomografía óptica difusa utilizando el modelo acoplado de transporte radiativo-difusión Enlace de descarga Los autores aplican el algoritmo EM con regularización de dispersión de un vector desconocido para estimar los píxeles de una imagen. El modelo viene dado …



1
¿Limitaciones de MCMC / EM? MCMC sobre EM?
Actualmente estoy aprendiendo modelos bayesianos jerárquicos usando JAGS de R, y también pymc usando Python ( "Métodos Bayesianos para Hackers" ). Puedo entender algo de esta publicación : "terminarás con una pila de números que parece" como si "hubieras logrado tomar muestras independientes de la complicada distribución que querías saber". …

1
¿Es una estimación bayesiana con un "plano anterior" lo mismo que una estimación de máxima verosimilitud?
En filogenética, los árboles filogenéticos a menudo se construyen usando MLE o análisis bayesiano. A menudo, se utiliza un previo plano en la estimación bayesiana. Según tengo entendido, una estimación bayesiana es una estimación de probabilidad que incorpora un previo. Mi pregunta es, si usa un plano anterior, ¿es diferente …


4
¿Qué es una "distribución estrictamente positiva"?
Estoy leyendo la "Causalidad" de Judea Pearl (segunda edición 2009) y en la sección 1.1.5 Independencia condicional y Grafoides, dice: La siguiente es una lista (parcial) de propiedades satisfechas por la relación de independencia condicional (X_ || _Y | Z). Simetría: (X_ || _ Y | Z) ==> (Y_ || …


3
Comprender las distribuciones predictivas bayesianas
Estoy tomando un curso de Introducción a Bayes y tengo dificultades para comprender las distribuciones predictivas. Entiendo por qué son útiles y estoy familiarizado con la definición, pero hay algunas cosas que no entiendo del todo. 1) Cómo obtener la distribución predictiva correcta para un vector de nuevas observaciones Supongamos …

3
¿Por qué el teorema de Bayes funciona gráficamente?
Desde un punto de vista matemático, el teorema de Bayes tiene mucho sentido para mí (es decir, derivar y probar), pero lo que no sé es si existe o no un argumento geométrico o gráfico agradable que pueda demostrarse para explicar el teorema de Bayes. Intenté buscar en Google una …

2
¿Cómo un uniforme anterior conduce a las mismas estimaciones de máxima probabilidad y modo de posterior?
Estoy estudiando diferentes métodos de estimación puntual y leí que cuando usamos estimaciones MAP vs ML, cuando usamos un "uniforme previo", las estimaciones son idénticas. ¿Alguien puede explicar qué es un "uniforme" anterior y dar algunos ejemplos (simples) de cuándo los estimadores MAP y ML serían los mismos?

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.