Preguntas etiquetadas con expectation-maximization

Un algoritmo de optimización utilizado a menudo para la estimación de máxima verosimilitud en presencia de datos faltantes.




2
¿MLE siempre significa que conocemos el PDF subyacente de nuestros datos, y EM significa que no?
Tengo algunas preguntas conceptuales simples que me gustaría aclarar con respecto a MLE (Estimación de máxima verosimilitud), y qué vínculo tiene, si lo hay, con EM (Maximización de expectativas). Según tengo entendido, si alguien dice "Usamos el MLE", ¿significa eso automáticamente que tienen un modelo explícito del PDF de sus …

2
¿Encontrar el número de gaussianos en una mezcla finita con el teorema de Wilks?
Suponga que tengo un conjunto de observaciones univariadas independientes, distribuidas idénticamente dos hipótesis sobre cómo se generó :xxxxxx H0H0H_0 : xxx se extrae de una distribución gaussiana única con media y varianza desconocidas. HAHAH_A : xxx se extrae de una mezcla de dos gaussianos con media, varianza y coeficiente de …

2
Importancia de las probabilidades iniciales de transición en un modelo oculto de Markov
¿Cuáles son los beneficios de dar ciertos valores iniciales a las probabilidades de transición en un modelo oculto de Markov? Finalmente, el sistema los aprenderá, entonces, ¿cuál es el punto de dar valores distintos de los aleatorios? ¿El algoritmo subyacente hace una diferencia como Baum-Welch? Si conozco las probabilidades de …


1
¿Cómo utiliza el algoritmo EM para calcular los MLE para una formulación variable latente de un modelo de Poisson inflado a cero?
El modelo de regresión de Poisson inflado a cero se define para una muestra por y además supone que los parámetros \ mathbf {\ lambda} = (\ lambda_1, \ dots, \ lambda_n) y \ textbf {p} = (p_1, \ dots, p_n) satisfacen(y1,…,yn)(y1,…,yn)(y_1,\ldots,y_n)λ = ( λ 1 , ... , λ …


1
¿Cómo hacer una matriz positiva definida?
Estoy tratando de implementar un algoritmo EM para el siguiente modelo de análisis factorial; Wj= μ + B aj+ ejparaj = 1 , ... , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n donde es un vector aleatorio p-dimensional, a j es un vector q-dimensional de variables latentes y B es una …


2
Ayuda en Expectativa Maximización del papel: ¿cómo incluir la distribución previa?
La pregunta se basa en el artículo titulado: Reconstrucción de imágenes en tomografía óptica difusa utilizando el modelo acoplado de transporte radiativo-difusión Enlace de descarga Los autores aplican el algoritmo EM con regularización de dispersión de un vector desconocido para estimar los píxeles de una imagen. El modelo viene dado …

1
¿Limitaciones de MCMC / EM? MCMC sobre EM?
Actualmente estoy aprendiendo modelos bayesianos jerárquicos usando JAGS de R, y también pymc usando Python ( "Métodos Bayesianos para Hackers" ). Puedo entender algo de esta publicación : "terminarás con una pila de números que parece" como si "hubieras logrado tomar muestras independientes de la complicada distribución que querías saber". …



Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.