He leído que los HMM, los filtros de partículas y los filtros de Kalman son casos especiales de redes dinámicas de Bayes. Sin embargo, solo conozco HMM y no veo la diferencia con las redes dinámicas de Bayes.
¿Podría alguien explicarme?
Sería bueno si su respuesta pudiera ser similar a la siguiente, pero para bayes Networks:
Modelos ocultos de Markov
Un modelo de Markov oculto (HMM) es una tupla de 5 tuplas :
- : un conjunto de estados (por ejemplo, "comienzo del fonema", "centro del fonema", "fin del fonema")
- : conjunto de posibles observaciones (señales de audio)
- : una matriz estocástica que proporciona probabilidades para pasar del estado al estado .i j
- : una matriz estocástica que proporciona probabilidades para obtener en el estado la observación .k l
- : distribución inicial para comenzar en uno de los estados.
Por lo general, se muestra como un gráfico dirigido, donde cada nodo corresponde a un estado y las probabilidades de transición se denotan en los bordes.
Los modelos ocultos de Markov se denominan "ocultos" porque el estado actual está oculto. Los algoritmos tienen que adivinarlo a partir de las observaciones y del modelo en sí. Se llaman "Markov", porque para el próximo estado solo importa el estado actual.
Para los HMM, proporciona una topología fija (número de estados, posibles bordes). Luego hay 3 tareas posibles
- Evaluación : dado un HMM , qué tan probable es obtener observaciones (algoritmo de reenvío)o 1 , … , o t
- Decodificación : dado un HMM y una observación , ¿cuál es la secuencia más probable de estados (algoritmo de Viterbi)
- Aprendizaje : aprenda : algoritmo de Baum-Welch , que es un caso especial de maximización de expectativas.
Redes Bayes
Las redes de Bayes son gráficos acíclicos dirigidos (DAG) . Los nodos representan variables aleatorias . Para cada , hay una distribución de probabilidad que está condicionada por los padres de :
Parece que hay (por favor aclare) dos tareas:
- Inferencia : Dadas algunas variables, obtenga los valores más probables de las otras variables. La inferencia exacta es NP-dura. Aproximadamente, puede usar MCMC.
Aprendizaje : cómo aprende esas distribuciones depende del problema exacto ( fuente ):
- estructura conocida, totalmente observable: estimación de máxima verosimilitud (MLE)
- estructura conocida, parcialmente observable: maximización de expectativas (EM) o Markov Chain Monte Carlo (MCMC)
- estructura desconocida, completamente observable: búsqueda a través del espacio modelo
- estructura desconocida, parcialmente observable: búsqueda EM + a través del espacio modelo
Redes dinámicas de Bayes
Supongo que las redes dinámicas de Bayes (DBN) también son modelos gráficos probabilísticos dirigidos. La variabilidad parece provenir de la red que cambia con el tiempo. Sin embargo, me parece que esto es equivalente a copiar solo la misma red y conectar cada nodo en el tiempo con cada nodo correspondiente en el tiempo . ¿Es ese el caso?