Preguntas etiquetadas con markov-process

Un proceso estocástico con la propiedad de que el futuro es condicionalmente independiente del pasado, dado el presente.

3
Estimando las probabilidades de transición de Markov a partir de datos de secuencia
Tengo un conjunto completo de secuencias (432 observaciones para ser precisos) de 4 estados : por ejemploA−DA−DA-D Y=⎛⎝⎜⎜⎜⎜AB⋮BCA⋮CDA⋮ADC⋮DBA⋮AA−⋮BC−⋮A⎞⎠⎟⎟⎟⎟Y=(ACDDBACBAACA−−⋮⋮⋮⋮⋮⋮⋮BCADABA)Y=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A &C\\ B& A& A&C & A&- &-\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B& C& A&D & A & B & A\\ \end{array}\right) EDITAR …




4
Un ejemplo práctico para MCMC
Estaba pasando por algunas conferencias relacionadas con MCMC. Sin embargo, no encuentro un buen ejemplo de cómo se usa. ¿Alguien puede darme un ejemplo concreto? Todo lo que puedo ver es que corren una cadena de Markov y dicen que su distribución estacionaria es la distribución deseada. Quiero un buen …




2
¿Un MCMC que cumple con el saldo detallado produce una distribución estacionaria?
Supongo que entiendo la ecuación de la condición de equilibrio detallado, que establece que para la probabilidad de transición y la distribución estacionaria , una cadena de Markov satisface el equilibrio detallado siqqqππ\piq(x|y)π(y)=q(y|x)π(x),q(x|y)π(y)=q(y|x)π(x),q(x|y)\pi(y)=q(y|x)\pi(x), Esto tiene más sentido para mí si lo reformulo como: q(x|y)q(y|x)=π(x)π(y).q(x|y)q(y|x)=π(x)π(y).\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. Básicamente, la probabilidad de transición …







Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.