Preguntas etiquetadas con markov-process

Un proceso estocástico con la propiedad de que el futuro es condicionalmente independiente del pasado, dado el presente.




1
Núcleo de transición de Gibbs Sampler
Deje que sea ​​la distribución objetivo en que es absolutamente continua wrt a la medida dimensional de Lebesgue, es decir:ππ\pi(Rre, B(Rre) )(Rd,B(Rd))(\mathbb{R}^d,\mathcal{B}(\mathbb{R^d}))redd ππ\pi admite una densidad wrt a con π(X1, . . . ,Xre)π(x1,...,xd)\pi(x_1,...,x_d)λreλre\lambda^dλre( dX1, . . . , dXre) = λ ( dX1) ⋅ ⋅ ⋅ λ ( dXre)λre(reX1,...,reXre)=λ(reX1)⋅⋅⋅λ(reXre)\lambda^d(dx_1,...,dx_d) …

2
Prueba post-hoc después de 2 factores repetidos medidas ANOVA en R?
Tengo problemas para encontrar una solución con respecto a cómo ejecutar una prueba post-hoc (Tukey HSD) después de un ANOVA de medidas repetidas de 2 factores (ambos dentro de los sujetos) en R. Para el ANOVA, he usado la función aov: summary(aov(dv ~ x1 * x2 + Error(subject/(x1*x2)), data=df1)) Después …

1
¿Por qué una cadena de Markov finita, irreducible y aperiódica con una matriz doblemente estocástica P tiene una distribución limitante uniforme?
El teorema es "Si una matriz de transición para una cadena de Markov irreducible con un espacio de estado finito S es doblemente estocástica, su medida invariante (única) es uniforme sobre S." Si una cadena de Markov tiene una matriz de transición doblemente estocástica, leí que sus probabilidades limitantes constituyen …
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.