Actualmente estoy leyendo algunos documentos sobre el agrupamiento de la cadena de Markov y no puedo ver la diferencia entre una cadena de Markov y un gráfico ponderado dirigido simple.
Por ejemplo, en el artículo Optimización óptima del espacio de estado en las cadenas de Markov , proporcionan la siguiente definición de un CTMC (cadena de Markov de tiempo continuo):
Consideramos un CTMC finito con espacio de estado por una matriz de tasa de transición .S = { x 1 , x 2 , … , x n } Q : S × S → R +
No mencionan en absoluto la propiedad de Markov y, de hecho, si el peso en los bordes representa una probabilidad, creo que la propiedad de Markov es trivial, ya que la probabilidad depende solo del estado actual de la cadena y no de la ruta que conduce lo.
En otro artículo sobre las propiedades relacionales de la capacidad de iluminación, las cadenas de Markov se definen de manera similar:
Una cadena de Markov se representará como un triplete donde es el conjunto finito de estados de , la matriz de probabilidad de transición que indica la probabilidad de pasar de un estado a otro, y es el distribución de probabilidad inicial que representa la probabilidad de que el sistema comience en un determinado estado.( S , P , π ) S M P π
Nuevamente, no se menciona el pasado, el futuro o la independencia.
Hay un tercer papel Simple O (m logn) Time Markov Chain Lumping donde no solo nunca afirman que los pesos en los bordes son probabilidades, sino que incluso dicen:
En muchas aplicaciones, los valores no son negativos. Sin embargo, no hacemos esta suposición, porque también hay aplicaciones en las que se elige deliberadamente como , por lo que generalmente es negativo.W ( s , s ) - W ( s , S ∖ { s } )
Además, se afirma que el agrupamiento debería ser una forma de reducir el número de estados al tiempo que se mantiene la propiedad de Markov (agregando el estado "equivalente" en un estado más grande). Sin embargo, para mí, parece que se trata simplemente de sumar probabilidades y ni siquiera debería garantizar que las peobabilidades resultantes de las transiciones a / desde los estados agregados estén en el rango . Entonces, ¿qué preserva realmente el bulto?
Entonces, hay dos posibilidades que veo:
- No entendí qué es una cadena de Markov, o
- El uso del término cadena de Markov en esos documentos es falso
¿Alguien podría aclarar la situación?
Realmente parece que hay diferentes comunidades que usan ese término y significan cosas muy diferentes. De estos 3 artículos que estoy considerando parece que la propiedad de Markov es trivial o inútil, mientras que mirando un tipo diferente de documentos parece fundamental.