¿Cuál es la diferencia entre las cadenas de Markov y los procesos de Markov?
Estoy leyendo información contradictoria: a veces la definición se basa en si el espacio de estado es discreto o continuo, y otras veces se basa en si el tiempo es discreto o continuo.
Diapositiva 20 de este documento :
Un proceso de Markov se denomina cadena de Markov si el espacio de estado es discreto, es decir, es finito o el espacio contable es discreto, es decir, es finito o contable.
http://www.win.tue.nl/~iadan/que/h3.pdf :
Un proceso de Markov es la versión de tiempo continuo de una cadena de Markov.
O se puede usar la cadena de Markov y el proceso de Markov como sinónimos, precisando si el parámetro de tiempo es continuo o discreto, así como si el espacio de estado es continuo o discreto.
Actualización 2017-03-04: se hizo la misma pregunta en https://www.quora.com/Can-I-use-the-words-Markov-process-and-Markov-chain-interchangebly