¿Es una máquina de estados finitos solo una implementación de una cadena de Markov? ¿Cuáles son las diferencias entre los dos?
Respuestas:
Las cadenas de Markov se pueden representar mediante máquinas de estados finitos. La idea es que una cadena de Markov describe un proceso en el que la transición a un estado en el tiempo t + 1 depende solo del estado en el tiempo t. Lo principal a tener en cuenta es que las transiciones en una cadena de Markov son probabilísticas en lugar de deterministas, lo que significa que no siempre se puede decir con absoluta certeza lo que sucederá en el tiempo t + 1.
Los artículos de Wikipedia sobre máquinas de estado finito tienen una subsección sobre procesos de cadena de Markov finita , recomiendo leer eso para obtener más información. Además, el artículo de Wikipedia sobre cadenas de Markov tiene una breve oración que describe el uso de máquinas de estados finitos para representar una cadena de Markov. Que dice:
Se puede utilizar una máquina de estados finitos como representación de una cadena de Markov. Suponiendo una secuencia de señales de entrada independientes e idénticamente distribuidas (por ejemplo, símbolos de un alfabeto binario elegido mediante el lanzamiento de una moneda), si la máquina está en el estado y en el momento n, entonces la probabilidad de que se mueva al estado x en el momento n + 1 depende solo del estado actual.
Mientras que una cadena de Markov es una máquina de estados finitos, se distingue por que sus transiciones son estocásticas, es decir, aleatorias, y se describen por probabilidades.
Los dos son similares, pero las otras explicaciones aquí son un poco incorrectas. Sólo las cadenas FINITAS de Markov pueden representarse mediante un FSM. Las cadenas de Markov permiten un espacio de estados infinito. Como se señaló, las transiciones de una cadena de Markov se describen mediante probabilidades, pero también es importante mencionar que las probabilidades de transición solo pueden depender del estado actual. Sin esta restricción, se llamaría un "proceso estocástico de tiempo discreto".
Lea estos artículos:
Vínculos entre los autómatas probabilísticos y los modelos ocultos de Markov (por Pierre Dupont) http://www.info.ucl.ac.be/~pdupont/pdupont/pdf/HMM_PA_pres_n4.pdf
[Manual de teoría del cerebro y redes neuronales] Modelos ocultos de Markov y otros autómatas de estado finito para el procesamiento de secuencias http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.85.3344&rep=rep1&type=pdf
Creo que esto debería responder a tu pregunta:
https://en.wikipedia.org/wiki/Probabilistic_automaton
Y estás en la idea correcta: son casi lo mismo, subconjuntos, superconjuntos y modificaciones según el adjetivo que describa la cadena o el autómata. Los autómatas normalmente también toman una entrada, pero estoy seguro de que ha habido artículos que utilizan 'cadenas de Markov' con entradas.
Piense en la distribución gaussiana frente a la distribución normal: las mismas ideas en diferentes campos. Los autómatas pertenecen a la informática, Markov pertenece a la probabilidad y la estadística.
Si se dejan a un lado los detalles internos de trabajo, la máquina de estados finitos es como un valor simple, mientras que la cadena de Markov es como una variable aleatoria (agregue la probabilidad encima del valor simple). Entonces, la respuesta a la pregunta original es no, no son lo mismo. En el sentido probabilístico, la cadena de Markov es una extensión de la máquina de estados finitos.
Creo que la mayoría de las respuestas no son adecuadas. Un proceso de Markov es generado por una máquina de estados finitos (probablística), pero no todos los procesos generados por una máquina de estados finitos probables son procesos de Markov. Por ejemplo, los procesos ocultos de Markov son básicamente los mismos que los procesos generados por máquinas probabilísticas de estados finitos, pero no todos los procesos ocultos de Markov son procesos de Markov.