¿Es una cadena de Markov lo mismo que una máquina de estados finitos?


80

¿Es una máquina de estados finitos solo una implementación de una cadena de Markov? ¿Cuáles son las diferencias entre los dos?


24
Puede pensar que una cadena de Markov es un FSM en el que las transiciones están impulsadas por la probabilidad
Dr. belisarius

Respuestas:


61

Las cadenas de Markov se pueden representar mediante máquinas de estados finitos. La idea es que una cadena de Markov describe un proceso en el que la transición a un estado en el tiempo t + 1 depende solo del estado en el tiempo t. Lo principal a tener en cuenta es que las transiciones en una cadena de Markov son probabilísticas en lugar de deterministas, lo que significa que no siempre se puede decir con absoluta certeza lo que sucederá en el tiempo t + 1.

Los artículos de Wikipedia sobre máquinas de estado finito tienen una subsección sobre procesos de cadena de Markov finita , recomiendo leer eso para obtener más información. Además, el artículo de Wikipedia sobre cadenas de Markov tiene una breve oración que describe el uso de máquinas de estados finitos para representar una cadena de Markov. Que dice:

Se puede utilizar una máquina de estados finitos como representación de una cadena de Markov. Suponiendo una secuencia de señales de entrada independientes e idénticamente distribuidas (por ejemplo, símbolos de un alfabeto binario elegido mediante el lanzamiento de una moneda), si la máquina está en el estado y en el momento n, entonces la probabilidad de que se mueva al estado x en el momento n + 1 depende solo del estado actual.


2
En realidad, lo que afirma aquí sobre una cadena de Markov no es 100% correcto. A lo que se refiere aquí es al "proceso de Markov de primer orden". Para un proceso de Markov de segundo orden, el siguiente estado dependerá de los estados de los últimos 2 pasos de tiempo, ...... Una máquina de estado es un caso especial de una cadena de Markov; ya que una cadena de Markov es de naturaleza estocástica. Una máquina de estados, hasta donde yo sé, es determinista.
A. Isaac

5
Sin calificar, el término cadena de Markov significa un proceso estocástico de tiempo discreto con la propiedad de Markov, lo que significa que no depende de estados pasados. El póster original no preguntaba sobre los procesos de Markov de orden superior, por lo que en realidad no son tan relevantes. La máquina de estados finitos es generalmente un término general para los autómatas finitos, estos pueden ser de naturaleza determinista o no determinista.
Tim Seguine

28

Mientras que una cadena de Markov es una máquina de estados finitos, se distingue por que sus transiciones son estocásticas, es decir, aleatorias, y se describen por probabilidades.


3
Gracias por esto, exactamente lo que estaba buscando.
Stefan Mai

4
¿Puedo decir, autómatas estocásticos de estado finito?
Souradeep Nanda

19

Los dos son similares, pero las otras explicaciones aquí son un poco incorrectas. Sólo las cadenas FINITAS de Markov pueden representarse mediante un FSM. Las cadenas de Markov permiten un espacio de estados infinito. Como se señaló, las transiciones de una cadena de Markov se describen mediante probabilidades, pero también es importante mencionar que las probabilidades de transición solo pueden depender del estado actual. Sin esta restricción, se llamaría un "proceso estocástico de tiempo discreto".


De hecho, creo que se llamaría "no estacionario".
Michael Tamillow

@Michael Podría estar equivocado, porque he estado fuera del tema por un tiempo, pero pensé que "estacionario" se trataba de dependencia del tiempo. Puede que me equivoque, pero eso parece ortogonal.
Tim Seguine

"proceso" se usa típicamente para expresar la versión en tiempo continuo del término "cadena" (referencia: teoría de la probabilidad: un curso conciso, Rozanov) y un FSM puede representarse infinitamente o impulsado por eventos o no determinista . La única otra dependencia que puedo imaginar además del estado sería el tiempo.
Michael Tamillow

@Michael "proceso" es un término genérico. Puede ser tiempo continuo o tiempo discreto. Un FSM no se puede representar infinitamente, tiene la palabra finito en su nombre. El enlace que proporcionó incluso dice que no es una máquina de estados finitos. Tú mencionaste la dependencia del tiempo, no yo, pero en los procesos de tiempo discreto, el índice de secuencia normalmente se considera el tiempo. En ese sentido, sí, un proceso estocástico de tiempo discreto sería no estacionario, pero eso no es lo suficientemente descriptivo, ya que también podría potencialmente ser tiempo continuo. Estaba buscando un superconjunto, no el complemento en mi naming.
Tim Seguine


3

Creo que esto debería responder a tu pregunta:

https://en.wikipedia.org/wiki/Probabilistic_automaton

Y estás en la idea correcta: son casi lo mismo, subconjuntos, superconjuntos y modificaciones según el adjetivo que describa la cadena o el autómata. Los autómatas normalmente también toman una entrada, pero estoy seguro de que ha habido artículos que utilizan 'cadenas de Markov' con entradas.

Piense en la distribución gaussiana frente a la distribución normal: las mismas ideas en diferentes campos. Los autómatas pertenecen a la informática, Markov pertenece a la probabilidad y la estadística.


1

Si se dejan a un lado los detalles internos de trabajo, la máquina de estados finitos es como un valor simple, mientras que la cadena de Markov es como una variable aleatoria (agregue la probabilidad encima del valor simple). Entonces, la respuesta a la pregunta original es no, no son lo mismo. En el sentido probabilístico, la cadena de Markov es una extensión de la máquina de estados finitos.


1

Creo que la mayoría de las respuestas no son adecuadas. Un proceso de Markov es generado por una máquina de estados finitos (probablística), pero no todos los procesos generados por una máquina de estados finitos probables son procesos de Markov. Por ejemplo, los procesos ocultos de Markov son básicamente los mismos que los procesos generados por máquinas probabilísticas de estados finitos, pero no todos los procesos ocultos de Markov son procesos de Markov.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.