Me gustaría que alguien confirme mi comprensión o si me falta algo.
La definición de un proceso de Markov dice que el siguiente paso depende solo del estado actual y no de estados pasados. Entonces, digamos que teníamos un espacio de estado de a, b, c, dy pasamos de a-> b-> c-> d. Eso significa que la transición a d solo podría depender del hecho de que estábamos en c.
Sin embargo, ¿es cierto que podría hacer que el modelo sea más complejo y "sortear" esta limitación? En otras palabras, si su espacio de estado ahora fuera aa, ab, ac, ad, ba, bb, bc, bd, ca, cb, cc, cd, da, db, dc, dd, lo que significa que su nuevo espacio de estado se convierte en el estado anterior combinado con el estado actual, entonces la transición anterior sería * a-> ab-> bc-> cd y, por lo tanto, la transición a cd (equivalente en el modelo anterior a d) ahora es "dependiente" de un estado que, si se modela de manera diferente, es un estado anterior (me refiero a él como un subestado a continuación).
¿Estoy en lo cierto en que uno puede hacer que "dependa de estados anteriores (subestado)" (sé técnicamente que no lo hace en el nuevo modelo ya que el subestado ya no es un estado real) mantiene la propiedad de Markov expandiendo el espacio de estado como lo hice? Entonces, en efecto, se podría crear un proceso de Markov que podría depender de cualquier número de subestados anteriores.