¿Cómo ves que una cadena de Markov es irreducible?


12

Tengo algunos problemas para entender la propiedad de la cadena de Markov irreductible .

Se dice que irreducible significa que el proceso estocástico puede "pasar de cualquier estado a cualquier estado".

Pero, ¿qué define si puede pasar del estado al estado o no?jij


La página de wikipedia ofrece la formalización:

El estado es accesible (escrito ) desde el estado , si existe un entero st i j i n i j > 0 P ( X n i j = j | X 0 = i ) = p ( n i j ) i j > 0jijinij>0

P(Xnij=j | X0=i)=pij(nij)>0

entonces la comunicación es si y .j iijji

De estos irreductibilidad se deduce de alguna manera.


¿Cuál es la intuición sobre "accesibilidad"? No entiendo por qué tener una probabilidad condicional hace que algo sea "accesible".
mavavilj

Puede mirar desde el punto de inaccesibilidad . Se dice que el estado es inaccesible desde si no hay posibilidad de llegar desde , es decir, para cualquier número de pasos la probabilidad de este evento sigue siendo . Para definir la accesibilidad, se deben cambiar los cuantificadores, es decir, a exist y a (que es lo mismo que , ya que la probabilidad es positiva). jiin0=00>0
nmerci

Respuestas:


12

Aquí hay tres ejemplos de matrices de transición, los dos primeros para el caso reducible, el último para el caso irreducible.

P1=(0.50.5000.90.100000.20.8000.70.3)P2=(0.10.10.40.40.50.10.10.30.20.40.20.20001)
Para , cuando esté en el estado 3 o 4, permanecerá allí, y el lo mismo para los estados 1 y 2. No hay forma de pasar del estado 1 al estado 3 o 4, por ejemplo.P1

Para , puede llegar a cualquier estado desde los estados 1 a 3, pero una vez que esté en el estado 4, permanecerá allí. Para esto Por ejemplo, puede comenzar en cualquier estado y aún puede alcanzar cualquier otro estado, aunque no necesariamente en un solo paso.P2

P3=(0.50.500000.900000.10000.800.20.700.100.200000.10.900.90000.10)

5

Se dice que el estado es accesible desde un estado (generalmente denotado por ) si existe alguna tal que: Es decir, uno puede pasar del estado al estado en pasos con probabilidad .jiijn0

pijn=P(Xn=jX0=i)>0
ijnpijn

Si tanto como son verdaderas, entonces los estados y comunican (generalmente denotado por ). Por lo tanto, la cadena de Markov es irreducible si cada dos estados se comunican.ijjiijij


¿Es la en una potencia o un índice? npijn
mavavilj

Es un indice. Sin embargo, tiene una interpretación: si es una matriz de probabilidad de transición, entonces es el elemento -th de (aquí es una potencia) . P=(pij)pijnijPnn
nmerci

2

Sean y dos estados distintos de una cadena de Markov. Si hay alguna probabilidad positiva de que el proceso pase del estado al estado , cualquiera que sea el número de pasos (digamos 1, 2, 3 ), entonces decimos que el estado es accesible desde el estado .ijijji

Notationally, expresamos esto como . En términos de probabilidad, se expresa de la siguiente manera: un estado es accesible desde el estado , si existe un número entero tal que .ijjim>0pij(m)>0

De manera similar, decimos que , si existe un número entero tal que .jin>0pji(n)>0

Ahora, si tanto como son verdaderas, entonces decimos que los estados y comunican entre sí, y que se expresan como . En términos de probabilidad, esto significa que existen dos enteros tal que y . ijjiijijp ( m ) i j > 0 p ( n ) j i > 0m>0,n>0pij(m)>0pji(n)>0

Si todos los estados en la Cadena de Markov pertenecen a una clase de comunicación cerrada , entonces la cadena se llama una cadena de Markov irreducible . La irreductibilidad es una propiedad de la cadena.

En una Cadena de Markov irreducible, el proceso puede ir de cualquier estado a cualquier estado , sea cual sea el número de pasos que requiera.


1

Algunas de las respuestas existentes me parecen incorrectas.

Como se cita en los Procesos estocásticos de J. Medhi (página 79, edición 4), una cadena de Markov es irreducible si no contiene ningún subconjunto 'cerrado' adecuado que no sea el espacio de estado.

Entonces, si en su matriz de probabilidad de transición, hay un subconjunto de estados que no puede 'alcanzar' (o acceder) a ningún otro estado aparte de esos estados, entonces la cadena de Markov es reducible. De lo contrario, la cadena de Markov es irreducible.


-1

Primero una palabra de advertencia: nunca mire una matriz a menos que tenga una razón seria para hacerlo: lo único que se me ocurre es buscar dígitos escritos incorrectamente o leer en un libro de texto.

Si es su matriz de transición, calcule . Si todas las entradas son distintas de cero, la matriz es irreducible. De lo contrario, es reducible. Si es demasiado grande, calcule con tan grande como pueda. La misma prueba, un poco menos precisa.exp ( P ) P P n nPexp(P)PPnn

Irreducibilidad significa: puede pasar de cualquier estado a cualquier otro estado en un número finito de pasos.

En el ejemplo Christoph Hanck , no puede ir directamente del estado 1 al estado 6, pero puede ir 1 -> 2 -> 6P3


1
¿Cómo define "puede pasar del estado al estado "? jij
mavavilj

1
Realmente necesitas preguntarle a tu maestro. Él no te va a comer, ya sabes.
titus

cuando usa exp (P), ¿se refiere a la matriz exponencial? o , donde i, j es el término ij de la matriz P? ePij
Hunle

Me refiero a la matriz exponencial
titus
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.