¿Cuál es la diferencia entre distribuciones "limitantes" y "estacionarias"?


21

Estoy haciendo una pregunta sobre las cadenas de Markov y las dos últimas partes dicen esto:

  • ¿Esta cadena de Markov posee una distribución limitante? Si su respuesta es "sí", encuentre la distribución limitante. Si su respuesta es "no", explique por qué.
  • ¿Esta cadena de Markov posee una distribución estacionaria? Si su respuesta es "sí", encuentre la distribución estacionaria. Si su respuesta es "no", explique por qué.

¿Cuál es la diferencia? Anteriormente, pensé que la distribución límite estaba cuando se trabaja a cabo utilizando , pero esto es la 'th matriz de transición paso. Calcularon la distribución limitante usando , que pensé que era la distribución estacionaria. n Π = Π PP=CAnC1nΠ=ΠP

¿Cuál es cuál entonces?


44
Su libro de texto puede estar haciendo una distinción que no es universal: por ejemplo, las notas de Karl Sigman sobre distribuciones limitantes definen que las distribuciones "limitantes" y "estacionarias" son sinónimos (definición 2.3 al final de la página 5). Por lo tanto, debe consultar las definiciones en su libro de texto para determinar la diferencia.
whuber

@whuber Está diciendo algo como hacer ejercicio y esto no existe. Luego continúa diciendo "a pesar de que la distribución limitante no existe, la estacionaria sí existe. Sea \ Pi = (\ pi_0, \ pi_1, ..., \ pi_n) la distribución estacionaria ..." Pero yo le garantizamos que calculará la distribución limitante en la pregunta anterior, la resolvieron así. ¿Tiene sentido para ti? Π = ( π 0 , π 1 , . . . , π n )limnPii(n)Π=(π0,π1,...,πn)
Kaish

@whuber En realidad, estoy bastante confundido ahora porque en la pregunta de distribución limitante anterior, no satisfacen la π0+π1+π2=1 , ¿entonces quizás eso es diferente?
Kaish

2
Una distribución estacionaria es aquella que es estable en el tiempo. Hasta donde sé, la distribución limitante de una cadena de Markov es estacionaria y si una cadena de Markov tiene una distribución estacionaria, también es una distribución limitante.
shadowtalker 01 de

Respuesta aquí por Andreas podría ayudar quora.com/…
Siddharth Shakya

Respuestas:


18

De una introducción al modelado estocástico de Pinsky y Karlin (2011):

π = ( 1

P=0110
(1π=(12,12)
(12,12)0110=(12,12)

En una sección anterior, ya habían definido una " distribución de probabilidad limitante " porπ

limnPij(n)=πj for j=0,1,,N

y equivalente

limnPr{Xn=j|X0=i}=πj>0 for j=0,1,,N
(p. 165).

El ejemplo anterior oscila de manera determinista y, por lo tanto, no tiene un límite de la misma manera que la secuencia no tiene un límite.{1,0,1,0,1,}


Afirman que una cadena de Markov regular (en la que todas las probabilidades de transición de n pasos son positivas) siempre tiene una distribución limitante, y demuestran que debe ser la única solución no negativa para

πj=k=0NπkPkj,  j=0,1,,N,k=0Nπk=1
(p. 168 )

Luego, en la misma página que el ejemplo, escriben

Cualquier conjunto satisface (4.27) se denomina distribución de probabilidad estacionaria de la cadena de Markov. El término "estacionario" se deriva de la propiedad de que una cadena de Markov comenzó de acuerdo con una distribución estacionaria seguirá esta distribución en todos los puntos de tiempo. Formalmente, si , entonces para todos los .(πi)i=0Pr{X0=i}=πiPr{Xn=i}=πin=1,2,

donde (4.27) es el conjunto de ecuaciones

πi0,i=0πi=1, and πj=i=0πiPij.

que es precisamente la misma condición de estacionariedad que la anterior, excepto ahora con un número infinito de estados.

Con esta definición de estacionariedad, la declaración en la página 168 puede reexpresarse retroactivamente como:

  1. La distribución limitante de una cadena regular de Markov es una distribución estacionaria.
  2. Si la distribución limitante de una cadena de Markov es una distribución estacionaria, entonces la distribución estacionaria es única.

¿Puedes aclarar lo que quieres decir con 'las probabilidades de transición no cambian con el tiempo' para la estacionariedad? Tanto la distribución estacionaria como la limitante se refieren a las probabilidades sobre los estados.
Juho Kokkala 01 de

1
Sí, veo que escribiste tu propia respuesta, pero reorganicé la mía para que fuera más correcta.
shadowtalker 01 de

Aún no lo entiendo. Quiero decir, ¿a qué te refieres cuando dices "excepto ahora con un número infinito de estados ..."? ¿Puedes aclararlo más explícitamente?
roni

@roni las dos expresiones son idénticas si dejas N=
shadowtalker

En el bloque primero resaltado, es la distribución estacionaria para el ejemplo, sin embargo, no tiene la limitación de distribución desde P n oscilará, y por lo tanto no tiene estado estacionario. ¿Significa esto que no garantizará la existencia de un estado estable si solo se calcula la distribución estacionaria? π=(1/2,1/2)Pn
Guoyang Qin

12

Una distribución estacionaria es tal distribución que si la distribución sobre los estados en el paso k es π , entonces también la distribución sobre los estados en el paso k + 1 es π . Es decir, π = π P . Una distribución limitante es tal distribución π que no importa cuál sea la distribución inicial, la distribución sobre los estados converge a π a medida que el número de pasos va al infinito: lim k π ( 0 ) P k = π ,πkπk+1π

π=πP.
ππ
limkπ(0)Pk=π,
independiente de . Por ejemplo, consideremos una cadena de Markov cuyos dos estados son los lados de una moneda, { h e a d s , t a i l s } . Cada paso consiste en poner la moneda al revés (con probabilidad 1). Tenga en cuenta que cuando calculamos las distribuciones de estado, no son condicionales a los pasos anteriores, es decir, el tipo que calcula las probabilidades no ve la moneda. Entonces, la matriz de transición es P = ( 0 1 1 0 ) . Si primero inicializamos la moneda volteándola al azar ( ππ(0){heads,tails}
P=(0110).
), entonces también todos los pasos de tiempo subsiguientes siguen esta distribución. (Si lanza una moneda justa y luego la pone boca abajo, la probabilidad de obtener caras sigue siendo0.5). Por lo tanto, ( 0.5 0.5 ) es una distribución estacionaria para esta cadena de Markov.π(0)=(0.50.5)0.5(0.50.5)

2/32/31/3

6

P=(1/65/65/61/6).
0.5(0.50.5)

Buen punto sobre olvidar el estado inicial, lo ignoré por completo en mi respuesta.
shadowtalker 01 de

P=(0110)

@GuoyangQin Si tiene una nueva pregunta, es posible que desee publicarla como una pregunta (vinculando a esta si ayuda a proporcionar una pregunta). Aunque hubiera pensado que "estado estable" en este contexto significaría "distribución estacionaria", por lo que sería mejor definir claramente el término en la pregunta
Juho Kokkala

10

Dejando de lado la notación, la palabra "estacionaria" significa "una vez que llegue allí, se quedará allí"; mientras que la palabra "limitar" implica "eventualmente llegarás allí si vas lo suficientemente lejos". Solo pensé que esto podría ser útil.


No está claro cómo se aplica esto a la pregunta. ¿Podrías explicar?
whuber

2
Hola @whuber, quiero decir que una distribución limitante es necesariamente una distribución estacionaria, mientras que una distribución estacionaria no es necesariamente una distribución limitante. Por lo tanto hay una diferencia. Esto es esencialmente lo mismo que otras respuestas, pero creo que es más fácil de recordar.
BlueSky

Gracias por la aclaración: nos muestra lo que está intentando lograr. Sin embargo, no puedo encontrar ninguna manera razonable de interpretar su descripción de "estacionario" de una manera que sea consistente con la definición matemática.
whuber

La redacción de @whuber BlueSky me parece una noción muy simple de "punto fijo" en inglés. No estoy seguro de lo que podría significar su objeto.
Richard Rast
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.