De una introducción al modelado estocástico de Pinsky y Karlin (2011):
π = ( 1
P=∥∥∥0110∥∥∥
(1π=(12,12)(12,12)∥∥∥0110∥∥∥=(12,12)
En una sección anterior, ya habían definido una " distribución de probabilidad limitante " porπ
limn→∞P(n)ij=πj for j=0,1,…,N
y equivalente
limn→∞Pr{Xn=j|X0=i}=πj>0 for j=0,1,…,N
(p. 165).
El ejemplo anterior oscila de manera determinista y, por lo tanto, no tiene un límite de la misma manera que la secuencia no tiene un límite.{1,0,1,0,1,…}
Afirman que una cadena de Markov regular (en la que todas las probabilidades de transición de n pasos son positivas) siempre tiene una distribución limitante, y demuestran que debe ser la única solución no negativa para
πj=∑k=0NπkPkj, j=0,1,…,N,∑k=0Nπk=1
(p. 168 )
Luego, en la misma página que el ejemplo, escriben
Cualquier conjunto satisface (4.27) se denomina distribución de probabilidad estacionaria de la cadena de Markov. El término "estacionario" se deriva de la propiedad de que una cadena de Markov comenzó de acuerdo con una distribución estacionaria seguirá esta distribución en todos los puntos de tiempo. Formalmente, si , entonces para todos los .(πi)∞i=0Pr{X0=i}=πiPr{Xn=i}=πin=1,2,…
donde (4.27) es el conjunto de ecuaciones
πi≥0,∑i=0∞πi=1, and πj=∑i=0∞πiPij.
que es precisamente la misma condición de estacionariedad que la anterior, excepto ahora con un número infinito de estados.
Con esta definición de estacionariedad, la declaración en la página 168 puede reexpresarse retroactivamente como:
- La distribución limitante de una cadena regular de Markov es una distribución estacionaria.
- Si la distribución limitante de una cadena de Markov es una distribución estacionaria, entonces la distribución estacionaria es única.