Teorema del límite central para las cadenas de Markov


10

El Teorema del límite central (CLT) establece que para independientes e idénticamente distribuidos (iid) con y , la suma converge a una distribución normal como : E [ X i ] = 0 Var ( X i ) < n n i = 1 X iN ( 0 , X1,X2,E[Xi]=0Var(Xi)<n

i=1nXiN(0,n).

Supongamos, en cambio, que forman una cadena de Markov de estado finito con una distribución estacionaria con expectativa 0 y varianza acotada. ¿Existe una extensión simple de CLT para este caso?PX1,X2,P

Los documentos que he encontrado en CLT para Markov Chains generalmente tratan casos mucho más generales. Estaría muy agradecido por un puntero al resultado general relevante y una explicación de cómo se aplica.


1
El artículo Critical Behavior de Deep Dynamics de Lin y Tegmark profundiza sobre las "limitaciones * de los procesos y análisis de Markov ... disponibles aquí ... ai2-s2-pdfs.s3.amazonaws.com/5ba0/…
Mike Hunter

Respuestas:


10

La respuesta de Alex R. es casi suficiente, pero agrego algunos detalles más. En Teorema del límite central de la cadena de Markov: Galin L. Jones , si observa el teorema 9, dice:

Si es una cadena de Markov ergódica de Harris con distribución estacionaria , entonces un CLT es válido para si es uniformemente ergódico y .XπfXE[f2]<

Para espacios de estado finito, todas las cadenas de Markov irreductibles y aperiódicas son uniformemente ergódicas. La prueba de esto implica algunos antecedentes considerables en la teoría de la cadena de Markov. Una buena referencia sería la página 32, al final del teorema 18 aquí .

Por lo tanto, la cadena CLT de Markov se mantendría para cualquier función que tenga un segundo momento finito. La forma que toma el CLT se describe a continuación.f

Sea el estimador promediado en el tiempo de , luego, como señala Alex R., como , f¯nEπ[f]n

f¯n=1ni=1nf(Xi)a.s.Eπ[f].

La cadena CLT de Markov es

n(f¯nEπ[f])dN(0,σ2),

donde

σ2=Varπ(f(X1))Expected term+2k=1Covπ(f(X1),f(X1+k))Term due to Markov chain.

Puede encontrar una derivación para el término en la página 8 y la página 9 de las notas de MCMC de Charles Geyer aquíσ2


Gracias, eso está muy claro! ¿Existe un argumento fácil por qué las cadenas de Markov de estado finito, irreductibles y aperiódicas son uniformemente ergódicas? (No es que no confíe en ti ^^).
tom4everitt

@ tom4everitt Lamentablemente, la definición de "fácil" es subjetiva. Si está familiarizado con las condiciones de deriva y minorización de las cadenas de Markov, entonces el argumento es fácil. Si no, entonces sería un largo argumento. Intentaré encontrar una referencia en su lugar. Podría tomar un tiempo
Greenparker

Que sería increíble. Si no encuentra ninguna, un par de oraciones que sugieren los pasos principales seguirían siendo útiles.
tom4everitt

@ tom4everitt Se agregó una referencia a la respuesta. Espero que sea suficiente.
Greenparker

@Greenparker ¿Podría pedirle ayuda para comprender cómo se deriva la variación en su respuesta? Revisé la referencia en su respuesta, pero no encontré una derivación allí. Tengo una fuente, MC para MCsist, pero no entiendo completamente cómo se deriva allí. Es decir, ¿cómo se deriva el término ? ¡Gracias! σ2
LeastSquaresWonderer

7

El resultado "habitual" de Markov Chains es el teorema ergódico de Birkhoff, que dice que

1ni=1nf(Xi)Eπ[f],

donde es la distribución estacionaria, y satisface , y la convergencia es casi segura.f E | f ( X 1 ) | < πfE|f(X1)|<

Lamentablemente, las fluctuaciones de esta convergencia son generalmente bastante difíciles. Esto se debe principalmente a la extrema dificultad de calcular los límites de variación total de la rapidez con que converge a la distribución estacionaria . Existen casos conocidos en los que las fluctuaciones son análogas a la CLT, y puede encontrar algunas condiciones en la deriva que hacen que la analogía se mantenga: En el Teorema del límite central de la cadena de Markov - Galin L. Jones (Ver Teorema 1). πXiπ

También hay situaciones estúpidas, por ejemplo, una cadena con dos estados, donde uno absorbe (es decir, y En este caso no hay fluctuaciones, y usted obtener convergencia a una distribución normal degenerada (una constante).P ( 2 1 ) = 0P(12)=1P(21)=0


2
No creo que esté preguntando por una convergencia casi segura. Creo que quiere una especie de 'traducción' de algunos de los CLT en espacios generales: probablemente una explicación de lo que significan los supuestos requeridos en el contexto específico de las cadenas espaciales de estado finito
Taylor

Gracias. ¿Una cadena de Markov normal, agradable y de estado finito satisfaría trivialmente la condición de deriva? Incluso estaría feliz de saberlo solo para una cadena de dos estados, pero está lejos de ser obvio para mí cómo demostrarlo.
tom4everitt
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.