Si una serie de tiempo es estacionaria de segundo orden, ¿implica esto que es estrictamente estacionaria?


11

Un proceso es estrictamente estacionario si la distribución conjunta de es la misma que la distribución conjunta de para todos los , para todos los y para todos los .X t 1 , X t 2 , . . . , X t m X t 1 + k , X t 2 + k , . . . , X t m + k m k t 1 , t 2 , . . . , t mXtXt1,Xt2,...,XtmXt1+k,Xt2+k,...,Xtm+kmkt1,t2,...,tm

Un proceso es estacionario de segundo orden si su media es constante y su función de autocovarianza depende solo del retraso.

Por lo tanto, ¿el segundo orden estacionario implica estricto estacionario?

También bajo estacionario de segundo orden, dice que no se hacen suposiciones sobre momentos más altos que los de primer y segundo orden. El primer momento corresponde a la media, ¿el segundo momento corresponde a la autocovarianza?


Vea también esta publicación para una discusión relacionada.
javlacalle

1
Lo que llamas (o tu curso llama) estacionario de segundo orden a menudo se llama débilmente estacionario o estacionario de sentido amplio (WSS) o estacionario en sentido amplio. Los procesos WSS no son necesariamente estrictamente estacionarios porque la media y la autocovarianza no son, en general, suficientes para determinar la distribución. Por supuesto, un proceso WSS Gaussiano o normal (lo que significa que todas las son variables aleatorias normales) es estrictamente estacionario porque la media y la matriz de covarianza determinan la distribución conjunta. Xt
Dilip Sarwate

Vea también Ejemplo de un proceso que es de segundo orden estacionario pero no estrictamente estacionario . Los dos están muy cerca de ser duplicados. Esta pregunta también pregunta si el segundo momento se refiere a la autocovarianza, pero eso es realmente una subpregunta y, en cualquier caso, se maneja en el hilo ¿Qué es un proceso estacionario de segundo orden?
Silverfish

Respuestas:


8

La estacionariedad de segundo orden es más débil que la estacionaria estricta. La estacionariedad de segundo orden requiere que los momentos de primer y segundo orden (media, varianza y covarianzas) sean constantes a lo largo del tiempo y, por lo tanto, no dependan del momento en que se observa el proceso. En particular, como usted dice, la covarianza depende solo del orden de retraso, , pero no del momento en que se mide, para todos los .C o v ( x t , x t - k ) = C o v ( x t + h , x t + h - k ) tkCov(xt,xtk)=Cov(xt+h,xt+hk)t

En un proceso de estacionariedad estricto, los momentos de todas las órdenes permanecen constantes a lo largo del tiempo, es decir, como usted dice, la distribución conjunta de es la misma que la unión distribución de para todos los y . X t 1 + k + X t 2 + k + . . . + X t m + k t 1 , t 2 , . . . , t m kXt1,Xt2,...,XtmXt1+k+Xt2+k+...+Xtm+kt1,t2,...,tmk

Por lo tanto, la estacionariedad estricta implica estacionariedad de segundo orden, pero lo contrario no es cierto.

Editar (editado como respuesta al comentario de @ whuber)

La declaración anterior es la comprensión general de la estacionariedad débil y fuerte. Aunque la idea de que la estacionariedad en el sentido débil no implica estacionaria en un sentido más fuerte puede estar de acuerdo con la intuición, puede no ser tan fácil de probar, como lo señala whuber en el comentario a continuación. Puede ser útil ilustrar la idea como se sugiere en ese comentario.

¿Cómo podríamos definir un proceso que sea estacionario de segundo orden (media, varianza y covarianza constante a lo largo del tiempo) pero que no sea estacionario en sentido estricto (los momentos de orden superior dependen del tiempo)?

Según lo sugerido por @whuber (si entendí correctamente) podemos concatenar lotes de observaciones provenientes de diferentes distribuciones. Solo debemos tener cuidado de que esas distribuciones tengan la misma media y varianza (en este punto, consideremos que se muestrean independientemente unas de otras). Por un lado, podemos, por ejemplo, generar observaciones a partir de la distribución Student con grados de libertad. La media es cero y la varianza es . Por otro lado, podemos tomar la distribución gaussiana con media cero y varianza .5 5 / ( 5 - 2 ) = 5 / 3 5 / 3t55/(52)=5/35/3

Ambas distribuciones comparten la misma media (cero) y varianza ( ). Por lo tanto, la concatenación de valores aleatorios de estas distribuciones será, al menos, estacionaria de segundo orden. Sin embargo, la curtosis en esos puntos gobernados por la distribución gaussiana será , mientras que en esos puntos de tiempo donde los datos provienen de la distribución Student será . Por lo tanto, los datos generados de esta manera no son estacionarios en sentido estricto porque los momentos de cuarto orden no son constantes.3 T 3 + 6 / ( 5 - 4 ) = 95/33t3+6/(54)=9

Las covarianzas también son constantes e iguales a cero, ya que consideramos observaciones independientes. Esto puede parecer trivial, por lo que podemos crear cierta dependencia entre las observaciones de acuerdo con el siguiente modelo autorregresivo.

ε t ~ { N ( 0 , σ 2 = 5 / 3 )

yt=ϕyt-1+ϵt,El |ϕEl |<1,t=1,2,...,120
con
ϵt{norte(0 0,σ2=5 5/ /3)Sit[0 0,20],[41,60 60],[81,100]t5 5Sit[21,40],[61,80],[101,120].

El |ϕEl |<1 asegura que se cumple la estacionariedad de segundo orden.

Podemos simular algunas de estas series en el software R y verificar si la media muestral, la varianza, la covarianza de primer orden y la curtosis permanecen constantes en lotes de observaciones (el siguiente código usa y el tamaño de muestra , la Figura muestra una de las series simuladas):20ϕ=0.8norte=240

# this function is required below
kurtosis <- function(x)
{
  n <- length(x)
  m1 <- sum(x)/n
  m2 <- sum((x - m1)^2)/n
  m3 <- sum((x - m1)^3)/n
  m4 <- sum((x - m1)^4)/n
  b1 <- (m3/m2^(3/2))^2
  (m4/m2^2)
}
# begin simulation
set.seed(123)
n <- 240
Mmeans <- Mvars <- Mcovs <- Mkurts <- matrix(nrow = 1000, ncol = n/20)
for (i in seq(nrow(Mmeans)))
{
  eps1 <- rnorm(n = n/2, sd = sqrt(5/3))
  eps2 <- rt(n = n/2, df = 5)
  eps <- c(eps1[1:20], eps2[1:20], eps1[21:40], eps2[21:40], eps1[41:60], eps2[41:60], 
    eps1[61:80], eps2[61:80], eps1[81:100], eps2[81:100], eps1[101:120], eps2[101:120])
  y <- arima.sim(n = n, model = list(order = c(1,0,0), ar = 0.8), innov = eps)

  ly <- split(y, gl(n/20, 20))
  Mmeans[i,] <- unlist(lapply(ly, mean))
  Mvars[i,] <- unlist(lapply(ly, var))
  Mcovs[i,] <- unlist(lapply(ly, function(x) 
    acf(x, lag.max = 1, type = "cov", plot = FALSE)$acf[2,,1]))
  Mkurts[i,] <- unlist(lapply(ly, kurtosis))
}

series simuladas

Los resultados no son lo que esperaba:

round(colMeans(Mmeans), 4)
#  [1]  0.0549 -0.0102 -0.0077 -0.0624 -0.0355 -0.0120  0.0191  0.0094 -0.0384
# [10]  0.0390 -0.0056 -0.0236
round(colMeans(Mvars), 4)
#  [1] 3.0430 3.0769 3.1963 3.1102 3.1551 3.2853 3.1344 3.2351 3.2053 3.1714
# [11] 3.1115 3.2148
round(colMeans(Mcovs), 4)
#  [1] 1.8417 1.8675 1.9571 1.8940 1.9175 2.0123 1.8905 1.9863 1.9653 1.9313
# [11] 1.8820 1.9491
round(colMeans(Mkurts), 4)
#  [1] 2.4603 2.5800 2.4576 2.5927 2.5048 2.6269 2.5251 2.5340 2.4762 2.5731
# [11] 2.5001 2.6279

La media, la varianza y la covarianza son relativamente constantes entre lotes como se esperaba para un proceso estacionario de segundo orden. Sin embargo, la curtosis también permanece relativamente constante. Podríamos haber esperado valores más altos de la curtosis en aquellos lotes relacionados con los sorteos de la distribución Student. Tal vez observaciones no sean suficientes para capturar los cambios en la curtosis. Si no supiéramos el proceso de generación de datos de estas series y analizáramos las estadísticas continuas, probablemente concluiríamos que la serie es estacionaria al menos hasta el cuarto orden. O no tomé el ejemplo correcto o algunas características de la serie quedan enmascaradas para este tamaño de muestra.t20


3
Aunque tiene razón, no ha demostrado adecuadamente la conclusión final. (Parece que presume que los momentos superiores de un proceso estacionario de segundo orden pueden prescribirse independientemente de sus dos primeros momentos, pero eso, aunque en parte es cierto, no es obvio). La forma más sólida de demostrar su conclusión sería para exhibir un proceso que es estacionario de segundo orden pero no estacionario. Aunque eso es fácil de hacer con una secuencia adecuada de variables aleatorias independientes, sería interesante proporcionar un ejemplo con correlaciones que no desaparezcan en todos los rezagos.
whuber

@whuber Edité mi respuesta. Pensé que entendía su punto, pero mi intento de seguir su idea no fue completamente satisfactorio.
javlacalle

2
Tal vez esto ayude. Supongamos que sean variables de Bernoulli independientes con parámetros y , respectivamente, y que sea ​​una secuencia de variables normales iid, . Defina donde cuando par y contrario. La correlación serial es alta, es estacionaria de segundo orden, pero no es estacionaria ni ergódica. Puede generar una realización con código como . Ejecutar y trazar varias simulaciones de este tipo es instructivo. p 1 / 2 1 - p ( X i ) i Z Y i = T [ i ] - p [ i ] + X i [ i ] = 0 i [ i ] = 1Uyo,yo=0 0,1pag1/ /21-pag(Xyo)yoZYyo=U[yo]-pag[yo]+Xyo[yo]=0 0yo[yo]=1Rn <- 300; p <- 1/4; x <- rnorm(n, (rbinom(2,1,c(p,1-p))-c(p,1-p)), 1/8)
whuber

2
No ordenaría estrictamente stationarty y covarianza-stationarity (aunque el uso del término "débil" también para este último lamentablemente apunta hacia ese orden). La razón es que la estacionariedad estricta no implica covarianza-estacionariedad: el proceso puede ser estrictamente estacionario, pero los momentos de distribución pueden no existir o ser infinitos, en cuyo caso este proceso estrictamente estacionario no es estacionario.
Alecos Papadopoulos

2
No podemos simular directamente la inexistencia de momentos . Cree un proceso Cauchy estrictamente estacionario, para tomar el ejemplo trivial. El gráfico se verá perfectamente "estacionario", porque el comportamiento del proceso es repetitivo, un comportamiento que depende de los momentos solo cuando existen . Si no existen, entonces el comportamiento se describe y depende de otras características de la distribución.
Alecos Papadopoulos

1

Como no puedo comentar, y tengo una advertencia que vale la pena para la respuesta de @javlacalle , me veo obligado a incluir esta es una respuesta separada:

@javlacalle escribió que

la estacionariedad estricta implica la estacionariedad de segundo orden pero lo contrario no es cierto.

Sin embargo, estacionariedad fuerte no implica estacionariedad débil. La razón es que una fuerte estacionariedad no significa que el proceso necesariamente tenga un segundo momento finito. Por ejemplo, un proceso iid con distribución Cauchy estándar es estrictamente estacionario pero no tiene un segundo momento finito. De hecho, tener un segundo momento finito es una condición necesaria y suficiente para la débil estacionalidad de un proceso fuertemente estacionario.

Referencia: Myers, DE, 1989. Ser o no ser. . . ¿estacionario? Esa es la pregunta. Matemáticas. Geol 21, 347–362.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.