Respuesta a la pregunta 1.
Chen & Chan "Subconjunto de selección ARMA a través del Lazo adaptativo" (2011) * utilizan una solución alternativa para evitar la estimación computacionalmente exigente de máxima probabilidad de probabilidad. Citando el papel, ellos
proponemos encontrar un modelo ARMA de subconjunto óptimo ajustando una regresión Lasso adaptativa de la serie de tiempo en sus propios retrasos y los de los residuos que se obtienen al ajustar una larga autorregresión a los y t s. <...> [En] condiciones de regularidad leve, el método propuesto logra las propiedades del oráculo, es decir, identifica el modelo ARMA del subconjunto correcto con probabilidad que tiende a uno a medida que el tamaño de la muestra aumenta al infinito, y <...> el los estimadores de los coeficientes distintos de cero son asintóticamente normales con la distribución limitante igual que cuando los coeficientes cero se conocen a priori.ytyt
Opcionalmente, sugieren la estimación de máxima verosimilitud y el diagnóstico del modelo para los modelos ARMA del subconjunto seleccionado.
Wilms y col. "La escasa identificación y estimación de promedios móviles autorregresivos de vectores de alta dimensión" (2017) hacen incluso más de lo que pedí. En lugar de un modelo ARIMA univariante, toman un vector ARMA (VARMA) en altas dimensiones, y usan una penalización para la estimación y la selección del orden de retraso. Presentan el algoritmo de estimación y desarrollan algunos resultados asintóticos.L1
En particular, emplean un procedimiento de dos etapas. Considere un modelo VARMA
que necesita estimarse, pero las órdenes de retraso p y q son desconocidas.
yt=∑l=1pΦlyt−l+∑m=1qΘmεt−m+εt
pq
En la Etapa 1, aproximan el modelo VARMA por un modelo VAR de alto orden y lo estiman usando un estimador jerárquico VAR que coloca una penalización de lazo grupal jerárquico basada en el retraso en los parámetros autorregresivos.
(El orden de retraso se establece en . Las ecuaciones modelo se estiman conjuntamente y la norma Frobenius de los errores| El | Y - Y | El | F 2 se reduce al mínimo con una penalización-grupo lasso jerárquica en los coeficientes de regresión).
Obtienen residuos varepsilon :=y - y para ser utilizados como sustitutos de los verdaderos errores en la Etapa 2.⌊1.5T−−√⌋||y−y^||F2
ε^:=y−y^
En la Etapa 2, estiman un modelo VARX donde x representa residuos de la etapa 1. Esto es lag, que MINIC un modelo VARMA pero el uso estimado residuos en lugar de errores verdaderos, que permite aplicando el mismo estimador (grupo-lasso jerárquica) de nuevo al igual que en la Etapa 1.
( p y q
yt=∑l=1p^Φlyt−l+∑m=1q^Θmε^t−m+ut,
p^q^están configurados para ser .)⌊1.5T−−√⌋
El enfoque de Wilms et al. se implementa en el paquete R "bigtime" .
Referencias
- Chen, K. y Chan, KS (2011). Subconjunto de selección ARMA a través del lazo adaptativo. Estadísticas y su interfaz , 4 (2), 197-205.
- Wilms, I., Basu, S., Bien, J. y Matteson, DS (2017). Escasa identificación y estimación de medias móviles autorregresivas vectoriales de alta dimensión. preimpresión de arXiv arXiv: 1707.09208.
* Gracias a @hejseb por el enlace.