Estoy trabajando extensamente con modelos de series de tiempo financieras, principalmente AR (I) MA y Kalman.
Un problema que sigo enfrentando es la frecuencia de muestreo. Inicialmente, pensaba que si se me ofrecía la posibilidad de tomar muestras con mayor frecuencia de un proceso subyacente, debería tomar muestras con la mayor frecuencia posible para tener una cantidad mucho mayor de muestras, por lo tanto, los parámetros de mi modelo tendrán menos variación.
En realidad, esta idea no resultó ser buena. Lo que sucedió es que si el proceso subyacente no exhibe suficiente variación, aumentar la frecuencia de muestreo en realidad significaría obtener muchos valores repetidos (iguales). Y construir un modelo sobre tales valores da como resultado modelos con coeficientes de modelo muy muy pequeños que no predicen bien en el futuro (por supuesto, la definición de "bien" es subjetiva y una mayor frecuencia requiere predecir muchos más pasos de muestra en el futuro para lograr el mismo paso de tiempo en una configuración de frecuencia más baja). El modelo aprende lo que más encuentra: una línea plana.
Quería hacer un enfoque de muestreo adaptativo, es decir, muestrear con mayor frecuencia cuando hay variación, y con menos frecuencia cuando no la hay. Sin embargo, esto no es fácil. En primer lugar, no está claro qué tipo de sesgo estoy introduciendo al hacerlo (y diferirá según cómo active la muestra / omisión). En segundo lugar, los modelos de series temporales como ARIMA no son adecuados para pasos de muestra desiguales.
¿Hay una buena manera de lidiar con este problema? También me hace preguntarme cómo se logra una transición perfecta entre los modelos de tiempo continuo y los modelos de tiempo discreto si los modelos se ven tan dramáticamente afectados por la frecuencia de muestreo (especialmente cuando los pasos de tiempo se hacen cada vez más pequeños). Cualquier apuntador a recursos externos también será apreciado.
Gracias