Supongamos que uno tiene una serie de tiempo a partir de la cual se pueden tomar varias medidas, como período, máximo, mínimo, promedio, etc. y luego usarlas para crear una onda sinusoidal modelo con los mismos atributos, ¿hay algún enfoque estadístico que se pueda usar que pueda cuantificar? ¿Cuán cerca se ajustan los datos reales al modelo asumido? El número de puntos de datos en la serie oscilaría entre 10 y 50 puntos.
Un primer pensamiento muy simplista mío fue atribuir un valor al movimiento direccional de la onda sinusoidal, es decir, +1 +1 +1 +1 -1 -1 -1 -1 -1 -1 -1 -1 +1 +1 +1 +1, haga lo mismo con los datos reales, y luego cuantifique de alguna manera el grado de similitud del movimiento direccional.
Editar: Después de pensar más en lo que realmente quiero hacer con mis datos, y a la luz de las respuestas a mi pregunta original, lo que necesito es un algoritmo de toma de decisiones para elegir entre supuestos competitivos: a saber, que mis datos son básicamente lineales (o tendencia) con ruido que posiblemente podría tener elementos cíclicos; mis datos son básicamente cíclicos sin tendencia direccional para hablar; los datos son esencialmente solo ruido; o está en transición entre cualquiera de estos estados.
Mis pensamientos ahora son tal vez combinar alguna forma de análisis bayesiano y métrica euclidiana / LMS. Los pasos en este enfoque serían
Crear la onda sinusoidal supuesta a partir de mediciones de datos
Ajustar una línea recta LMS a los datos
Derive una métrica Euclidiana o LMS para las desviaciones de los datos originales para cada uno de los anteriores
Cree un previo bayesiano para cada uno basado en esta métrica, es decir, el 60% de las salidas combinadas se unen a una, el 40% a la otra, por lo tanto, favorecen el 40%
deslice una ventana un punto de datos a lo largo de los datos y repita lo anterior para obtener un nuevo% de métricas para este conjunto de datos ligeramente cambiado - esta es la nueva evidencia - haga el análisis bayesiano para crear un posterior y cambiar las probabilidades que favorecen cada suposición
repita a lo largo de todo el conjunto de datos (más de 3000 puntos de datos) con esta ventana deslizante (longitud de ventana de 10-50 puntos de datos). La esperanza / intención es identificar la suposición predominante / favorecida en cualquier punto del conjunto de datos y cómo esto cambia con el tiempo
Cualquier comentario sobre esta metodología potencial sería bienvenido, particularmente sobre cómo podría realmente implementar la parte del análisis bayesiano.