No he estudiado estadísticas durante más de 10 años (y luego solo un curso básico), por lo que tal vez mi pregunta sea un poco difícil de entender.
De todos modos, lo que quiero hacer es reducir el número de puntos de datos en una serie. El eje x es el número de milisegundos desde el inicio de la medición y el eje y es la lectura para ese punto.
A menudo hay miles de puntos de datos, pero es posible que solo necesite unos pocos cientos. Entonces mi pregunta es: ¿cómo reduzco con precisión la cantidad de puntos de datos?
¿Cómo se llama el proceso? (Para que pueda googlearlo) ¿Hay algún algoritmo preferido (lo implementaré en C #)
Espero que tengas algunas pistas. Perdón por mi falta de terminología adecuada.
Editar: Más detalles vienen aquí:
Los datos sin procesar que obtuve son datos de frecuencia cardíaca y en forma de número de milisegundos desde el último latido. Antes de trazar los datos, calculo el número de milisegundos de la primera muestra y los bpm (latidos por minuto) en cada punto de datos (60000 / timesincelastbeat).
Quiero visualizar los datos, es decir, trazarlos en un gráfico lineal. Quiero reducir el número de puntos en el gráfico de miles a algunos cientos.
Una opción sería calcular el promedio de bpm por cada segundo en la serie, o tal vez cada 5 segundos más o menos. Eso hubiera sido bastante fácil si supiera que tendría al menos una muestra para cada uno de esos períodos (segundos de intervalos de 5 segundos).