Para poner mi pregunta en contexto, soy un físico pero con una exposición limitada a las estadísticas y lo que aprendí al respecto fue hace más de 30 años.
Estoy tratando de aprender sobre el arranque de bloques ya que esa técnica podría ser adecuada para resolver un problema en el que estoy trabajando. Puedo encontrar muchos documentos / libros / información sobre las matemáticas del arranque en bloque, pero me gustaría encontrar primero una descripción genérica del proceso de arranque en bloque antes de 'aventurarme' en cuestiones como el arranque en bloque en movimiento, el arranque en bloque circular, el arranque en bloque estacionario , longitudes de bloque, tamaño de muestra, etc.
He sobremuestreado datos correlacionados, 5 variables (columnas) por 10000 observaciones (filas) que quiero reducir a aproximadamente 100 filas de datos. Los datos son una serie de tiempo, pero no son continuos y puede haber datos de diferentes ubicaciones también, lo que significa que puede tener datos diferentes al mismo tiempo (si esto último es un problema para el arranque de bloques, podría eliminar datos 'duplicados' a tiempo). El arranque en bloque permitiría replicar la correlación de los datos.
El objetivo final es reducir el conjunto de datos a ~ 100 filas de datos, de modo que tanto pdf como cdf del conjunto de datos completo y el conjunto de datos reducido sean iguales (dentro de un rango de error mínimo aún por definir) para las 5 variables.
Pregunta: 1) ¿Bloquear bootstrapping podrá hacer esto? 2) ¿Cuál es el proceso paso a paso que se realiza? No espero que nadie escriba el proceso completo en detalle aquí, pero tal vez alguien haya puesto un video de youtube o un 'bootstrapping for dummies' con el que pueda comenzar.
He examinado preguntas similares sobre el arranque de bloques aquí y hay una sobre "Recursos para aprender sobre el arranque de bloques en el análisis de series de tiempo", pero las referencias en las respuestas suponen una alfabetización estadística que todavía tengo que dominar.