Me pregunto cómo interpretar una arquitectura recurrente en un contexto EEG. Específicamente, estoy pensando en esto como una CNN recurrente (a diferencia de arquitecturas como LSTM), pero tal vez también se aplique a otros tipos de redes recurrentes
Cuando leo sobre R-CNN, generalmente se explican en contextos de clasificación de imágenes. Normalmente se describen como "aprendizaje en el tiempo" o "incluido el efecto del tiempo-1 en la entrada actual"
Esta interpretación / explicación se vuelve realmente confusa cuando se trabaja con datos EEG. Aquí se puede encontrar un ejemplo de un R-CNN que se usa en datos EEG
Imagina que tengo ejemplos de entrenamiento que consisten en una matriz 1x512. Este conjunto captura una lectura de voltaje para 1 electrodo en 512 puntos de tiempo consecutivos. Si uso esto como entrada para un CNN recurrente (usando convoluciones 1D), la parte recurrente del modelo no está capturando el "tiempo", ¿verdad? (como estaría implícito en las descripciones / explicaciones discutidas anteriormente) Porque en este contexto el tiempo ya está capturado por la segunda dimensión de la matriz
Entonces, con una configuración como esta, ¿qué nos permite en realidad la parte recurrente de la red para modelar que una CNN normal no puede (si no es el tiempo)?
Me parece que recurrente solo significa hacer una convolución, agregar el resultado a la entrada original y volver a convolucionar. Esto se repite para x número de pasos recurrentes. ¿Qué ventaja ofrece realmente este proceso?