Supongo que por señal 1D te refieres a datos de series de tiempo, donde asumes dependencia temporal entre los valores. En tales casos, las redes neuronales convolucionales (CNN) son uno de los enfoques posibles. El enfoque de red neuronal más popular para tales datos es usar redes neuronales recurrentes (RNN), pero también puede usar CNN o enfoque híbrido (redes neuronales cuasi-recurrentes, QRNN) como se discutió por Bradbury et al (2016) , y también ilustrado en su figura a continuación. También hay otros enfoques, como usar solo la atención, como en la red Transformer descrita por Vaswani et al (2017) , donde la información sobre el tiempo se pasa a través de las características de la serie Fourier .
Con RNN , usaría una celda que toma como entrada el estado oculto anterior y el valor de entrada actual, para devolver la salida y otro estado oculto, de modo que la información fluya a través de los estados ocultos . Con CNN, usaría una ventana deslizante de cierto ancho, que vería ciertos patrones (aprendidos) en los datos, y apilaría dichas ventanas una encima de la otra, de modo que las ventanas de nivel superior buscarían patrones dentro del nivel inferior patrones. El uso de estas ventanas deslizantes puede ser útil para encontrar elementos como la repetición de patrones dentro de los datos (por ejemplo, patrones estacionales). Las capas QRNN mezclan ambos enfoques. De hecho, una de las ventajas de las arquitecturas CNN y QRNN es que son más rápidas que RNN .