Sí, puede utilizar técnicas de aprendizaje profundo para procesar datos que no son de imagen. Sin embargo, otras clases de modelos siguen siendo muy competitivas con las redes neuronales fuera del procesamiento de señales y tareas relacionadas.
Para utilizar enfoques de aprendizaje profundo en datos sin señal / sin secuencia, generalmente se usa una red de múltiples capas de alimentación directa. No hay necesidad de capas convolucionales o capas de agrupación. La mejor arquitectura aparte de eso necesita ser explorada con validación cruzada, y puede llevar mucho tiempo descubrirla, ya que los NN profundos requieren mucho cálculo para entrenarse.
En mi experiencia, intentar usar redes neuronales profundas (-ish, típicamente ~ 5 capas) en las competencias de Kaggle:
La deserción sigue siendo altamente efectiva para la regularización y mejorar la precisión
Normalización de entrada: generalmente significa 0, desviación estándar 1, es importante
Las funciones de activación de capa oculta pueden marcar la diferencia. Aunque ReLU reduce algunos problemas con gradientes que desaparecen, en mi experiencia es menos robusto con datos sin señal y querrás alguna otra forma. Si solo tiene unas pocas capas, sigmoid o tanh aún funcionan bien. De lo contrario, busque ReLU, PReLU, ELU y otras variantes de ReLU con fugas que intenten reparar sus problemas con neuronas "muertas".
Utilice optimizadores diseñados para el aprendizaje profundo, como Adam, Adagrad o RMSProp
Use un enfoque de inicialización de peso que funcione con el aprendizaje profundo, como Glorot.
Considere usar capas de normalización de lotes. No es algo con lo que tenga mucha experiencia, pero he visto a otras personas hacerlo bien con este enfoque.
A pesar de todo esto, XGBoost puede vencer rutinaria y fácilmente NN profundas con un mínimo esfuerzo de ajuste y entrenamiento en comparación (dependiendo, por supuesto, del problema y los datos que tenga). Sin embargo, si la precisión lo es todo para usted, es posible, aunque no está garantizado, que un conjunto de NN profundos y otro modelo como XGBoost funcione mejor que cualquiera de los dos.