Estoy comenzando mi viaje de doctorado, y el objetivo final que me propuse es desarrollar ANN que supervisen el entorno en el que trabajan y ajusten dinámicamente su arquitectura al problema en cuestión. La implicación obvia es la temporalidad de los datos: si el conjunto de datos no es continuo y no cambia con el tiempo, ¿por qué ajustar en absoluto?
La gran pregunta es: con el reciente aumento del aprendizaje profundo, ¿sigue siendo un tema relevante? ¿Las FFNN tienen la oportunidad de encontrar un nicho en los problemas de deriva conceptual?
Temo sobrecargar el hilo con demasiadas preguntas, pero esta no está completamente fuera de tema: soy consciente de los RNN, pero tengo una experiencia limitada (ok, ninguna o puramente teórica) con ellos; Creo que la adaptación dinámica de la arquitectura debe ser un tema relevante en el contexto de las RNN. La pregunta es, ¿ya ha sido respondida, y voy a reinventar la rueda?
Publicación cruzada de PS en MetaOptimize