Probablemente depende de lo que uno entienda por "teoría fundamental", pero no falta una teoría cuantitativa rigurosa en el aprendizaje profundo, algunas de las cuales son muy generales, a pesar de las afirmaciones en contrario.
Un buen ejemplo es el trabajo en torno a métodos de aprendizaje basados en la energía. Ver, por ejemplo, el trabajo de Neal & Hinton sobre inferencia variacional y energía libre: http://www.cs.toronto.edu/~fritz/absps/emk.pdf
También esta guía para la minimización de energía como un "marco teórico común para muchos modelos de aprendizaje" por Yann LeCun y colegas: http://yann.lecun.com/exdb/publis/pdf/lecun-06.pdf
Y un marco general para modelos basados en energía de Scellier y Bengio:
https://arxiv.org/pdf/1602.05179.pdf
También existe el trabajo anterior de Hinton y Sejnowski que muestra analíticamente que una red particular inspirada en Hopfield + un algoritmo de aprendizaje no supervisado puede aproximarse a la inferencia óptima de Bayes: https://papers.cnl.salk.edu/PDFs/Optimal%20Perceptual%20Inference%201983 -646.pdf
También hay muchos documentos que vinculan el aprendizaje profundo con la neurociencia teórica, como los siguientes, que muestran que los efectos de la retropropagación se pueden lograr en arquitecturas neurales biológicamente plausibles:
https://arxiv.org/pdf/1411.0247.pdf
Por supuesto, hay muchas preguntas abiertas y ninguna teoría unificada, incontrovertida, pero lo mismo podría decirse de casi cualquier campo.