En el aprendizaje automático básico, se nos enseñan las siguientes "reglas generales":
a) el tamaño de sus datos debe ser al menos 10 veces el tamaño de la dimensión VC de su conjunto de hipótesis.
b) una red neuronal con N conexiones tiene una dimensión VC de aproximadamente N.
Entonces, cuando una red neuronal de aprendizaje profundo dice, millones de unidades, ¿significa esto que deberíamos tener, digamos, miles de millones de puntos de datos? ¿Puedes arrojar algo de luz sobre esto?