He encontrado algunas formas básicas para medir la complejidad de las redes neuronales:
- Ingenuo e informal: cuente la cantidad de neuronas, neuronas ocultas, capas o capas ocultas
- Dimensión VC (Eduardo D. Sontag [1998] "Dimensión VC de redes neuronales" [ pdf ].)
- Un curso medido de complejidad computacional asintótica y granulada por equivalencia a T C 0 d .
¿Hay otras alternativas?
Se prefiere
- Si la métrica de complejidad pudiera usarse para medir redes neuronales de diferentes paradigmas (para medir backprop, redes neuronales dinámicas, correlación en cascada, etc.) en la misma escala. Por ejemplo, la dimensión VC se puede usar para diferentes tipos en redes (o incluso otras cosas que no sean redes neuronales), mientras que la cantidad de neuronas solo es útil entre modelos muy específicos donde la función de activación, señales (sumas básicas frente a picos) y otras Las propiedades de la red son las mismas.
- Si tiene buenas correspondencias con medidas estándar de complejidad de funciones que la red puede aprender
- Si es fácil calcular la métrica en redes específicas (sin embargo, esta última no es una obligación).
Notas
Esta pregunta se basa en una pregunta más general sobre CogSci.SE.