No es tan simple En primer lugar, un SVM es, en cierto modo, un tipo de red neuronal (puede aprender una solución SVM a través de la retropropagación). Vea ¿Qué * es * una red neuronal artificial? . En segundo lugar, no puede saber de antemano qué modelo funcionará mejor, pero con una arquitectura totalmente neuromórfica, puede aprender los pesos de extremo a extremo, mientras conecta un SVM o RF a la última activación de capa oculta de una CNN. simplemente un procedimiento ad hoc . Puede funcionar mejor, y puede que no, no podemos saber sin probar.
La parte importante es que una arquitectura totalmente convolucional es capaz de representar el aprendizaje, lo cual es útil por una gran cantidad de razones. Por una vez, puede reducir o eliminar la ingeniería de características por completo en su problema.
Sobre las capas FC, son matemáticamente equivalentes a las capas convolucionales 1x1. Vea la publicación de Yann Lecun , que transcribo a continuación:
En las redes convolucionales, no existen las "capas completamente conectadas". Solo hay capas de convolución con núcleos de convolución 1x1 y una tabla de conexión completa.
Es un hecho que rara vez se entiende que ConvNets no necesita tener una entrada de tamaño fijo. Puede entrenarlos en entradas que producen un solo vector de salida (sin extensión espacial) y luego aplicarlos a imágenes más grandes. En lugar de un solo vector de salida, obtienes un mapa espacial de vectores de salida. Cada vector ve ventanas de entrada en diferentes ubicaciones en la entrada.
En ese escenario, las "capas completamente conectadas" realmente actúan como convoluciones 1x1.