Estoy usando redes neuronales para la mayoría de los problemas. El punto es que, en la mayoría de los casos, se trata más de la experiencia del usuario que del modelo. Aquí hay algunas razones por las que me gustan las NN.
- Son flexibles Puedo lanzar cualquier pérdida que quiera a ellos: pérdida de bisagra, cuadrado, entropía cruzada, lo que sea. Siempre que sea diferenciable, incluso puedo diseñar una pérdida que se ajuste exactamente a mis necesidades.
- Se pueden tratar probabilísticamente: redes neuronales bayesianas, Bayes variacionales, MLE / MAP, todo está ahí. (Pero en algunos casos más difícil).
- Ellos son rápidos. La mayoría de los MLP serán dos multiplicaciones de matriz y un componente aplicado de no linealidad en el medio. Batir eso con un SVM.
Revisaré tus otros puntos paso a paso.
Tener una fuerte teoría fundacional
Yo diría que los NN son igualmente fuertes en ese caso: ya que los entrenas en un marco probabilístico. Eso hace posible el uso de tratamientos previos y un tratamiento bayesiano (por ejemplo, con técnicas o aproximaciones variacionales).
Alcance el óptimo global debido a la programación cuadrática
Para un conjunto de hiperparámetros. Sin embargo, la búsqueda de buenos hps no es convexa, y no sabrá si también encontró el óptimo global.
No tiene problemas para elegir un número adecuado de parámetros
Con SVM, también debe seleccionar hiperparámetros.
Necesita menos memoria para almacenar el modelo predictivo
Necesita almacenar los vectores de soporte. Los SVM en general no serán más baratos para almacenar MLP, depende del caso.
Produzca resultados más legibles y una interpretación geométrica.
La capa superior de un MLP es una regresión logística en el caso de la clasificación. Por lo tanto, hay una interpretación geométrica (separando el hiperplano) y también una interpretación probabilística.