Supongamos que tengo una red neuronal simple de una sola capa, con n entradas y una única salida (tarea de clasificación binaria). Si configuro la función de activación en el nodo de salida como una función sigmoidea, entonces el resultado es un clasificador de Regresión logística.
En este mismo escenario, si cambio la activación de salida a ReLU (unidad lineal rectificada), ¿la estructura resultante es igual o similar a una SVM?
Si no, ¿por qué?