Método de regularización.
Para las siguientes 4 técnicas, la regularización L1 y la regularización L2 son innecesarias para decir que deben ser un método de regularización. Reducen el peso. L1 se concentraría en reducir una menor cantidad de peso si los pesos tienen mayor importancia.
El abandono evita el sobreajuste al abandonar temporalmente las neuronas. Eventualmente, calcula todos los pesos como un promedio para que el peso no sea demasiado grande para una neurona en particular y, por lo tanto, es un método de regularización.
La normalización de lotes no debe ser un método de regularización porque su objetivo principal es acelerar el entrenamiento seleccionando un lote y obligando a que el peso se distribuya cerca de 0, ni demasiado grande ni demasiado pequeño.
Eligiéndolo
Para mí, el mini lote es imprescindible porque puede acelerar el proceso y mejorar el rendimiento de la red en todo momento.
L1 y L2 son similares y preferiría L1 en una red pequeña.
Idealmente, la deserción debería aplicarse si hay un problema de gran variación o sobreajuste.
Por último, pero no menos importante, estoy de acuerdo con Neil Slater en que depende de la situación y que nunca habrá una solución óptima.
Le recomiendo que lea esto para obtener más información. Este es un muy buen material. http://neuralnetworksanddeeplearning.com/chap3.html