Método de regularização
Para as quatro técnicas a seguir, é desnecessário dizer que a Regularização L1 e a Regularização L2 devem ser um método de regularização. Eles diminuem o peso. L1 se concentraria em diminuir uma quantidade menor de peso se os pesos tivessem maior importância.
O abandono evita o excesso de ajustes, eliminando temporariamente os neurônios. Eventualmente, calcula todos os pesos como uma média para que o peso não seja muito grande para um neurônio específico e, portanto, é um método de regularização.
A normalização de lotes não deve ser um método de regularização, pois o principal objetivo é acelerar o treinamento, selecionando um lote e forçando o peso a ser distribuído próximo de 0, nem muito grande nem muito pequeno.
Escolhendo
Para mim, o mini-lote é obrigatório, pois pode acelerar o processo e melhorar o desempenho da rede sempre.
L1 e L2 são semelhantes e eu preferiria L1 em redes pequenas.
Idealmente, o abandono deve ser aplicado se houver um grande problema de variação ou ajuste excessivo.
Por último, mas não menos importante, concordo com Neil Slater que isso depende da situação e que nunca haverá uma solução ótima.
Eu recomendo que você leia isso para obter mais informações. Este é um material muito bom. http://neuralnetworksanddeeplearning.com/chap3.html