Batch Normalization
Batch Normalization é uma técnica que normaliza as ativações de uma camada de rede neural durante o treinamento para acelerar o processo e melhorar a estabilidade.
Exemplo: Em modelos de deep learning, a BatchNorm é usada entre a camada densa e a função de ativação.