Gradient Vanishing
Gradient Vanishing é um problema em redes neurais profundas onde os gradientes se tornam muito pequenos, impedindo o aprendizado efetivo das camadas iniciais.
Exemplo: O uso da função sigmoid pode causar vanishing gradient em redes profundas.