Adversarial AttackUma técnica usada para enganar modelos de aprendizado de máquina, fornecendo entradas maliciosamente projetadas que fazem com que o modelo cometa um erro em sua previsão.