Adversarial Attack
Uma técnica usada para enganar modelos de aprendizado de máquina, fornecendo entradas maliciosamente projetadas que fazem com que o modelo cometa um erro em sua previsão.
Uma técnica usada para enganar modelos de aprendizado de máquina, fornecendo entradas maliciosamente projetadas que fazem com que o modelo cometa um erro em sua previsão.