Kullback-Leibler Divergence

Uma medida da diferença entre duas distribuições de probabilidade. Em aprendizado de máquina, é frequentemente usada como uma função de perda para treinar modelos probabilísticos.

Política de Privacidade

Copyright © www.programicio.com Todos os direitos reservados

É proibida a reprodução do conteúdo desta página sem autorização prévia do autor.

Contato: programicio@gmail.com