Kullback-Leibler Divergence (KL Divergence)

Em teoria da informação e estatística, é uma medida de como uma distribuição de probabilidade difere de uma segunda distribuição de probabilidade de referência. É amplamente usada em aprendizado de máquina.

Política de Privacidade

Copyright © www.programicio.com Todos os direitos reservados

É proibida a reprodução do conteúdo desta página sem autorização prévia do autor.

Contato: programicio@gmail.com