Kullback-Leibler DivergenceUma medida da diferença entre duas distribuições de probabilidade. Em aprendizado de máquina, é frequentemente usada como uma função de perda para treinar modelos probabilísticos.