Kullback-Leibler Divergence (KL Divergence)
Em teoria da informação e estatística, é uma medida de como uma distribuição de probabilidade difere de uma segunda distribuição de probabilidade de referência. É amplamente usada em aprendizado de máquina.