Kullback-Leibler Divergence
Uma medida da diferença entre duas distribuições de probabilidade. Em aprendizado de máquina, é frequentemente usada como uma função de perda para treinar modelos probabilísticos.
Uma medida da diferença entre duas distribuições de probabilidade. Em aprendizado de máquina, é frequentemente usada como uma função de perda para treinar modelos probabilísticos.