Existem algumas modificações na divergência de KL que o fazem adquirir algumas das propriedades da métrica (embora não todas).
Por exemplo, a divergência de Jeffrey modifica a divergência de KL para torná-la simétrica.
Existem alguns casos especiais, veja [1]: "Infelizmente, medidas tradicionais baseadas na divergência Kullback-Leibler (KL) e na distância Bhattacharyya não satisfazem todos os axiomas métricos necessários para muitos algoritmos. Neste artigo, propomos uma modificação para o KL divergência e a distância de Bhattacharyya, para densidades gaussianas multivariadas, que transforma as duas medidas em métricas de distância ".
[1] K. Abou-Moustafa e F. Ferrie, "Uma nota sobre propriedades métricas para algumas medidas de divergência: o caso gaussiano", JMLR: Procedimentos de oficinas e conferências 25: 1–15, 2012.