Não: a divergência de KL é definida apenas em distribuições em um espaço comum. Ele pergunta sobre a densidade de probabilidade de um ponto sob duas distribuições diferentes, p ( x ) e q ( x ) . Se P é uma distribuição de R 3 e q uma distribuição em Z , então q ( x ) não faz sentido para pontos p ∈ R 3 e P ( z ) não faz sentido para pontos z ∈ Zxp(x)q(x)pR3qZq(x)p∈R3p(z)z∈Z. De fato, não podemos fazer isso para duas distribuições contínuas em espaços de diferentes dimensões (ou discretas, ou em qualquer caso em que os espaços de probabilidade subjacentes não correspondam).
Se você tem um caso particular em mente, pode ser possível criar uma medida similar de dissimilaridade entre distribuições. Por exemplo, pode fazer sentido codificar uma distribuição contínua sob um código para uma distribuição discreta (obviamente com informações perdidas), por exemplo, arredondando para o ponto mais próximo no caso discreto.