Estou comparando duas distribuições com a divergência de KL, que me retorna um número não padronizado que, de acordo com o que li sobre essa medida, é a quantidade de informações necessárias para transformar uma hipótese na outra. Eu tenho duas perguntas:
a) Existe uma maneira de quantificar uma divergência KL para que ela tenha uma interpretação mais significativa, por exemplo, como um tamanho de efeito ou um R ^ 2? Alguma forma de padronização?
b) Em R, ao usar o KLdiv (pacote flexmix), é possível definir o valor 'esp' (padrão esp = 1e-4) que define todos os pontos menores que esp para algum padrão, a fim de fornecer estabilidade numérica. Eu tenho jogado com valores esp diferentes e, para o meu conjunto de dados, estou obtendo uma divergência KL cada vez maior quanto menor o número que escolho. O que está acontecendo? Eu esperaria que, quanto menor o esp, mais confiáveis sejam os resultados, pois permitem que mais "valores reais" se tornem parte da estatística. Não? Eu tenho que mudar o esp, pois caso contrário não calcula a estatística, mas simplesmente aparece como NA na tabela de resultados ...