Estou tentando entender a forma normalizada de informações mútuas pontuais.
Por que a probabilidade conjunta de log normaliza as informações mútuas pontuais entre [-1, 1]?
As informações mútuas pontuais são:
p (x, y) é delimitado por [0, 1], então log (p (x, y)) é delimitado por (, 0). Parece que o log (p (x, y)) deve, de alguma forma, equilibrar as mudanças em o numerador, mas não entendo exatamente como, também me lembra a entropia , mas, novamente, não entendo a relação exata.