Como interpretar entropia diferencial?


14

Li recentemente este artigo sobre a entropia de uma distribuição de probabilidade discreta. Ele descreve uma boa maneira de pensar em entropia como o número esperado de bits (pelo menos ao usar o log2 em sua definição de entropia) necessário para codificar uma mensagem quando sua codificação é ideal, dada a distribuição de probabilidade das palavras que você usa.

No entanto, quando que se estende ao caso contínuo como aqui eu acredito que esta maneira de pensar pausas para baixo, uma vez que xp(x)= para qualquer distribuição de probabilidade contínua p(x) (por favor, corrija-me se isso é errado), então eu estava se perguntando se existe uma boa maneira de pensar sobre o que significa entropia contínua, assim como no caso discreto.


Você tentou ler artigos da Wikipedia sobre entropia e entropia diferencial?
precisa saber é o seguinte

Uma distribuição contínua não possui uma função de massa de probabilidade. O análogo no caso contínua é o integral de uma densidade de probabilidade e o integral ao longo de todo o intervalo de x é igual a 1.
Michael R. Chernick

@MichaelChernick Eu não disse que tinha um, mas a maneira de pensar sobre o caso discreto se baseia no fato de que a soma é igual a 1.
dippynark

@ttnphns não, não tenho, mas vou dar uma olhada agora, obrigado.
dippynark

Consulte também stats.stackexchange.com/questions/66186/… para interpretação da entropia de Shannon. Algumas das idéias podem ser transferidas.
Kjetil b halvorsen

Respostas:


14

Não há interpretação da entropia diferencial que seja tão significativa ou útil quanto a da entropia. O problema com variáveis ​​aleatórias contínuas é que seus valores normalmente têm probabilidade 0 e, portanto, exigiriam um número infinito de bits para codificação.

Se você observar o limite da entropia discreta medindo a probabilidade de intervalos [nε,(n+1)ε[ , você termina com

p(x)log2p(x)dxlog2ε

e não a entropia diferencial. Essa quantidade é, de certo modo, mais significativa, mas divergirá para o infinito à medida que tomamos intervalos cada vez menores. Faz sentido, uma vez que precisaremos de mais e mais bits para codificar em qual dos muitos intervalos o valor do nosso valor aleatório cai.

Uma quantidade mais útil para procurar distribuições contínuas é a entropia relativa (também divergência de Kullback-Leibler). Para distribuições discretas:

DKL[P||Q]=xP(x)log2P(x)Q(x).

Ele mede o número de bits extras usados ​​quando a distribuição verdadeira é P , mas usamos logQ2(x) bits para codificar x . Podemos pegar o limite da entropia relativa e chegar a

DKL[p∣∣q]=p(x)log2p(x)q(x)dx,

porque o log2ε será cancelado. Para distribuições contínuas, isso corresponde ao número de bits extras usados ​​no limite de compartimentos infinitesimalmente pequenos. Para distribuições contínuas e discretas, isso é sempre negativo.

Agora, poderíamos pensar em entropia diferencial como a entropia relativa negativa entre p(x) e uma densidade não normalizada λ(x)=1 ,

p(x)log2p(x)dx=DKL[p∣∣λ].

log2nε(n+1)εp(x)dxnlogελ

Veja a palestra de Sergio Verdu para uma ótima introdução à entropia relativa.

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.