A entropia informa quanta incerteza existe no sistema. Digamos que você esteja procurando um gato e saiba que está em algum lugar entre sua casa e os vizinhos, que fica a 1,6 km. Seus filhos lhe dizem que a probabilidade de um gato estar à distância de sua casa é melhor descrita pela distribuição beta . Portanto, um gato pode estar em qualquer lugar entre 0 e 1, mas é mais provável que esteja no meio, ou seja, .f ( x ; 2 , 2 ) x m um x = 1 / 2x f(x;2,2)xmax=1/2
Vamos conectar a distribuição beta à sua equação, para obter .H=−0.125
Em seguida, você pergunta a sua esposa e ela diz que a melhor distribuição para descrever o conhecimento dela sobre o seu gato é a distribuição uniforme. Se você conectá-lo à sua equação de entropia, obtém .H=0
As distribuições uniforme e beta permitem que o gato esteja entre 0 e 1 milha da sua casa, mas há mais incerteza no uniforme, porque sua esposa realmente não tem idéia de onde o gato está se escondendo, enquanto as crianças têm alguma idéia , acham que é mais provável que esteja em algum lugar no meio. É por isso que a entropia do Beta é menor que a da Uniform.
Você pode tentar outras distribuições, talvez seu vizinho diga que o gato gosta de estar perto de qualquer uma das casas, então a distribuição beta dele é com . Seu deve ser menor do que o uniforme novamente, porque você tem uma idéia de onde procurar um gato. Adivinhe se a entropia de informações do seu vizinho é maior ou menor que a dos seus filhos? Eu apostaria em crianças qualquer dia sobre esses assuntos.Hα=β=1/2H
ATUALIZAR:
Como é que isso funciona? Uma maneira de pensar nisso é começar com uma distribuição uniforme. Se você concorda que é o que tem mais incerteza, pense em perturbá-lo. Vejamos o caso discreto para simplificar. Pegue de um ponto e adicione-o a outro da seguinte maneira:
p ′ i = p - Δ p p ′ j = p + Δ pΔp
p′i=p−Δp
p′j=p+Δp
Agora, vamos ver como a entropia muda:
Isso significa que qualquer perturbação da distribuição uniforme reduz a entropia (incerteza). Para mostrar o mesmo em caso contínuo, eu teria que usar cálculo de variações ou algo parecido com essa linha, mas você obterá o mesmo tipo de resultado, em princípio.
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
ATUALIZAÇÃO 2: A média de variáveis aleatórias uniformes é uma variável aleatória em si, e é da distribuição de Bates . No CLT , sabemos que a variação dessa nova variável aleatória diminui como . Portanto, a incerteza de sua localização deve diminuir com o aumento de : temos cada vez mais certeza de que um gato está no meio. Meu próximo gráfico e código MATLAB mostra como a entropia diminui de 0 para (distribuição uniforme) para . Estou usando a biblioteca distributions31 aqui.nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'