Sei que você solicitou explicitamente uma explicação intuitiva e deixou de fora a definição formal, mas acho que elas são bastante relacionadas, então, lembre-se da definição de conjunto típico:
X1,X2,...sãoiidvariáveis aleatórias∼ p(x) , em seguida, o conjunto típicoA(n)ϵ com respeito aop(x) é o conjunto de sequências(x1,x2,...,xn)∈χn com a propriedade
2−n(H(X)+ϵ)≤p(x1,x2,...,xn)≤2−n(H(X)−ϵ)(1)
Isto significa que para um fixoϵ, o conjunto típico é composta por todas as sequências cujas probabilidadespróximoa2−nH(X) . Portanto, para que uma sequência pertença ao conjunto típico, ela só precisa ter uma probabilidade próxima a2−nH(X) , mas geralmente não. Para entender por que, deixe-me reescrever a equação 1, aplicando log2 nele.
H(X)−ϵ≤1nlog2(1p(x1,x2,...,xn))≤H(X)+ϵ(2)
Agora, a definição típica de um conjunto está mais diretamente relacionada ao conceito de entropia ou, de outra forma, à informação média da variável aleatória. O termo meio pode ser pensada como a entropia amostra da sequência, assim, o conjunto típico é feito por todas as sequências que estão nos dando uma quantidade de informação perto da informação média da variável aleatória X . A sequência mais provável geralmente nos fornece menos informações que a média. Lembre-se de que, quanto menor a probabilidade de um resultado, maior será a informação que ele nos fornecer. Para entender por que, deixe-me dar um exemplo:
Vamos supor que você mora em uma cidade cujo clima é altamente provável de ser ensolarado e quente, entre 24 ° C e 26 ° C. Você pode assistir ao boletim meteorológico todas as manhãs, mas não se importaria muito com isso, quero dizer, é sempre ensolarado e quente. Mas e se algum dia o homem / mulher do tempo lhe disser que hoje estará chuvoso e frio, isso muda o jogo. Você terá que usar roupas diferentes, levar um guarda-chuva e fazer outras coisas que normalmente não usa, para que o meteorologista tenha lhe dado uma informação realmente importante.
Em resumo, a definição intuitiva do conjunto típico é que ele consiste em sequências que nos fornecem uma quantidade de informação próxima à esperada da fonte (variável aleatória).
$$H(X)-\epsilon\le \frac{1}{n}log_2(\frac{1}{p(x_1,x_2,...,x_n)}) \le H(X)+\epsilon \tag{2}$$
...