Estou tendo problemas para criar alguma intuição sobre entropia conjunta. = incerteza na distribuição conjunta ; = incerteza em ; = incerteza em .
Se H (X) for alto, a distribuição será mais incerta e, se você souber o resultado dessa distribuição, terá mais informações! Então H (X) também quantifica informações.
Agora podemos mostrar
Mas se você conhece pode obter e então, em certo sentido, tem mais informações do que e , portanto, não deveria ' t a incerteza relacionada a p (x, y) é maior que a soma das incertezas individuais?