Há muito que enfrento a confusão em relação à entropia e seria obrigado se o seguinte fosse respondido em um jargão menos técnico. Seguindo o link Diferentes tipos de entropia levantam as seguintes questões
- Entropia - É desejável que a entropia do sistema seja maximizada. Maximizar a entropia significa que nenhum símbolo é melhor que os outros ou não sabemos qual seria o próximo símbolo / resultado. No entanto, a fórmula declara um sinal negativo antes do somatório dos logaritmos de probabilidade. Assim, significa que estamos maximizando um valor negativo !! Então, se um sinal bruto original é quantizado e a entropia da informação quantizada é calculada e considerada menor que a entropia original implicaria perda de informação. Então, por que queremos maximizar a entropia, pois isso significa que estamos maximizando a incerteza do próximo símbolo, enquanto queremos ter certeza sobre o que seria a próxima ocorrência do símbolo.
- Quais são as diferenças entre entropia de Shannon, entropia topológica e entropia de origem?
- Qual é exatamente o significado da complexidade de Kolgomorov ou da entropia de Kolgomorov. Como isso está relacionado à entropia de Shannon?
- Quais informações as informações mútuas entre dois vetores transmitem?