até hoje eu sabia que um bit é uma variável ou um espaço na memória que pode conter um valor de Um (alto) ou Zero (baixo). Este é o conceito que aprendi estudando programação de computadores, microprocessador ou barramento de dados, etc.
Mas depois de iniciar o curso sobre teoria da informação, descobri que o bit é expresso como o conteúdo informativo de um símbolo na mensagem. Isso é calculado considerando o logaritmo (base 2) do inverso da probabilidade de ocorrência do símbolo.
Esses dois conceitos são iguais? Por um lado, um bit é uma variável que pode armazenar zero ou um. Por outro lado, um bit é a incerteza associada a um dos dois símbolos com probabilidade de ocorrência de 0,5. Então, 1 bit na programação de computadores ou código ASCII significa 1 bit no conteúdo da fonte ou na teoria da informação?
Uma pequena edição: aqui está uma coisa que estou encontrando problemas para entender este tópico. Veja, na transferência de dados de alfabetos ingleses, se usarmos código ASCII, basicamente representamos cada símbolo com 8 bits. Suponha que seja 00000000 para a, 00000001 para b etc. Portanto, estamos essencialmente alocando 8 níveis de quantização para cada símbolo.
Mas quando a teoria da informação entra em jogo, levamos em consideração a probabilidade de cada símbolo. 'E' tem a frequência mais alta, onde 'Z' tem a menor. Então, o conteúdo médio das informações se reduz a 3 ou 4 bits, certo?
Meu livro diz: 'Entropia ou conteúdo médio de informação é o número médio mínimo de bits necessário para representar cada amostra sem distorção'. Portanto, neste caso, para uma transferência de dados eficiente, estamos criando no máximo quatro níveis de quantização para cada símbolo? Porque, em média, eles carregam informações no valor de 4 bits. Se é assim, não é pouco na teoria da informação o mesmo que na programação de computadores, transferência de dados ou código ASCII etc?
Você provavelmente entende que eu sou claramente um noob aqui: p