Perguntas com a marcação «information-theory»

Perguntas sobre a teoria da informação, entropia e conteúdo de informação de várias fontes

8
O código Morse sem espaços é exclusivamente decifrável?
Todas as seqüências de código Morse são decifráveis ​​de maneira única? Sem os espaços, ......-...-..---.-----.-..-..-.. poderia ser, Hello Worldmas talvez a primeira letra seja uma 5- na verdade, parece muito improvável que uma sequência arbitrária de pontos e traços deva ter uma tradução única. Pode-se usar a desigualdade de Kraft, …



2
Simulando uma probabilidade de 1 de 2 ^ N com menos de N bits aleatórios
Digamos que preciso simular a seguinte distribuição discreta: P(X=k)={12N,1−12N,if k=1if k=0P(X=k)={12N,if k=11−12N,if k=0 P(X = k) = \begin{cases} \frac{1}{2^N}, & \text{if $k = 1$} \\ 1 - \frac{1}{2^N}, & \text{if $k = 0$} \end{cases} A maneira mais óbvia é desenhar NNN bits aleatórios e verificar se todos são iguais a …



5
Compactação de dados usando números primos
Recentemente, deparei com o seguinte artigo interessante, que afirma compactar com eficiência conjuntos de dados aleatórios sempre em mais de 50%, independentemente do tipo e formato dos dados. Basicamente, ele usa números primos para construir exclusivamente uma representação de blocos de dados de 4 bytes que são fáceis de descompactar, …




4
Os dados podem ser compactados para um tamanho menor que o limite de compactação de dados de Shannon?
Eu estava lendo sobre algoritmos de compactação de dados e o limite teórico para compactação de dados. Recentemente, encontrei um método de compressão chamado "Combinatorial Entropy Encoding", a idéia principal desse método é codificar o arquivo como os caracteres apresentados no arquivo, suas frequências e o índice de permutação de …

3
Diferença entre “informação” e “informação útil” na teoria algorítmica da informação
De acordo com a Wikipedia : Informalmente, do ponto de vista da teoria algorítmica da informação, o conteúdo da informação de uma string é equivalente ao comprimento da menor representação possível possível dessa string. Qual é a definição rigorosa informal análoga de "informação útil"? Por que a "informação útil" não …


3
Entropia de Shannon de 0,922, 3 valores distintos
Dada uma sequência de valores , a Entropia de Shannon na base de log chega a . Pelo que entendi, na base a Entropia de Shannon arredondada é o número mínimo de bits em binário para representar um único dos valores.AAAAAAAABCAAAAAAAABCAAAAAAAABC2220.9220.9220.922222 Retirado da introdução nesta página da Wikipedia: https://en.wikipedia.org/wiki/Entropy_%28information_theory%29 Então, …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.