Você pergunta:
- Isso é realmente possível, como sugerem os autores? Segundo o artigo, seus resultados são muito eficientes e sempre compactam dados em um tamanho menor. O tamanho do dicionário não será enorme?
Sim, claro. Mesmo para o exemplo escolhido a dedo ("A RAPOSA PRATA RÁPIDA SALTA SOBRE O CÃO PREGUIÇOSO"), eles não obtêm compactação, porque o dicionário contém todas as subseqüências de 4 bytes do texto (menos 4 bytes para a repetição de " THE ") ... e a versão" compactada "do texto devem incluir todo o dicionário mais toda essa porcaria de números primos.
- Não foi possível usar isso para comprimir iterativamente os dados compactados usando o mesmo algoritmo? É óbvio, e foi demonstrado, que tais técnicas (onde os dados compactados são compactados novamente tantas vezes quanto possível, reduzindo drasticamente o tamanho do arquivo) são impossíveis; de fato, não haveria bijeção entre o conjunto de todos os dados aleatórios e os dados compactados. Então, por que isso parece possível?
Novamente, você parece ter uma boa compreensão intuitiva da situação. Você percebeu intuitivamente que nenhum esquema de compactação pode ser eficaz em todas as entradas, porque, se fosse, poderíamos aplicá-lo repetidamente para compactar qualquer entrada em um único bit - e depois no nada!
Em outras palavras: depois de compactar todos os seus arquivos .wav para .mp3, você não obterá nenhuma melhoria no tamanho do arquivo compactando-os. Se o seu compressor de MP3 tiver feito seu trabalho, não haverá mais padrões para o compressor ZIP explorar.
(O mesmo se aplica à criptografia: se eu pegar um arquivo com zeros e criptografá-lo de acordo com meu algoritmo de criptografia preferido, é melhor que o arquivo resultante não seja compressível , ou então meu algoritmo de criptografia está vazando "padrão" em sua saída!)
- Mesmo que a técnica ainda não seja perfeita, ela pode obviamente ser otimizada e fortemente aprimorada. Por que isso não é mais amplamente conhecido / estudado? Se essas afirmações e resultados experimentais são verdadeiros, isso não revolucionaria a computação?
Essas alegações e resultados experimentais não são verdadeiros.
Como Tom van der Zanden já observado, o "algoritmo de compressão" de Chakraborty, Kar, e Guchait é falho na medida em que não só ele não alcançar qualquer taxa de compressão, é também irreversível (em mathspeak, "não bijective"): existem uma infinidade de textos "compactados" para a mesma imagem, porque o algoritmo deles é basicamente multiplicação e a multiplicação é comutativa.
Você deve se sentir bem ao saber que sua compreensão intuitiva desses conceitos levou à conclusão certa instantaneamente. E, se você puder poupar tempo, deve sentir pena dos autores do artigo, que claramente passaram muito tempo pensando sobre o assunto sem entendê-lo.
O diretório de arquivos um nível acima da URL que você postou contém 139 "artigos" dessa mesma qualidade, todos aparentemente aceitos nas "Anais da Conferência Internacional sobre Pesquisa Emergente em Computação, Informação, Comunicação e Aplicações". Parece ser uma conferência falsa do tipo usual. O objetivo de tais conferências é permitir que acadêmicos fraudulentos reivindiquem "publicação em um periódico", além de permitir que organizadores sem escrúpulos ganhem muito dinheiro. (Para mais informações sobre conferências falsas, consulte este tópico do reddit ou várias postagens do StackExchange sobre o assunto .) Conferências falsas existem em todos os campos. Apenas aprenda a confiar em seus instintos e não acredite em tudo que lê em um "processo de conferência", e você se sairá bem.