Perguntas com a marcação «data-compression»







5
Compactação de dados usando números primos
Recentemente, deparei com o seguinte artigo interessante, que afirma compactar com eficiência conjuntos de dados aleatórios sempre em mais de 50%, independentemente do tipo e formato dos dados. Basicamente, ele usa números primos para construir exclusivamente uma representação de blocos de dados de 4 bytes que são fáceis de descompactar, …





7
Os dados aleatórios de
Tenho dados reais que estou usando para um jogo de cartas simulado. Estou interessado apenas nas fileiras das cartas, não nos naipes. No entanto, é um baralho de cartas padrão , portanto, existem apenas de cada nível possível no baralho. O baralho é bem baralhado para cada mão e, em …

4
Os dados podem ser compactados para um tamanho menor que o limite de compactação de dados de Shannon?
Eu estava lendo sobre algoritmos de compactação de dados e o limite teórico para compactação de dados. Recentemente, encontrei um método de compressão chamado "Combinatorial Entropy Encoding", a idéia principal desse método é codificar o arquivo como os caracteres apresentados no arquivo, suas frequências e o índice de permutação de …

1
Por que a taxa de compactação usando bzip2 para uma sequência de "a" é tão nervosa?
library(ggplot2) compress <- function(str) { length(memCompress(paste(rep("a", str), collapse=""), type="bzip2")) / nchar(paste(rep("a", str), collapse="")) } cr <- data.frame(i = 1:10000, r = sapply(1:10000, compress)) ggplot(cr[cr$i>=5000 & cr$i<=10000,], aes(x=i, y=r)) + geom_line() A taxa de compressão começa em 37 para "a" e atinge o ponto de equilíbrio em 39 "a" s (taxa …


Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.