Codifique imagens em tweets (Extreme Image Compression Edition) [fechado]


59

Baseado no muito bem-sucedido desafio de codificação de imagem do Twitter no Stack Overflow.

Se uma imagem vale mais que 1000 palavras, quanto da imagem você pode caber em 114,97 bytes?

Desafio você a criar um método de uso geral para compactar imagens em um comentário padrão do Twitter que contenha apenas texto ASCII imprimível .

Regras:

  1. Você deve escrever um programa que possa capturar uma imagem e gerar o texto codificado.
  2. O texto criado pelo programa deve ter no máximo 140 caracteres e deve conter apenas caracteres cujos pontos de código estejam no intervalo de 32 a 126, inclusive.
  3. Você deve escrever um programa (possivelmente o mesmo) que possa pegar o texto codificado e gerar uma versão decodificada da fotografia.
  4. Seu programa pode usar bibliotecas e arquivos externos, mas não pode exigir conexão à Internet ou conexão com outros computadores.
  5. O processo de decodificação não pode acessar ou conter as imagens originais de forma alguma.
  6. Seu programa deve aceitar imagens em pelo menos um desses formatos (não necessariamente mais): Bitmap, JPEG, GIF, TIFF, PNG. Se algumas ou todas as imagens de amostra não estiverem no formato correto, você poderá convertê-las antes da compactação pelo seu programa.

A julgar:

Este é um desafio um tanto subjetivo, de modo que o vencedor (eventualmente) será julgado por mim. Vou concentrar meu julgamento em alguns fatores importantes, listados abaixo em importância decrescente:

  1. Capacidade de realizar um trabalho razoável de compactação de uma ampla variedade de imagens, incluindo aquelas não listadas como imagem de amostra
  2. Capacidade de preservar os contornos dos principais elementos de uma imagem
  3. Capacidade de compactar as cores dos principais elementos de uma imagem
  4. Capacidade de preservar contornos e cores dos pequenos detalhes em uma imagem
  5. Tempo de compressão. Embora não seja tão importante quanto a compactação de uma imagem, programas mais rápidos são melhores que programas mais lentos que fazem a mesma coisa.

Seu envio deve incluir as imagens resultantes após a descompressão, junto com o comentário do Twitter gerado. Se possível, você também pode fornecer um link para o código-fonte.

Imagens de exemplo:

O Hindenburg , paisagem montanhosa , Mona Lisa , formas 2D


U + 007F (127) e U + 0080 (128) são caracteres de controle. Eu sugeriria banir esses também.
precisa saber é o seguinte

Boa observação. Eu vou consertar isso.
PhiNotPi

O Twitter não permite o Unicode até certo ponto?
marinus

4
Sinto que gostaria de patentear uma solução para isso.
Shmiddty

2
"Paisagens montanhosas" 1024x768 - Obtenha antes que acabe! -> i.imgur.com/VaCzpRL.jpg <-
jdstankosky

Respostas:


58

Eu melhorei meu método adicionando compactação real. Agora ele opera iterativamente, fazendo o seguinte:

  1. Converta a imagem em YUV
  2. Diminua o tamanho da imagem, preservando a proporção (se a imagem for colorida, o croma será amostrado em 1/3 da largura e altura da luminância)

  3. Reduza a profundidade de bits para 4 bits por amostra

  4. Aplique previsão mediana à imagem, tornando a distribuição da amostra mais uniforme

  5. Aplique compressão de faixa adaptável à imagem.

  6. Veja se o tamanho da imagem compactada é <= 112

A maior imagem que se encaixa nos 112 bytes é então usada como imagem final, com os dois bytes restantes usados ​​para armazenar a largura e a altura da imagem compactada, além de um sinalizador indicando se a imagem está em cores. Para decodificação, o processo é revertido e a imagem é ampliada para que a dimensão menor seja 128.

Há algum espaço para aprimoramento, a saber, nem todos os bytes disponíveis são usados ​​normalmente, mas sinto que estou no ponto de retornos significativamente menores para a redução de amostragem + compactação sem perdas.

Fonte C ++ rápida e suja

Windows exe

Mona Lisa (luminosidade 13x20, croma 4x6)

&Jhmi8(,x6})Y"f!JC1jTzRh}$A7ca%/B~jZ?[_I17+91j;0q';|58yvX}YN426@"97W8qob?VB'_Ps`x%VR=H&3h8K=],4Bp=$K=#"v{thTV8^~lm vMVnTYT3rw N%I           

Monalisa Mona Lisa Twitter codificado

Hindenburg (luminosidade 21x13)

GmL<B&ep^m40dPs%V[4&"~F[Yt-sNceB6L>Cs#/bv`\4{TB_P Rr7Pjdk7}<*<{2=gssBkR$>!['ROG6Xs{AEtnP=OWDP6&h{^l+LbLr4%R{15Zc<D?J6<'#E.(W*?"d9wdJ'       

Hindenburg Twitter de Hindenburg codificado

Montanhas (luminância 19x14, 6x4 croma)

Y\Twg]~KC((s_P>,*cePOTM_X7ZNMHhI,WeN(m>"dVT{+cXc?8n,&m$TUT&g9%fXjy"A-fvc 3Y#Yl-P![lk~;.uX?a,pcU(7j?=HW2%i6fo@Po DtT't'(a@b;sC7"/J           

Montanha Twitter da montanha codificado

Formas 2D (luminância 21x15, croma 7x5)

n@|~c[#w<Fv8mD}2LL!g_(~CO&MG+u><-jT#{KXJy/``#S@m26CQ=[zejo,gFk0}A%i4kE]N ?R~^8!Ki*KM52u,M(his+BxqDCgU>ul*N9tNb\lfg}}n@HhX77S@TZf{k<CO69!    

Formas 2D Twitter de formas 2D codificado


7
Isso me faz sentir como se estivesse desenvolvendo catarata ou algo assim. Haha, ótimo trabalho!
Jdstankosky

Boas melhorias!
Jdstankosky

37

Ir

Trabalha dividindo a imagem em regiões recursivamente. Tento dividir regiões com alto conteúdo de informações e escolho a linha divisória para maximizar a diferença de cores entre as duas regiões.

Cada divisão é codificada usando alguns bits para codificar a linha divisória. Cada região da folha é codificada como uma única cor.

insira a descrição da imagem aqui

4vN!IF$+fP0~\}:0d4a's%-~@[Q(qSd<<BDb}_s|qb&8Ys$U]t0mc]|! -FZO=PU=ln}TYLgh;{/"A6BIER|{lH1?ZW1VNwNL 6bOBFOm~P_pvhV)]&[p%GjJ ,+&!p"H4`Yae@:P

insira a descrição da imagem aqui

<uc}+jrsxi!_:GXM!'w5J)6]N)y5jy'9xBm8.A9LD/^]+t5#L-6?9 a=/f+-S*SZ^Ch07~s)P("(DAc+$[m-:^B{rQTa:/3`5Jy}AvH2p!4gYR>^sz*'U9(p.%Id9wf2Lc+u\&\5M>

insira a descrição da imagem aqui

lO6>v7z87n;XsmOW^3I-0'.M@J@CLL[4z-Xr:! VBjAT,##6[iSE.7+as8C.,7uleb=|y<t7sm$2z)k&dADF#uHXaZCLnhvLb.%+b(OyO$-2GuG~,y4NTWa=/LI3Q4w7%+Bm:!kpe&

insira a descrição da imagem aqui

ZoIMHa;v!]&j}wr@MGlX~F=(I[cs[N^M`=G=Avr*Z&Aq4V!c6>!m@~lJU:;cr"Xw!$OlzXD$Xi>_|*3t@qV?VR*It4gB;%>,e9W\1MeXy"wsA-V|rs$G4hY!G:%v?$uh-y~'Ltd.,(

A foto de Hindenburg parece bem ruim, mas as outras que eu gosto.

package main

import (
    "os"
    "image"
    "image/color"
    "image/png"
    _ "image/jpeg"
    "math"
    "math/big"
)

// we have 919 bits to play with: floor(log_2(95^140))

// encode_region(r):
//   0
//      color of region (12 bits, 4 bits each color)
// or
//   1
//      dividing line through region
//        2 bits - one of 4 anchor points
//        4 bits - one of 16 angles
//      encode_region(r1)
//      encode_region(r2)
//
// start with single region
// pick leaf region with most contrast, split it

type Region struct {
    points []image.Point
    anchor int  // 0-3
    angle int // 0-15
    children [2]*Region
}

// mean color of region
func (region *Region) meanColor(img image.Image) (float64, float64, float64) {
    red := 0.0
    green := 0.0
    blue := 0.0
    num := 0
    for _, p := range region.points {
        r, g, b, _ := img.At(p.X, p.Y).RGBA()
        red += float64(r)
        green += float64(g)
        blue += float64(b)
        num++
    }
    return red/float64(num), green/float64(num), blue/float64(num)
}

// total non-uniformity in region's color
func (region *Region) deviation(img image.Image) float64 {
    mr, mg, mb := region.meanColor(img)
    d := 0.0
    for _, p := range region.points {
        r, g, b, _ := img.At(p.X, p.Y).RGBA()
        fr, fg, fb := float64(r), float64(g), float64(b)
        d += (fr - mr) * (fr - mr) + (fg - mg) * (fg - mg) + (fb - mb) * (fb - mb)
    }
    return d
}

// centroid of region
func (region *Region) centroid() (float64, float64) {
    cx := 0
    cy := 0
    num := 0
    for _, p := range region.points {
        cx += p.X
        cy += p.Y
        num++
    }
    return float64(cx)/float64(num), float64(cy)/float64(num)
}

// a few points in (or near) the region.
func (region *Region) anchors() [4][2]float64 {
    cx, cy := region.centroid()

    xweight := [4]int{1,1,3,3}
    yweight := [4]int{1,3,1,3}
    var result [4][2]float64
    for i := 0; i < 4; i++ {
        dx := 0
        dy := 0
        numx := 0
        numy := 0
        for _, p := range region.points {
            if float64(p.X) > cx {
                dx += xweight[i] * p.X
                numx += xweight[i]
            } else {
                dx += (4 - xweight[i]) * p.X
                numx += 4 - xweight[i]
            }
            if float64(p.Y) > cy {
                dy += yweight[i] * p.Y
                numy += yweight[i]
            } else {
                dy += (4 - yweight[i]) * p.Y
                numy += 4 - yweight[i]
            }
        }
        result[i][0] = float64(dx) / float64(numx)
        result[i][1] = float64(dy) / float64(numy)
    }
    return result
}

func (region *Region) split(img image.Image) (*Region, *Region) {
    anchors := region.anchors()
    // maximize the difference between the average color on the two sides
    maxdiff := 0.0
    var maxa *Region = nil
    var maxb *Region = nil
    maxanchor := 0
    maxangle := 0
    for anchor := 0; anchor < 4; anchor++ {
        for angle := 0; angle < 16; angle++ {
            sin, cos := math.Sincos(float64(angle) * math.Pi / 16.0)
            a := new(Region)
            b := new(Region)
            for _, p := range region.points {
                dx := float64(p.X) - anchors[anchor][0]
                dy := float64(p.Y) - anchors[anchor][1]
                if dx * sin + dy * cos >= 0 {
                    a.points = append(a.points, p)
                } else {
                    b.points = append(b.points, p)
                }
            }
            if len(a.points) == 0 || len(b.points) == 0 {
                continue
            }
            a_red, a_green, a_blue := a.meanColor(img)
            b_red, b_green, b_blue := b.meanColor(img)
            diff := math.Abs(a_red - b_red) + math.Abs(a_green - b_green) + math.Abs(a_blue - b_blue)
            if diff >= maxdiff {
                maxdiff = diff
                maxa = a
                maxb = b
                maxanchor = anchor
                maxangle = angle
            }
        }
    }
    region.anchor = maxanchor
    region.angle = maxangle
    region.children[0] = maxa
    region.children[1] = maxb
    return maxa, maxb
}

// split regions take 7 bits plus their descendents
// unsplit regions take 13 bits
// so each split saves 13-7=6 bits on the parent region
// and costs 2*13 = 26 bits on the children, for a net of 20 bits/split
func (region *Region) encode(img image.Image) []int {
    bits := make([]int, 0)
    if region.children[0] != nil {
        bits = append(bits, 1)
        d := region.anchor
        a := region.angle
        bits = append(bits, d&1, d>>1&1)
        bits = append(bits, a&1, a>>1&1, a>>2&1, a>>3&1)
        bits = append(bits, region.children[0].encode(img)...)
        bits = append(bits, region.children[1].encode(img)...)
    } else {
        bits = append(bits, 0)
        r, g, b := region.meanColor(img)
        kr := int(r/256./16.)
        kg := int(g/256./16.)
        kb := int(b/256./16.)
        bits = append(bits, kr&1, kr>>1&1, kr>>2&1, kr>>3)
        bits = append(bits, kg&1, kg>>1&1, kg>>2&1, kg>>3)
        bits = append(bits, kb&1, kb>>1&1, kb>>2&1, kb>>3)
    }
    return bits
}

func encode(name string) []byte {
    file, _ := os.Open(name)
    img, _, _ := image.Decode(file)

    // encoding bit stream
    bits := make([]int, 0)

    // start by encoding the bounds
    bounds := img.Bounds()
    w := bounds.Max.X - bounds.Min.X
    for ; w > 3; w >>= 1 {
        bits = append(bits, 1, w & 1)
    }
    bits = append(bits, 0, w & 1)
    h := bounds.Max.Y - bounds.Min.Y
    for ; h > 3; h >>= 1 {
        bits = append(bits, 1, h & 1)
    }
    bits = append(bits, 0, h & 1)

    // make new region containing whole image
    region := new(Region)
    region.children[0] = nil
    region.children[1] = nil
    for y := bounds.Min.Y; y < bounds.Max.Y; y++ {
        for x := bounds.Min.X; x < bounds.Max.X; x++ {
            region.points = append(region.points, image.Point{x, y})
        }
    }

    // split the region with the most contrast until we're out of bits.
    regions := make([]*Region, 1)
    regions[0] = region
    for bitcnt := len(bits) + 13; bitcnt <= 919-20; bitcnt += 20 {
        var best_reg *Region
        best_dev := -1.0
        for _, reg := range regions {
            if reg.children[0] != nil {
                continue
            }
            dev := reg.deviation(img)
            if dev > best_dev {
                best_reg = reg
                best_dev = dev
            }
        }
        a, b := best_reg.split(img)
        regions = append(regions, a, b)
    }

    // encode regions
    bits = append(bits, region.encode(img)...)

    // convert to tweet
    n := big.NewInt(0)
    for i := 0; i < len(bits); i++ {
        n.SetBit(n, i, uint(bits[i]))
    }
    s := make([]byte,0)
    r := new(big.Int)
    for i := 0; i < 140; i++ {
        n.DivMod(n, big.NewInt(95), r)
        s = append(s, byte(r.Int64() + 32))
    }
    return s
}

// decodes and fills in region.  returns number of bits used.
func (region *Region) decode(bits []int, img *image.RGBA) int {
    if bits[0] == 1 {
        anchors := region.anchors()
        anchor := bits[1] + bits[2]*2
        angle := bits[3] + bits[4]*2 + bits[5]*4 + bits[6]*8
        sin, cos := math.Sincos(float64(angle) * math.Pi / 16.)
        a := new(Region)
        b := new(Region)
        for _, p := range region.points {
            dx := float64(p.X) - anchors[anchor][0]
            dy := float64(p.Y) - anchors[anchor][1]
            if dx * sin + dy * cos >= 0 {
                a.points = append(a.points, p)
            } else {
                b.points = append(b.points, p)
            }
        }
        x := a.decode(bits[7:], img)
        y := b.decode(bits[7+x:], img)
        return 7 + x + y
    }
    r := bits[1] + bits[2]*2 + bits[3]*4 + bits[4]*8
    g := bits[5] + bits[6]*2 + bits[7]*4 + bits[8]*8
    b := bits[9] + bits[10]*2 + bits[11]*4 + bits[12]*8
    c := color.RGBA{uint8(r*16+8), uint8(g*16+8), uint8(b*16+8), 255}
    for _, p := range region.points {
        img.Set(p.X, p.Y, c)
    }
    return 13
}

func decode(name string) image.Image {
    file, _ := os.Open(name)
    length, _ := file.Seek(0, 2)
    file.Seek(0, 0)
    tweet := make([]byte, length)
    file.Read(tweet)

    // convert to bit string
    n := big.NewInt(0)
    m := big.NewInt(1)
    for _, c := range tweet {
        v := big.NewInt(int64(c - 32))
        v.Mul(v, m)
        n.Add(n, v)
        m.Mul(m, big.NewInt(95))
    }
    bits := make([]int, 0)
    for ; n.Sign() != 0; {
        bits = append(bits, int(n.Int64() & 1))
        n.Rsh(n, 1)
    }
    for ; len(bits) < 919; {
        bits = append(bits, 0)
    }

    // extract width and height
    w := 0
    k := 1
    for ; bits[0] == 1; {
        w += k * bits[1]
        k <<= 1
        bits = bits[2:]
    }
    w += k * (2 + bits[1])
    bits = bits[2:]
    h := 0
    k = 1
    for ; bits[0] == 1; {
        h += k * bits[1]
        k <<= 1
        bits = bits[2:]
    }
    h += k * (2 + bits[1])
    bits = bits[2:]

    // make new region containing whole image
    region := new(Region)
    region.children[0] = nil
    region.children[1] = nil
    for y := 0; y < h; y++ {
        for x := 0; x < w; x++ {
            region.points = append(region.points, image.Point{x, y})
        }
    }

    // new image
    img := image.NewRGBA(image.Rectangle{image.Point{0, 0}, image.Point{w, h}})

    // decode regions
    region.decode(bits, img)

    return img
}

func main() {
    if os.Args[1] == "encode" {
        s := encode(os.Args[2])
        file, _ := os.Create(os.Args[3])
        file.Write(s)
        file.Close()
    }
    if os.Args[1] == "decode" {
        img := decode(os.Args[2])
        file, _ := os.Create(os.Args[3])
        png.Encode(file, img)
        file.Close()
    }
}

3
Cara, isso parece legal.
MrZander

2
Oh Deus, isso é INCRÍVEL.
Jdstankosky

4
Espere, onde estão suas cordas?
Jdstankosky

11
Este é o meu favorito até agora.
Primo #

4
+1 para o visual cubista .
Ilmari Karonen

36

Pitão

A codificação requer numpy , SciPy e scikit-image .
A decodificação requer apenas PIL .

Este é um método baseado na interpolação de superpixel. Para começar, cada imagem é dividida em 70 regiões de tamanhos semelhantes e cores semelhantes. Por exemplo, a imagem da paisagem é dividida da seguinte maneira:

insira a descrição da imagem aqui

O centróide de cada região está localizado (até o ponto de varredura mais próximo em uma grade que não contém mais de 402 pontos), assim como a cor média (de uma paleta de cores 216), e cada uma dessas regiões é codificada como um número de 0 a 86832 , capaz de ser armazenado em 2,5 caracteres ascii imprimíveis (na verdade , 2.497 , deixando espaço suficiente para codificar para um bit na escala de cinza).

Se você estiver atento, poderá ter notado que 140 / 2,5 = 56 regiões, e não 70, como afirmei anteriormente. Observe, no entanto, que cada uma dessas regiões é um objeto único e comparável, que pode ser listado em qualquer ordem. Por esse motivo, podemos usar a permutação das 56 primeiras regiões para codificar para as outras 14 , além de ter alguns bits restantes para armazenar a proporção.

Mais especificamente, cada uma das 14 regiões adicionais é convertida em um número e, em seguida, cada um desses números concatenados juntos (multiplicando o valor atual por 86832 e adicionando a próxima). Esse número (gigantesco) é então convertido em uma permutação em 56 objetos.

Por exemplo:

from my_geom import *

# this can be any value from 0 to 56!, and it will map unambiguously to a permutation
num = 595132299344106583056657556772129922314933943196204990085065194829854239
perm = num2perm(num, 56)
print perm
print perm2num(perm)

irá produzir:

[0, 3, 33, 13, 26, 22, 54, 12, 53, 47, 8, 39, 19, 51, 18, 27, 1, 41, 50, 20, 5, 29, 46, 9, 42, 23, 4, 37, 21, 49, 2, 6, 55, 52, 36, 7, 43, 11, 30, 10, 34, 44, 24, 45, 32, 28, 17, 35, 15, 25, 48, 40, 38, 31, 16, 14]
595132299344106583056657556772129922314933943196204990085065194829854239

A permutação resultante é então aplicada às 56 regiões originais . O número original (e, portanto, as 14 regiões adicionais ) também pode ser extraído convertendo a permutação das 56 regiões codificadas em sua representação numérica.

Quando a --greyscaleopção é usada com o codificador, 94 regiões são usadas (separadas 70 , 24 ), com 558 pontos raster e 16 tons de cinza.

Ao decodificar, cada uma dessas regiões é tratada como um cone 3D estendido até o infinito, com seu vértice no centróide da região, como visto de cima (também conhecido como Diagrama de Voronoi). As bordas são então combinadas para criar o produto final.

Melhorias futuras

  1. As dimensões da Mona Lisa são um pouco diferentes, devido ao modo como estou armazenando a proporção. Vou precisar usar um sistema diferente. Corrigido, assumindo que a proporção original está entre 1:21 e 21: 1, o que eu acho que é uma suposição razoável.
  2. O Hindenburg poderia ser melhorado muito. A paleta de cores que estou usando tem apenas 6 tons de cinza. Se eu introduzisse um modo somente em escala de cinza, poderia usar as informações extras para aumentar a profundidade da cor, o número de regiões, o número de pontos de varredura ou qualquer combinação dos três. Eu adicionei uma --greyscaleopção ao codificador, que faz todos os três.
  3. 2d Shapes provavelmente ficaria melhor com a mistura desativada. Eu provavelmente adicionarei uma bandeira para isso. Adicionada uma opção de codificador para controlar a taxa de segmentação e uma opção de decodificador para desativar a mistura.
  4. Mais diversão com combinatória. 56! é realmente grande o suficiente para armazenar 15 regiões adicionais e 15! é grande o suficiente para armazenar mais 2, totalizando 73 . Mas espere, tem mais! O particionamento desses 73 objetos também pode ser usado para armazenar mais informações. Por exemplo, existem 73 maneiras de escolher 56 para selecionar as 56 regiões iniciais e 17 opções de 15 maneiras para selecionar as próximas 15 . Um total geral de 2403922132944423072 particionamentos, grandes o suficiente para armazenar mais 3 regiões, totalizando 76. Eu precisaria encontrar uma maneira inteligente de numerar exclusivamente todas as partições de 73 em grupos de 56 , 15 , 2 ... e vice-versa . Talvez não seja prático, mas um problema interessante para se pensar.

0VW*`Gnyq;c1JBY}tj#rOcKm)v_Ac\S.r[>,Xd_(qT6 >]!xOfU9~0jmIMG{hcg-'*a.s<X]6*%U5>/FOze?cPv@hI)PjpK9\iA7P ]a-7eC&ttS[]K>NwN-^$T1E.1OH^c0^"J 4V9X

insira a descrição da imagem aqui insira a descrição da imagem aqui


0Jc?NsbD#1WDuqT]AJFELu<!iE3d!BB>jOA'L|<j!lCWXkr:gCXuD=D\BL{gA\ 8#*RKQ*tv\\3V0j;_4|o7>{Xage-N85):Q/Hl4.t&'0pp)d|Ry+?|xrA6u&2E!Ls]i]T<~)58%RiA

e

4PV 9G7X|}>pC[Czd!5&rA5 Eo1Q\+m5t:r#;H65NIggfkw'h4*gs.:~<bt'VuVL7V8Ed5{`ft7e>HMHrVVUXc.{#7A|#PBm,i>1B781.K8>s(yUV?a<*!mC@9p+Rgd<twZ.wuFnN dp

insira a descrição da imagem aqui insira a descrição da imagem aqui insira a descrição da imagem aqui

O segundo codificado com a --greyscaleopção


3dVY3TY?9g+b7!5n`)l"Fg H$ 8n?[Q-4HE3.c:[pBBaH`5'MotAj%a4rIodYO.lp$h a94$n!M+Y?(eAR,@Y*LiKnz%s0rFpgnWy%!zV)?SuATmc~-ZQardp=?D5FWx;v=VA+]EJ(:%

insira a descrição da imagem aqui insira a descrição da imagem aqui

Codificado com a --greyscaleopção


.9l% Ge<'_)3(`DTsH^eLn|l3.D_na,,sfcpnp{"|lSv<>}3b})%m2M)Ld{YUmf<Uill,*:QNGk,'f2; !2i88T:Yjqa8\Ktz4i@h2kHeC|9,P` v7Xzd Yp&z:'iLra&X&-b(g6vMq

insira a descrição da imagem aqui insira a descrição da imagem aqui

Codificado com --ratio 60e decodificado com --no-blendingopções.


encoder.py

from __future__ import division
import argparse, numpy
from skimage.io import imread
from skimage.transform import resize
from skimage.segmentation import slic
from skimage.measure import regionprops
from my_geom import *

def encode(filename, seg_ratio, greyscale):
  img = imread(filename)

  height = len(img)
  width = len(img[0])
  ratio = width/height

  if greyscale:
    raster_size = 558
    raster_ratio = 11
    num_segs = 94
    set1_len = 70
    max_num = 8928  # 558 * 16
  else:
    raster_size = 402
    raster_ratio = 13
    num_segs = 70
    set1_len = 56
    max_num = 86832 # 402 * 216

  raster_width = (raster_size*ratio)**0.5
  raster_height = int(raster_width/ratio)
  raster_width = int(raster_width)

  resize_height = raster_height * raster_ratio
  resize_width = raster_width * raster_ratio

  img = resize(img, (resize_height, resize_width))

  segs = slic(img, n_segments=num_segs-4, ratio=seg_ratio).astype('int16')

  max_label = segs.max()
  numpy.place(segs, segs==0, [max_label+1])
  regions = [None]*(max_label+2)

  for props in regionprops(segs):
    label = props['Label']
    props['Greyscale'] = greyscale
    regions[label] = Region(props)

  for i, a in enumerate(regions):
    for j, b in enumerate(regions):
      if a==None or b==None or a==b: continue
      if a.centroid == b.centroid:
        numpy.place(segs, segs==j, [i])
        regions[j] = None

  for y in range(resize_height):
    for x in range(resize_width):
      label = segs[y][x]
      regions[label].add_point(img[y][x])

  regions = [r for r in regions if r != None]

  if len(regions)>num_segs:
    regions = sorted(regions, key=lambda r: r.area)[-num_segs:]

  regions = sorted(regions, key=lambda r: r.to_num(raster_width))

  set1, set2 = regions[-set1_len:], regions[:-set1_len]

  set2_num = 0
  for s in set2:
    set2_num *= max_num
    set2_num += s.to_num(raster_width)

  set2_num = ((set2_num*85 + raster_width)*85 + raster_height)*25 + len(set2)
  perm = num2perm(set2_num, set1_len)
  set1 = permute(set1, perm)

  outnum = 0
  for r in set1:
    outnum *= max_num
    outnum += r.to_num(raster_width)

  outnum *= 2
  outnum += greyscale

  outstr = ''
  for i in range(140):
    outstr = chr(32 + outnum%95) + outstr
    outnum //= 95

  print outstr

parser = argparse.ArgumentParser(description='Encodes an image into a tweetable format.')
parser.add_argument('filename', type=str,
  help='The filename of the image to encode.')
parser.add_argument('--ratio', dest='seg_ratio', type=float, default=30,
  help='The segmentation ratio. Higher values (50+) will result in more regular shapes, lower values in more regular region color.')
parser.add_argument('--greyscale', dest='greyscale', action='store_true',
  help='Encode the image as greyscale.')
args = parser.parse_args()

encode(args.filename, args.seg_ratio, args.greyscale)

decoder.py

from __future__ import division
import argparse
from PIL import Image, ImageDraw, ImageChops, ImageFilter
from my_geom import *

def decode(instr, no_blending=False):
  innum = 0
  for c in instr:
    innum *= 95
    innum += ord(c) - 32

  greyscale = innum%2
  innum //= 2

  if greyscale:
    max_num = 8928
    set1_len = 70
    image_mode = 'L'
    default_color = 0
    raster_ratio = 11
  else:
    max_num = 86832
    set1_len = 56
    image_mode = 'RGB'
    default_color = (0, 0, 0)
    raster_ratio = 13

  nums = []
  for i in range(set1_len):
    nums = [innum%max_num] + nums
    innum //= max_num

  set2_num = perm2num(nums)

  set2_len = set2_num%25
  set2_num //= 25

  raster_height = set2_num%85
  set2_num //= 85
  raster_width = set2_num%85
  set2_num //= 85

  resize_width = raster_width*raster_ratio
  resize_height = raster_height*raster_ratio

  for i in range(set2_len):
    nums += set2_num%max_num,
    set2_num //= max_num

  regions = []
  for num in nums:
    r = Region()
    r.from_num(num, raster_width, greyscale)
    regions += r,

  masks = []

  outimage = Image.new(image_mode, (resize_width, resize_height), default_color)

  for a in regions:
    mask = Image.new('L', (resize_width, resize_height), 255)
    for b in regions:
      if a==b: continue
      submask = Image.new('L', (resize_width, resize_height), 0)
      poly = a.centroid.bisected_poly(b.centroid, resize_width, resize_height)
      ImageDraw.Draw(submask).polygon(poly, fill=255, outline=255)
      mask = ImageChops.multiply(mask, submask)
    outimage.paste(a.avg_color, mask=mask)

  if not no_blending:
    outimage = outimage.resize((raster_width, raster_height), Image.ANTIALIAS)
    outimage = outimage.resize((resize_width, resize_height), Image.BICUBIC)
    smooth = ImageFilter.Kernel((3,3),(1,2,1,2,4,2,1,2,1))
    for i in range(20):outimage = outimage.filter(smooth)
  outimage.show()

parser = argparse.ArgumentParser(description='Decodes a tweet into and image.')
parser.add_argument('--no-blending', dest='no_blending', action='store_true',
    help="Do not blend the borders in the final image.")
args = parser.parse_args()

instr = raw_input()
decode(instr, args.no_blending)

my_geom.py

from __future__ import division

class Point:
  def __init__(self, x, y):
    self.x = x
    self.y = y
    self.xy = (x, y)

  def __eq__(self, other):
    return self.x == other.x and self.y == other.y

  def __lt__(self, other):
    return self.y < other.y or (self.y == other.y and self.x < other.x)

  def inv_slope(self, other):
    return (other.x - self.x)/(self.y - other.y)

  def midpoint(self, other):
    return Point((self.x + other.x)/2, (self.y + other.y)/2)

  def dist2(self, other):
    dx = self.x - other.x
    dy = self.y - other.y
    return dx*dx + dy*dy

  def bisected_poly(self, other, resize_width, resize_height):
    midpoint = self.midpoint(other)
    points = []
    if self.y == other.y:
      points += (midpoint.x, 0), (midpoint.x, resize_height)
      if self.x < midpoint.x:
        points += (0, resize_height), (0, 0)
      else:
        points += (resize_width, resize_height), (resize_width, 0)
      return points
    elif self.x == other.x:
      points += (0, midpoint.y), (resize_width, midpoint.y)
      if self.y < midpoint.y:
        points += (resize_width, 0), (0, 0)
      else:
        points += (resize_width, resize_height), (0, resize_height)
      return points
    slope = self.inv_slope(other)
    y_intercept = midpoint.y - slope*midpoint.x
    if self.y > midpoint.y:
      points += ((resize_height - y_intercept)/slope, resize_height),
      if slope < 0:
        points += (resize_width, slope*resize_width + y_intercept), (resize_width, resize_height)
      else:
        points += (0, y_intercept), (0, resize_height)
    else:
      points += (-y_intercept/slope, 0),
      if slope < 0:
        points += (0, y_intercept), (0, 0)
      else:
        points += (resize_width, slope*resize_width + y_intercept), (resize_width, 0)
    return points

class Region:
  def __init__(self, props={}):
    if props:
      self.greyscale = props['Greyscale']
      self.area = props['Area']
      cy, cx = props['Centroid']
      if self.greyscale:
        self.centroid = Point(int(cx/11)*11+5, int(cy/11)*11+5)
      else:
        self.centroid = Point(int(cx/13)*13+6, int(cy/13)*13+6)
    self.num_pixels = 0
    self.r_total = 0
    self.g_total = 0
    self.b_total = 0

  def __lt__(self, other):
    return self.centroid < other.centroid

  def add_point(self, rgb):
    r, g, b = rgb
    self.r_total += r
    self.g_total += g
    self.b_total += b
    self.num_pixels += 1
    if self.greyscale:
      self.avg_color = int((3.2*self.r_total + 10.7*self.g_total + 1.1*self.b_total)/self.num_pixels + 0.5)*17
    else:
      self.avg_color = (
        int(5*self.r_total/self.num_pixels + 0.5)*51,
        int(5*self.g_total/self.num_pixels + 0.5)*51,
        int(5*self.b_total/self.num_pixels + 0.5)*51)

  def to_num(self, raster_width):
    if self.greyscale:
      raster_x = int((self.centroid.x - 5)/11)
      raster_y = int((self.centroid.y - 5)/11)
      return (raster_y*raster_width + raster_x)*16 + self.avg_color//17
    else:
      r, g, b = self.avg_color
      r //= 51
      g //= 51
      b //= 51
      raster_x = int((self.centroid.x - 6)/13)
      raster_y = int((self.centroid.y - 6)/13)
      return (raster_y*raster_width + raster_x)*216 + r*36 + g*6 + b

  def from_num(self, num, raster_width, greyscale):
    self.greyscale = greyscale
    if greyscale:
      self.avg_color = num%16*17
      num //= 16
      raster_x, raster_y = num%raster_width, num//raster_width
      self.centroid = Point(raster_x*11 + 5, raster_y*11+5)
    else:
      rgb = num%216
      r, g, b = rgb//36, rgb//6%6, rgb%6
      self.avg_color = (r*51, g*51, b*51)
      num //= 216
      raster_x, raster_y = num%raster_width, num//raster_width
      self.centroid = Point(raster_x*13 + 6, raster_y*13 + 6)

def perm2num(perm):
  num = 0
  size = len(perm)
  for i in range(size):
    num *= size-i
    for j in range(i, size): num += perm[j]<perm[i]
  return num

def num2perm(num, size):
  perm = [0]*size
  for i in range(size-1, -1, -1):
    perm[i] = int(num%(size-i))
    num //= size-i
    for j in range(i+1, size): perm[j] += perm[j] >= perm[i]
  return perm

def permute(arr, perm):
  size = len(arr)
  out = [0] * size
  for i in range(size):
    val = perm[i]
    out[i] = arr[val]
  return out

11
Isso não é nada menos que incrível
lochok

A versão colorida da Mona Lisa parece que um de seus seios apareceu. Brincadeiras à parte, isso é incrível.
Jdstankosky

4
Usar as permutações para codificar dados adicionais é bastante inteligente.
precisa saber é o seguinte

Realmente realmente incrível. Você pode fazer uma essência com esses 3 arquivos? gist.github.com
rubik

2
@rubik é incrivelmente lossy, como são todas as soluções a este desafio;)
primo

17

PHP

OK, demorei um pouco, mas aqui está. Todas as imagens em escala de cinza. As cores levaram muitos bits para codificar para o meu método: P


Mona Lisa:
47 cores Monocromático, sequência de
101 bytes.

dt99vvv9t8G22+2eZbbf55v3+fAH9X+AD/0BAF6gIOX5QRy7xX8em9/UBAEVXKiiqKqqqiqqqqNqqqivtXqqMAFVUBVVVVVVVVVVU

mona lisa


Formas 2D
36 Cores Monocromático Cadeia de
105 bytes.

oAAAAAAABMIDUAAEBAyoAAAAAgAwAAAAADYBtsAAAJIDbYAAAAA22AGwAAAAAGwAAAAAAAAAAKgAAAAAqgAAAACoAAAAAAAAAAAAAAAAA

2d 2dc


Hindenburg
62 cores monocromático
112 caracteres.

t///tCSuvv/99tmwBI3/21U5gCW/+2bdDMxLf+r6VsaHb/tt7TAodv+NhtbFVX/bGD1IVq/4MAHbKq/4AABbVX/AQAFN1f8BCBFntb/6ttYdWnfg

fotos aqui insira a descrição da imagem aqui


Montanhas
63 cores monocromático
122 caracteres.

qAE3VTkaIAKgqSFigAKoABgQEqAABuAgUQAGenRIBoUh2eqhABCee/2qSSAQntt/s2kJCQbf/bbaJgbWebzqsPZ7bZttwABTc3VAUFDbKqqpzY5uqpudnp5vZg

picshere insira a descrição da imagem aqui


Meu método

Eu codifico meu fluxo de bits com um tipo de codificação base64. Antes de ser codificado em texto legível, eis o que acontece.

Carrego a imagem de origem e redimensiono-a para uma altura ou largura máxima (dependendo da orientação, retrato / paisagem) de 20 pixels.

Em seguida, recolorir cada pixel da nova imagem para a correspondência mais próxima em uma paleta de 6 cores em escala de cinza.

Depois disso, crio uma string com cada cor de pixel representada pelas letras [AF].

Em seguida, calculo a distribuição das 6 letras diferentes na sequência e seleciono a árvore binária mais otimizada para codificação com base nas frequências das letras. Existem 15 árvores binárias possíveis.

Inicio meu fluxo de bits com um único bit, [1|0]dependendo da imagem ser alta ou larga. Em seguida, uso os próximos 4 bits no fluxo para informar ao decodificador qual árvore binária deve ser usada para decodificar a imagem.

O que se segue é o fluxo de bits que representa a imagem. Cada pixel e sua cor são representados por 2 ou 3 bits. Isso permite armazenar pelo menos 2 e até 3 pixels de informações para cada caractere ASCII impresso. Aqui está uma amostra da árvore binária 1110, usada pela Mona Lisa:

    TREE
   /    \
  #      #
 / \    / \
E   #  F   #
   / \    / \
  A   B  C   D

As letras E 00e F 10são as cores mais comuns na Mona Lisa. A 010, B 011, C 110e D 111são os menos frequentes.

As árvores binárias funcionam assim: Ir de bit em bit, 0significa ir para a esquerda, 1significa ir para a direita. Continue indo até bater em uma folha na árvore ou em um beco sem saída. A folha em que você termina é o personagem que você deseja.

De qualquer forma, eu codifico a picada binária em caracteres base64. Ao decodificar a sequência, o processo é feito ao contrário, atribuindo todos os pixels à cor apropriada e, em seguida, a imagem é dimensionada duas vezes o tamanho codificado (máximo de 40 pixels, X ou Y, o que for maior) e, em seguida, uma matriz de convolução aplicado a tudo para suavizar as cores.

De qualquer forma, aqui está o código atual: " link pastebin "

É feio, mas se você encontrar algum espaço para melhorias, me avise. Eu o cortei juntos como eu quero. APRENDI MUITO DESTE DESAFIO. Obrigado OP por publicá-lo!


2
Eles parecem incrivelmente bons, considerando o espaço de armazenamento não utilizado que você tem (a Mona Lisa usa apenas 606 bits dos 920 disponíveis!).
Primo

Obrigado, primo, eu realmente aprecio isso. Eu sempre admiro o seu trabalho, então ouvi-lo dizer que é bastante lisonjeiro!
precisa saber é o seguinte

13

Minha primeira tentativa. Isso tem espaço para melhorias. Eu acho que o formato em si realmente funciona, o problema está no codificador. Isso, e estou perdendo bits individuais da minha saída ... meu arquivo (de qualidade um pouco mais alta do que aqui) terminou em 144 caracteres, quando deveria ter sobrado algum. (e eu realmente gostaria que houvesse - as diferenças entre essas e aquelas são visíveis). Aprendi, porém, nunca superestime o tamanho de 140 caracteres ...

Eu a reduzi para uma versão modificada da paleta RISC-OS - basicamente, porque eu precisava de uma paleta de 32 cores e isso parecia um bom lugar para começar. Isso também pode mudar algumas coisas, eu acho. Paleta

Eu Formas a divido nas seguintes formas: e divido a imagem em blocos de paleta (neste caso, 2x2 pixels) de uma cor frontal e traseira.

Resultados:

A seguir estão os tweets, os originais e como o tweet é decodificado

*=If`$aX:=|"&brQ(EPZwxu4H";|-^;lhJCfQ(W!TqWTai),Qbd7CCtmoc(-hXt]/l87HQyaYTEZp{eI`/CtkHjkFh,HJWw%5[d}VhHAWR(@;M's$VDz]17E@6

Hindeberg Meu hindenberg

"&7tpnqK%D5kr^u9B]^3?`%;@siWp-L@1g3p^*kQ=5a0tBsA':C0"*QHVDc=Z='Gc[gOpVcOj;_%>.aeg+JL4j-u[a$WWD^)\tEQUhR]HVD5_-e`TobI@T0dv_el\H1<1xw[|D

Montanha My Mountain

)ey`ymlgre[rzzfi"K>#^=z_Wi|@FWbo#V5|@F)uiH?plkRS#-5:Yi-9)S3:#3 Pa4*lf TBd@zxa0g;li<O1XJ)YTT77T1Dg1?[w;X"U}YnQE(NAMQa2QhTMYh..>90DpnYd]?

Formas Minhas Formas

%\MaaX/VJNZX=Tq,M>2"AwQVR{(Xe L!zb6(EnPuEzB}Nk:U+LAB_-K6pYlue"5*q>yDFw)gSC*&,dA98`]$2{&;)[ 4pkX |M _B4t`pFQT8P&{InEh>JHYn*+._[b^s754K_

Monalisa Mona Lisa Mine

Sei que as cores estão erradas, mas na verdade gosto da Monalisa. Se eu removesse o desfoque (o que não seria muito difícil), é uma impressão cubista razoável: p

Eu preciso trabalhar

  • Adicionando detecção de forma
  • Um algoritmo de "diferença" de cor melhor
  • Descobrir para onde foram meus bits perdidos

Darei mais trabalho posteriormente para tentar corrigi-los e aprimorei o codificador. Esses 20 ou mais personagens extras fazem uma enorme diferença. Eu gostaria deles de volta.

A fonte C # e a paleta de cores estão em https://dl.dropboxusercontent.com/u/46145976/Base96.zip - embora, em retrospectiva, possam não funcionar perfeitamente quando executadas separadamente (pois os espaços nos argumentos dos programas não funcionam assim) bem).

O codificador leva menos de alguns segundos na minha máquina razoavelmente média.


11
Cara. Aqueles parecem melhores do que qualquer arte contemporânea que eu já vi em uma galeria ... Você deve fazer grandes impressões delas e vendê-las!
Jdstankosky

11
Parece que preciso tirar o cartucho do Atari e conectá-lo novamente. Gosto.
Undergroundmonorail

13

Desisti de tentar manter a cor e fiquei em preto e branco, pois tudo o que tentava com a cor era irreconhecível.

Basicamente, tudo o que faz é dividir os pixels em três partes aproximadamente iguais: preto, cinza e branco. Também não mantém o tamanho.

Hindenburg

~62RW.\7`?a9}A.jvCedPW0t)]g/e4 |+D%n9t^t>wO><",C''!!Oh!HQq:WF>\uEG?E=Mkj|!u}TC{7C7xU:bb`We;3T/2:Zw90["$R25uh0732USbz>Q;q"

Hindenburg HindenburgCompressed

Monalisa

=lyZ(i>P/z8]Wmfu>] T55vZB:/>xMz#Jqs6U3z,)n|VJw<{Mu2D{!uyl)b7B6x&I"G0Y<wdD/K4hfrd62_8C\W7ArNi6R\Xz%f U[);YTZFliUEu{m%[gw10rNY_`ICNN?_IB/C&=T

Monalisa MonaLisaCompressed

Montanhas

+L5#~i%X1aE?ugVCulSf*%-sgIg8hQ3j/df=xZv2v?'XoNdq=sb7e '=LWm\E$y?=:"#l7/P,H__W/v]@pwH#jI?sx|n@h\L %y(|Ry.+CvlN $Kf`5W(01l2j/sdEjc)J;Peopo)HJ

Montanhas MontanhasComprimido

Formas

3A"3yD4gpFtPeIImZ$g&2rsdQmj]}gEQM;e.ckbVtKE(U$r?{,S>tW5JzQZDzoTy^mc+bUV vTUG8GXs{HX'wYR[Af{1gKwY|BD]V1Z'J+76^H<K3Db>Ni/D}][n#uwll[s'c:bR56:

Formas FormasComprimido

Aqui está o programa. python compress.py -c img.pngcomprime img.pnge imprime o tweet.

python compress.py -d img.pngpega o tweet de stdin e salva a imagem em img.png.

from PIL import Image
import sys
quanta  = 3
width   = 24
height  = 24

def compress(img):
    pix = img.load()
    psums = [0]*(256*3)
    for x in range(width):
        for y in range(height):
            r,g,b,a = pix[x,y]
            psums[r+g+b] += 1
    s = 0
    for i in range(256*3):
        s = psums[i] = psums[i]+s

    i = 0
    for x in range(width):
        for y in range(height):
            r,g,b,a = pix[x,y]
            t = psums[r+g+b]*quanta / (width*height)
            if t == quanta:
                t -= 1
            i *= quanta
            i += t
    s = []
    while i:
        s += chr(i%95 + 32)
        i /= 95
    return ''.join(s)

def decompress(s):
    i = 0
    for c in s[::-1]:
        i *= 95
        i += ord(c) - 32
    img = Image.new('RGB',(width,height))
    pix = img.load()
    for x in range(width)[::-1]:
        for y in range(height)[::-1]:
            t = i % quanta
            i /= quanta
            t *= 255/(quanta-1)
            pix[x,y] = (t,t,t)
    return img

if sys.argv[1] == '-c':
    img = Image.open(sys.argv[2]).resize((width,height))
    print compress(img)
elif sys.argv[1] == '-d':
    img = decompress(raw_input())
    img.resize((256,256)).save(sys.argv[2],'PNG')

Lol, +1 para proporções sem restrições.
Jdstankosky

7

Minha modesta contribuição em R:

encoder<-function(img_file){
    img0 <- as.raster(png::readPNG(img_file))
    d0 <- dim(img0)
    r <- d0[1]/d0[2]
    f <- floor(sqrt(140/r))
    d1 <- c(floor(f*r),f)
    dx <- floor(d0[2]/d1[2])
    dy <- floor(d0[1]/d1[1])
    img1 <- matrix("",ncol=d1[2],nrow=d1[1])
    x<-seq(1,d0[1],by=dy)
    y<-seq(1,d0[2],by=dx)
    for(i in seq_len(d1[1])){
        for (j in seq_len(d1[2])){
            img1[i,j]<-names(which.max(table(img0[x[i]:(x[i]+dy-1),y[j]:(y[j]+dx-1)])))
            }
        }
    img2 <- as.vector(img1)
    table1 <- array(sapply(seq(0,255,length=4),function(x)sapply(seq(0,255,length=4),function(y)sapply(seq(0,255,length=4),function(z)rgb(x/255,y/255,z/255)))),dim=c(4,4,4))
    table2 <- array(strsplit(rawToChar(as.raw(48:(48+63))),"")[[1]],dim=c(4,4,4))
    table3 <- cbind(1:95,sapply(32:126,function(x)rawToChar(as.raw(x))))
    a <- as.array(cut(colorspace::hex2RGB(img2)@coords,breaks=seq(0,1,length=5),include.lowest=TRUE))
    dim(a) <- c(length(img2),3)
    img3 <- apply(a,1,function(x)paste("#",c("00","55","AA","FF")[x[1]],c("00","55","AA","FF")[x[2]],c("00","55","AA","FF")[x[3]],sep=""))
    res<-paste(sapply(img3,function(x)table2[table1==x]),sep="",collapse="")
    paste(table3[table3[,1]==d1[1],2],table3[table3[,1]==d1[2],2],res,collapse="",sep="")
    }

decoder<-function(string){
    s <- unlist(strsplit(string,""))
    table1 <- array(sapply(seq(0,255,length=4),function(x)sapply(seq(0,255,length=4),function(y)sapply(seq(0,255,length=4),function(z)rgb(x/255,y/255,z/255)))),dim=c(4,4,4))
    table2 <- array(strsplit(rawToChar(as.raw(48:(48+63))),"")[[1]],dim=c(4,4,4))
    table3 <- cbind(1:95,sapply(32:126,function(x)rawToChar(as.raw(x))))
    nr<-as.integer(table3[table3[,2]==s[1],1])
    nc<-as.integer(table3[table3[,2]==s[2],1])
    img <- sapply(s[3:length(s)],function(x){table1[table2==x]})
    png(w=nc,h=nr,u="in",res=100)
    par(mar=rep(0,4))
    plot(c(1,nr),c(1,nc),type="n",axes=F,xaxs="i",yaxs="i")
    rasterImage(as.raster(matrix(img,nr,nc)),1,1,nr,nc)
    dev.off()
    }

A idéia é simplesmente reduzir a varredura (o arquivo deve estar em png) para uma matriz cujo número de células é menor que 140; os tweets são uma série de cores (em 64 cores), precedidas por dois caracteres, indicando o número de linhas. e colunas da varredura.

encoder("Mona_Lisa.png")
[1] ",(XXX000@000000XYi@000000000TXi0000000000TX0000m000h00T0hT@hm000000T000000000000XX00000000000XXi0000000000TXX0000000000"

insira a descrição da imagem aqui

encoder("630x418.png") # Not a huge success for this one :)
[1] "(-00000000000000000000EEZZooo00E0ZZooo00Z00Zooo00Zo0oooooEZ0EEZoooooooEZo0oooooo000ooZ0Eo0000oooE0EE00oooEEEE0000000E00000000000"

insira a descrição da imagem aqui

encoder("2d shapes.png")
[1] "(,ooooooooooooooooooooo``ooooo0o``oooooooooo33ooooooo33oo0ooooooooooo>>oooo0oooooooo0ooooooooooooolloooo9oolooooooooooo"

insira a descrição da imagem aqui

encoder("mountains.png")
[1] "(,_K_K0005:_KKK0005:__OJJ006:_oKKK00O:;;_K[[4OD;;Kooo4_DOKK_o^D_4KKKJ_o5o4KK__oo4_0;K___o5JDo____o5Y0____440444040400D4"

insira a descrição da imagem aqui


4

Não é uma solução completa, basta colocar o método lá fora. (Matlab)

Usei uma paleta de 16 cores e uma posição 40 para criar um diagrama de voronoi ponderado . Utilizou algoritmo genético e algoritmo simples de escalada para se ajustar à imagem.

Álbum com imagem original e também tenho uma versão de 16 bytes com 4 cores e posições fixas. :)

insira a descrição da imagem aqui

(Posso redimensionar a imagem aqui?)


11
Você pode postar as outras imagens? Eu quero ver como eles se parecem com essa compressão!
Jdstankosky

@jdstankosky Desculpe, não posso fazer isso agora. Talvez algum tempo depois ...
randomra

4

C #

Atualização - Versão 2


Fiz outra tentativa, agora usando o MagickImage.NET ( https://magick.codeplex.com/ ) para codificar os dados JPEG, também escrevi um código básico para processar melhor os dados do cabeçalho JPEG (como sugerido pelo primo), também GuassianBlur usado na saída, que ajuda a suavizar parte da compactação JPEG. Como a nova versão se pré-forma melhor, atualizei minha postagem para refletir o novo método.


Método


Tentei algo único (espero), em vez de tentar manipular a profundidade de cores ou a identificação das bordas, ou tentar usar maneiras diferentes de reduzir o tamanho das imagens. Utilizei o algoritmo JPEG na compressão máxima em versões reduzidas do as imagens e, ao eliminar tudo, menos o "StartOfScan" ( http://en.wikipedia.org/wiki/JPEG#Syntax_and_structure ) e alguns elementos-chave do cabeçalho, posso reduzir o tamanho a um valor aceitável. Os resultados são realmente impressionantes para 140 caracteres, me dá um novo respeito pelos JPEGs:

Hindenburg

Hindenburg Original

,$`"(b $!   _ &4j6k3Qg2ns2"::4]*;12T|4z*4n*4<T~a4- ZT_%-.13`YZT;??e#=*!Q033*5>z?1Ur;?2i2^j&r4TTuZe2444b*:>z7.:2m-*.z?|*-Pq|*,^Qs<m&?:e-- 

Montanhas

Montanhas Original

,$  (a`,!  (1 Q$ /P!U%%%,0b*2nr4 %)3t4 +3#UsZf3S2 7-+m1Yqis k2U'm/#"h q2T4#$s.]/)%1T &*,4Ze w$Q2Xqm&: %Q28qiqm Q,48Xq12 _

Monalisa

Monalisa Original

23  (a`,!  (1 Q$ /P q1Q2Tc$q0,$9--/!p Ze&:6`#*,Tj6l0qT%(:!m!%(84|TVk0(*2k24P)!e(U,q2x84|Tj*8a1a-%** $r4_--Xr&)12Tj8a2Tj* %r444 %%%% !

Formas

Formas Original

(ep 1# ,!  (1 Q$ /P"2`#=WTp $X[4 &[Vp p<T +0 cP* 0W=["jY5cZ9(4 (<]t  ]Z %ZT -P!18=V+UZ4" #% i6%r}#"l p QP>*r $!Yq(!]2 jo* zp!0 4 % !0 4 % '!


Código


Versão 2 - http://pastebin.com/Tgr8XZUQ

Estou realmente começando a sentir falta do ReSharper +, tenho muitas coisas para melhorar, ainda há muita codificação em andamento aqui, interessante para se mexer (lembre-se de que você precisa das dll MagickImage para fazer isso funcionar no VS)


Original (descontinuado) - http://pastebin.com/BDPT0BKT

Ainda um pouco de bagunça.


"Isso é realmente uma bagunça agora", eu concordo com isso - certamente deve haver uma maneira melhor de gerar esse cabeçalho? Mas suponho que os resultados são o que mais importa. +1
primo

1

Python 3

Método

O que o programa faz primeiro é reduzir a imagem, diminuindo bastante seu tamanho.

Segundo, converte os valores rgb em binários e corta os últimos dígitos.

Em seguida, converte os dados da base 2 na base 10, onde adiciona as dimensões da imagem.

Em seguida, ele converte os dados da base 10 para a base 95, usando todos os ascii que pude encontrar. No entanto, não pude usar / x01 e similares por causa de sua capacidade de negar a função que gravou o arquivo de texto.

E (para aumentar a ambiguidade), a função decodificar faz isso ao contrário.

compress.py

    from PIL import Image
def FromBase(digits, b): #converts to base 10 from base b
    numerals='''0123456789abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ!@#$%^&*()_-+={[}]|:;"',<.>/?`~\\ '''
    D=[]
    for d in range(0,len(digits)):
        D.append(numerals.index(digits[d]))
    s=0
    D=D[::-1]
    for x in range(0,len(D)):
        s+=D[x]*(b**x)
    return(str(s))
def ToBase(digits,b): #converts from base 10 to base b
    numerals='''0123456789abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ!@#$%^&*()_-+={[}]|:;"',<.>/?`~\\ '''
    d=int(digits)
    D=''
    B=b
    while(B<=d):
        B*=b
    B//=b
    while(B>=1):
        D+=numerals[d//B]
        d-=((d//B)*B)
        B//=b
    return(D)
im=Image.open('1.png')
size=im.size
scale_factor=40
im=im.resize((int(size[0]/scale_factor),int(size[1]/scale_factor)), Image.ANTIALIAS)
a=list(im.getdata())
K=''
for x in a:
    for y in range(0,3):
        Y=bin(x[y])[2:]
        while(len(Y))<9:
            Y='0'+Y
        K+=str(Y)[:-5]
K='1'+K
print(len(K))
K=FromBase(K,2)
K+=str(size[0])
K+=str(size[1])
K=ToBase(K,95)
with open('1.txt', 'w') as outfile:
    outfile.write(K)

decode.py

    from random import randint, uniform
from PIL import Image, ImageFilter
import math
import json
def FromBase(digits, b): #str converts to base 10 from base b
    numerals='''0123456789abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ!@#$%^&*()_-+={[}]|:;"',<.>/?`~\\ \x01\x02\x03\x04\x05\x06\x07'''
    D=[]
    for d in range(0,len(digits)):
        D.append(numerals.index(digits[d]))
    s=0
    D=D[::-1]
    for x in range(0,len(D)):
        s+=D[x]*(b**x)
    return(str(s))
def ToBase(digits,b): #str converts from base 10 to base b
    numerals='''0123456789abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ!@#$%^&*()_-+={[}]|:;"',<.>/?`~\\ \x01\x02\x03\x04\x05\x06\x07'''
    d=int(digits)
    D=''
    B=b
    while(B<=d):
        B*=b
    B//=b
    while(B>=1):
        D+=numerals[d//B]
        d-=((d//B)*B)
        B//=b
    return(D)
scale_factor=40
K=open('1.txt', 'r').read()
K=FromBase(K,95)
size=[int(K[-6:][:-3])//scale_factor,int(K[-6:][-3:])//scale_factor]
K=K[:-6]
K=ToBase(K,2)
K=K[1:]
a=[]
bsize=4
for x in range(0,len(K),bsize*3):
    Y=''
    for y in range(0,bsize*3):
        Y+=K[x+y]
    y=[int(Y[0:bsize]+'0'*(9-bsize)),int(Y[bsize:bsize*2]+'0'*(9-bsize)),int(Y[bsize*2:bsize*3]+'0'*(9-bsize))]
    y[0]=int(FromBase(str(y[0]),2))
    y[1]=int(FromBase(str(y[1]),2))
    y[2]=int(FromBase(str(y[2]),2))
    a.append(tuple(y))
im=Image.new('RGB',size,'black')
im.putdata(a[:size[0]*size[1]])
im=im.resize((int(size[0]*scale_factor),int(size[1]*scale_factor)), Image.ANTIALIAS)
im.save('pic.png')

O grito

Scream1 Scream2

hqgyXKInZo9-|A20A*53ljh[WFUYu\;eaf_&Y}V/@10zPkh5]6K!Ur:BDl'T/ZU+`xA4'\}z|8@AY/5<cw /8hQq[dR1S 2B~aC|4Ax"d,nX`!_Yyk8mv6Oo$+k>_L2HNN.#baA

Monalisa

Mona Lisa 1 Mona Lisa 2

f4*_!/J7L?,Nd\#q$[f}Z;'NB[vW%H<%#rL_v4l_K_ >gyLMKf; q9]T8r51it$/e~J{ul+9<*nX0!8-eJVB86gh|:4lsCumY4^y,c%e(e3>sv(.y>S8Ve.tu<v}Ww=AOLrWuQ)

Esferas

Esferas 1 Esferas 2

})|VF/h2i\(D?Vgl4LF^0+zt$d}<M7E5pTA+=Hr}{VxNs m7Y~\NLc3Q"-<|;sSPyvB[?-B6~/ZHaveyH%|%xGi[Vd*SPJ>9)MKDOsz#zNS4$v?qM'XVe6z\
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.