O RAW de 14 bits é melhor que o RAW de 12 bits?


13

Uma imagem JPEG comum possui apenas 8 bits para armazenar informações sobre o tom de cada pixel. Ao armazenar a imagem no formato RAW (por exemplo, DNG), podemos armazenar tons usando mais bits por pixel, o que nos oferece uma faixa mais ampla e mais opções de processamento no computador.

Minha câmera atual pode gravar imagens como DNG de 12 bits e normalmente uso RAW. Percebi que os modelos mais novos de DSLRs são capazes de armazenar 14 bits por pixel. Para mim, parece uma grande vantagem obter esses 2 bits a mais, mas na realidade é uma grande diferença? Eu veria a diferença no pós-processamento? A diferença estaria mais nas partes escuras (subexpostas) ou realçadas (superexpostas) da imagem?


8
Correção pequena, mas importante: os JPEGs armazenam 8 bits por canal por pixel: 8 bits de vermelho, 8 de verde, 8 de azul e 24 bits no total. Da mesma forma, o RAW armazena 12/14 bits por canal por pixel: 36/42 bits por pixel no total. 8 bits por pixel é o que você obtém com o formato GIF (ou um PNG de 8 bits): uma paleta máxima de 256 cores, o que não é bom para fotos.
Mark Whitaker

3
+1 à correção, mas observe que o arquivo bruto realmente está apenas armazenando esse número de bits por pixel, onde cada pixel - cada photosite - é filtrado para uma determinada cor. A conversão de RAW implica desmosaicing, onde informações coloridas são inteligentemente extrapoladas dos vizinhos. Portanto, o RAW não está realmente armazenando 36/42 bits por pixel. (Supondo uma matriz padrão de filtros de cores da Bayer ou similar, como é normal para todas, exceto as câmeras Foveon da Sigma.)
Leia Profile

@ MarkWhitaker - correção adicional (ainda menor ;-): RAW (na maioria das câmeras) armazena 12/14 bits por pixel, de uma das três cores primárias. As outras duas cores são adicionadas no pós-processamento pela demosaicing da Bayer (ou outro padrão). Uma exceção é o sensor do tipo Foveon, em que 3 cores por pixel são capturadas pelo sensor.
usar o seguinte comando

A maioria das imagens JPEG armazena a imagem no formato YCC ( en.wikipedia.org/wiki/YCbCr ). O número de bits para cada canal (luminância, delta-azul, delta-vermelho) é determinado quando a imagem é compactada. A renderização da imagem geralmente é feita no RGB888, o que leva a uma pequena perda adicional (mais do que a compactação) de informações. Também existem JPEGs CMYK e YCCK, embora sejam mais raros, e há JPEGs de '12 bits', que são renderizados em RGB [12] [12] [12] em vez de RGB [8] [8] [8]
rsaxvc

Respostas:


14

Faz alguma diferença mensurável, mas não conta a história toda. A pontuação de retrato do DxOMark é uma avaliação técnica da saída de várias câmeras, especificamente em termos de profundidade de cor, que eles descrevem cuidadosamente como tendo uma " correlação " com a sensibilidade da cor, que é a nuance real da cor.

Se você observar os resultados dessa métrica , poderá ver que as câmeras com maior pontuação possuem 16 bits por pixel, seguidas por aquelas com 14 bits por pixel. As caras digitais de médio formato caras obtêm pontuações no DxOMark de 24 a 26 ou mais, seguidas pelas melhores SLRs com uma faixa de 23 a 25. Em seguida, as câmeras com 12 bits / pixels são as próximas - acho que a primeira é de 22 pontos.

Mas observe que o DxOMark descreve uma diferença de 1 nessa pontuação como "quase imperceptível". Isso se você mal perceber com muito cuidado. Para a maioria das pessoas, diferenças muito maiores na pontuação também não são visíveis nos resultados do mundo real.

O impacto no mundo real e a percepção final são uma das razões pelas quais não é um grande negócio. Mas tem mais! Se você for mais adiante na lista, encontrará câmeras mais antigas com profundidade de 14 bits e pontuações mais baixas do que as câmeras de 12 bits mais recentes. Portanto, esse número por si só também não conta toda a história técnica. A tecnologia mais recente de sensores e processamento melhora os resultados reais de outras maneiras. Se você está comparando as gerações atuais, maior profundidade é melhor, mas não assuma que é tudo.

Quanto a saber se isso oferece mais espaço nas sombras ou nos destaques: não é realmente que os bits sejam adicionados em cada extremidade - em vez disso, há apenas mais gradação. Imagine que um jornal dê filmes de uma a quatro estrelas, enquanto outro usa uma escala de 1 a 10. Um "10" do segundo jornal não é necessariamente muito melhor do que uma crítica de quatro estrelas do primeiro, mas os "bits" adicionais permitem mais nuances. Essa é a mesma ideia.

Esses sensores ainda sofrem com o corte severo de realces , portanto, como sempre com o digital, é melhor expor para que eles sejam retidos e extraiam detalhes da sombra: e sim, uma melhor profundidade ajudará isso até certo ponto, se você quiser processo para iluminar áreas escuras, uma vez que (em teoria) haverá mais nuances para se esticar.

Uma coisa importante a perceber é que os 12 ou 14 bits do sensor, enquanto os JPEGs, usam uma curva gama que se ajusta à percepção humana. Essa não é apenas uma maneira de o JPEG compactar dados - é necessário aplicar uma curva para que a imagem pareça correta. Como essa curva "esmaga" os bits, isso é parte da razão pela qual há menos diferença perceptiva do que se poderia esperar. (Mas ter esses dados lineares na forma não curva é parte do que dá flexibilidade ao RAW: é fácil escolher uma curva diferente.)

Meu argumento geral, porém, é que eu não examinaria o número subjacente para tomar uma decisão entre duas câmeras. Em vez disso, observe os resultados finais.


Outra referência externa, apresentando o mesmo ponto de vista, da seção do site da Sociedade Americana de Fotógrafos de Mídia "Melhores práticas e fluxo de trabalho de fotografia digital" , sobre sensores :

No momento da redação deste documento [ nb 2009 ou anterior ], nenhuma câmera DSLR de 35 mm com capacidade de captura de 14 bits mostra claramente uma vantagem de qualidade de imagem em relação à captura de 12 bits .

Alguns fabricantes de sensores de médio formato reivindicam uma vantagem com a captura de 16 bits. No entanto, nunca vimos um estudo (que não seja o fabricante) que mostra uma profundidade de bits mais alta se traduz em uma qualidade de imagem mais alta baseada apenas na captura de 16 bits. Em geral, a diferença entre a captura de 14 e 16 bits não seria visível (de qualquer maneira para os seres humanos), a menos que uma curva de tom severamente íngreme fosse aplicada à imagem (da ordem de 6 a 7 paradas).

(Ênfase adicionada. Graças a uma resposta anterior de Aaron Hockley pelo ponteiro.)


Ótima resposta! Eu acho que você pode querer levar em consideração o modo como os bits são divididos entre destaques, tons médios e sombras. Você mencionou que "não é que os bits sejam adicionados em cada extremidade, mas há apenas mais espaço para gradação". Para meu entendimento, os níveis são alocados de modo que os realces fiquem mais, seguidos de tons médios, seguidos de sombras e depois escuridão. Aumentar a profundidade de bits de 12 (4096 níveis) para 14 (16384 níveis) DEVE ter um impacto nos destaques ... e um significativo na rolagem do realce quando eles atingem o pico. Você tem um adicional de 12.288 níveis discretos de luminância além de 12 bits.
jrista

Supondo uma distribuição binária de níveis nos destaques, luzes, tons médios, sombras e sombras superiores em 12 bits: 2048, 1024, 512, 256, 256. Para 14 bits: 8192, 4096, 2048, 1024, 1024. ( Um pouco artificial, mas demonstra o ponto.) Essa diferença deve ser visível nos destaques, principalmente no RAW (a maioria das ferramentas brutas aplica uma curva de tom quando são importadas) e resulta em uma queda mais suave e mais recuperável antes que os destaques explodam.
jrista

1
@ jrista - vire esse pensamento de cabeça para baixo. O problema do destaque destacado é uma parada inevitável, relacionada à capacidade total dos poços fotográficos. Maior profundidade de bits não significa poços maiores; é que os poços são amostrados mais finamente. Como os dados mais claros já têm mais bits, adicionar mais amostras não custa tanto quanto adicionar mais às áreas escuras mais pouco representadas.
Por favor, leia Profile

No seu exemplo, ir de 2048 a 8192 é 4 ×, e 256 a 1024. Mas o nível superior já tinha milhares de níveis de nuance. Considere ainda mais abaixo, onde é possível passar de 16 níveis possíveis de cores escuras para 64 - é uma mudança muito mais significativa do que de 4096 para 16384, embora a última seja claramente mais.
Por favor, leia Profile

1
Eu sei que os destaques soprados são um problema difícil, no entanto, acho que quando você tem mais níveis para atenuar, isso é MENOS de um problema. Concordo plenamente com você que ter mais bits nas sombras limita a necessidade de se preocupar com a contagem de fótons.
jrista

12

Mais bits geralmente não significa mais alcance, mas mais precisão. Ou seja, as extremidades das escalas, os pretos mais pretos e os brancos mais brancos, permanecerão onde estão (em 0 e no valor máximo), mas o número de valores entre eles será maior com mais bits.

Aqui você rapidamente obtém retornos decrescentes, pois simplesmente não há necessidade de tanta precisão, e o sensor da câmera nem sempre é capaz de resolver essa precisão.


Sim. :) Essa é uma maneira muito mais sucinta de dizer a mesma coisa que a minha resposta. +1 e seja bem-vindo ao Stack Exchange!
Por favor, leia Profile

4

Eu acho que há alguma confusão relacionada às diferenças entre os RAW de 12 e 14 bits quando se trata de seu impacto na faixa dinâmica.

Meu entendimento é que o RAW de 14 bits não expande a faixa dinâmica. Não expande nem os destaques nem as sombras. Ele fornece informações mais graduais entre os detalhes mais escuros e mais brilhantes que o sensor pode capturar (é como se você tivesse 4 vezes mais tons de cinza). Tenho certeza de que não notaria nenhuma diferença entre imagens brutas de 12 ou 14 bits capturadas pelo mesmo sensor.

Apenas por diversão, dê uma olhada neste Teste de QI em cores , tenho certeza de que ele tem uma gradualidade menor que 12 bits.


1
Este teste de acuidade de cores é ótimo! Mais uma vez, provou meu ponto de vista sobre a importância de um bom monitor. Eu tenho um ótimo Dell U2410 conectado a um laptop HP com uma tela brilhante média (cores verdadeiras ou o que eles chamam de tecnologia horrível). Meu navegador está aberto na área de trabalho do laptop e eu fiz esse teste naquele monitor. Aos 40 anos, obtive 12 pontos, o que não é nada ruim. Então decidi fazê-lo novamente, desta vez no monitor da Dell. Minha pontuação com um bom monitor agora é um prefeito 0!
ysap

De qualquer forma, ter níveis de cor mais intermediários é definitivamente parte da definição de uma faixa dinâmica. Basicamente, é a razão entre o valor máximo e a unidade mínima mensurável.
precisa

... mais uma coisa - você visualiza esse teste de cores em seu monitor, que provavelmente é de 10 bits na melhor das hipóteses, com o seu navegador provavelmente incapaz de renderizar mais de 8 ou 10 bits, então sim, o teste é menor que 12 bits.
precisa

Não tenho certeza de que seja mais do que tangencialmente relevante para a pergunta, mas esse teste é tão interessante que, em qualquer caso, recebe +1 de mim. :)
Por favor, leia Profile
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.