Por que as câmeras usam uma única exposição, em vez de se integrar em muitas leituras muito rápidas?


24

Eu nunca entendi por que as câmeras precisam de um obturador com uma velocidade específica e por que isso não pode ser ajustado no pós-processamento. Penso que o sensor atual funciona de maneira integral: economiza a quantidade de luz que chega a eles durante todo o tempo em que o obturador está aberto. Mas por que eles não podem trabalhar de maneira diferencial?

Na minha opinião, tenho esta ideia: defina a velocidade do obturador para que fique aberta por um longo tempo, mais do que o necessário ... por exemplo, durante o dia, defina-a como 1 segundo, pressione o botão, o obturador se abre e o sensor inicia para gravar, mas de uma maneira diferencial: economizaria a quantidade de luz que chegasse a cada 0,001 segundo por 1 segundo. Dessa forma, tenho mais informações, na verdade tenho 1000 quadros gravados em 1 segundo e no pós-processamento posso optar por integrar apenas os dez primeiros, para simular um disparo com 0,01 segundo, ou os primeiros cem, para simular um disparo com 0,1 segunda exposição

Usando um processamento sofisticado ou selecionando áreas manualmente, eu poderia até decidir usar uma exposição diferente para diferentes partes da imagem final, por exemplo, uma exposição de 0,1 segundo para o solo e 0,03 para o céu, usando 100 quadros para o céu e 30 quadros para o céu.

Isso faz sentido? Por que as câmeras não funcionam dessa maneira?



Eu sinalizei isso como duplicado na primeira leitura, mas não é, pelo menos não a questão que vinculei, que faz suposições diferentes (e incorretas).
mattdm

11
Você já viu câmeras de vídeo digitais de alta velocidade?
Cascabel

Com relação à sua edição ... como a câmera diria o que é terra versus céu e o que dizer de pessoas que estão no chão cobrindo parte do céu e se movendo dentro do seu quadro? Isso exigiria processamento muito além de um design de sensor diferente.
Itai 23/01

11
Acho que você nunca tentou obter efeitos específicos causados ​​por combinações específicas de velocidade do obturador, iluminação e abertura. E você também nunca precisou lidar com a necessidade de exposição muito rápida para capturar objetos em movimento.
jwenting

Respostas:


16

O problema é a velocidade da leitura. Você não pode ler o sensor inteiro rápido o suficiente para que isso funcione no caso geral. Mesmo se você pudesse. também haveria um efeito prejudicial na qualidade da imagem, pois você aplicaria ruídos de leitura repetidas vezes.

Pelo menos com sensores CMOS, você pode ler em locais aleatórios, mas com sensores CCD, cada linha é deslocada para a próxima para realizar a leitura. É por isso que, quando as luzes são muito brilhantes, você obtém listras verticais na visualização das câmeras usando CCDs.

Depois, há razões pelas quais os fotógrafos escolhem a velocidade do obturador : congelar uma fatia de tempo. As pessoas quase sempre ficam desfocadas se você não parar o obturador rápido o suficiente.


qual é a velocidade atual de leitura? 1 s, 0,1 s, ...? Como as câmeras normais são capazes de gravar vídeos de 25fps, eu diria ~ 0,04s. Parece muito lento para fotos normais.
Ruggero Turra

8
@wiso As câmeras normais são capazes de gravar vídeos a 25fps subamostrando o sensor. A melhor leitura-> velocidade do processo para todo o sensor é a Canon 1DX de 18 MP, que pode fazer 1/14s em JPEG e 1 / 12s RAW.
precisa saber é o seguinte

Há também razões artísticas para deixar o obturador aberto por um longo tempo, como a água amolecer, borrão o movimento de um jogador de beisebol em execução para uma base, etc.
jrista

@ jrista: você pode obter o mesmo efeito sobrepondo muitos quadros rápidos.
Ruggero Turra

2
@wiso: Não, você não pode sobrepor quadros rápidos que congelam completamente o movimento para criar a aparente sensação de movimento. Se tomarmos uma cachoeira como exemplo, congelar o movimento da cachoeira em alta velocidade captura muitos detalhes. A sobreposição de várias imagens pode aumentar a quantidade de "ruído de detalhes" na própria cachoeira, mas você nunca poderá criar esse efeito suave de água que flui ... você precisa explicitamente que o obturador esteja aberto por mais tempo para conseguir aquele. O jogador de beisebol seria semelhante. Sobrepondo vários tiros não vai, por isso, especialmente se você quiser ...
jrista

10

Eu acho que eles poderiam funcionar dessa maneira, mas há dois grandes problemas:

  1. Como os sensores funcionam agora, o ruído de leitura acontece apenas uma vez. Com muitas leituras muito curtas, o ruído de leitura seria agravado.
  2. Há apenas mais dados do que podemos manipular. Isso é um problema para realmente ler o sensor (muitos dados para ler) e os arquivos RAW resultantes seriam ordens de magnitude maiores do que são hoje.

Na sua pergunta original, você usou 1/3 de segundo como exemplo. Na verdade, essa não é uma velocidade do obturador muito longa e já é 10 × onde estamos com as câmeras atuais. Para que isso seja realmente significativo, precisamos da tecnologia ao ponto em que o sensor seja lido 10 a 100 vezes mais rápido do que isso - o que agrava significativamente os problemas.

O segundo problema será resolvido pela lei de Moore em uma década ou duas, e o primeiro também pode ser, à medida que a eletrônica se torna menor e mais precisa. No momento, não é prático.

A Olympus OM-D E-M5, na verdade, possui um recurso em que mostra a exposição "se desenvolvendo" em exposições longas, mas evita os problemas acima exigindo um mínimo de meio segundo entre as leituras: é útil apenas para exposições longas.

Porém, no futuro, com melhores componentes eletrônicos, todas as câmeras provavelmente funcionarão dessa maneira e, com muito mais armazenamento disponível, elas também poderão gravar continuamente. O botão "obturador" serviria simplesmente para marcar uma parte do fluxo como interessante, para desenvolvimento posterior. E enquanto estamos nisso, abaixe a lente e faça desta uma câmera de campo luminoso de 360º; o enquadramento, a abertura e o foco também podem ser selecionados após o fato, lançando a sabedoria convencional sobre os fundamentos da câmera completamente pela janela


Fora de formatação, eu realmente não posso distingui-lo responder e meu :)
Itai

Como um pensamento interessante (para mim): você só precisaria armazenar a diferença entre os quadros sucessivos, para que a quantidade de dados não fosse necessariamente muito maior do que um único quadro. O tempo de processamento pode ser um problema com a tecnologia atual.
BobT

@BobT Nem mesmo ... você só precisa de um acumulador de profundidade de bits altos ou mesmo de ponto flutuante. Você lê o incremento e o adiciona. Você só precisa de uma imagem no final, não de um vídeo! As imagens HDR costumam ser de ponto flutuante de 32 bits e isso é suficiente para praticamente qualquer uso prático.
Itai 23/01

@ Itai: sim, eu notei a sua quando eu estava escrevendo e imaginei, eh, eu vou terminar de qualquer maneira.
mattdm

@ BobT: você ainda teria que lê-lo, e, dado o ruído (não apenas o ruído de leitura), não tenho certeza de quanto a compressão compraria. Mas com certeza, vamos fazer isso na câmera teórica, especialmente porque para a maioria de uso que fazem deseja salvar o máximo possível.
mattdm

4

Como muitas pessoas mencionaram, há o aspecto da velocidade de leitura disso. O circuito de imagem não pode simplesmente "adquirir" os valores de pixel do sensor instantaneamente, eles devem ser lidos linha por linha.

Então, você também precisa pensar sobre onde esses valores de atualização de pixel vão. Mesmo com alguma compactação, assumindo baixa entropia de quadros posteriores em relação aos quadros anteriores, eles ocuparão uma quantidade considerável de espaço. E também, dados que não são muito compressíveis retardarão todo o processo - como a compressibilidade de um novo quadro em relação ao antigo não pode ser garantida, o sistema ainda precisará ter largura de banda suficiente para cobrir o pior cenário sem degradar.

Finalmente (e isso é um tanto brega), o efeito da desigualdade de Heisenberg, ou princípio da incerteza, precisa ser considerado. Em todas as amostras, temos um nível de incerteza sobre a medição. Ao coletar muitas amostras (cada uma com a qual aparentemente temos pouca confiança, caso contrário, poderíamos selecionar apenas um quadro de cerca de mil), estamos obtendo incerteza em cada um desses quadros, em vez de apenas uma vez. Isso seria combinado ao combinar vários quadros, e agora a incerteza máxima é multiplicada pelo número de quadros com os quais você está compondo a imagem final. Na pior das hipóteses, isso pode degradar as imagens consideravelmente.


11
Caro usuário1207217, Sou físico de partículas, deixe-me dizer que a desigualdade de Heisenberg realmente não se encaixa nesse caso. Como a soma de muitos quadros é linear e, uma vez que não estão correlacionados, o ruído que você obtém ao integrar muitos quadros é exatamente o mesmo daquele que usa uma única foto equivalente.
Ruggero Turra

Incerteza de medição = \ = ruído. Estou ciente do efeito da média de ruído tende à média do ruído. No caso de 0 ruído médio, este é simplesmente 0
user1207217

@ wiso eu acrescentaria, o princípio da incerteza é muito aplicável aqui. Assim como é aplicável à resolução de tempo-frequência, também é aplicável à resolução de espaço-tempo (que é o que temos neste caso). Atualmente, podemos não estar próximos dos limites da tecnologia atual, mas a troca certamente existirá e se tornará um fator limitante nesse tipo de processo de geração de imagens.
usar o seguinte comando

2

Embora sua ideia seja intrigante, há vários motivos para não funcionar.

Tamanho do arquivo: pense no tamanho do arquivo de imagem resultante. Minha SLR de 8mp fornece arquivos com cerca de 3 MB de tamanho. Se estivesse tirando 100 imagens toda vez que o botão do obturador fosse pressionado, eu teria 300mb no cartão. Um cartão seria preenchido muito rápido. Além disso, esses são apenas números para minha câmera, que possui uma resolução relativamente baixa. Para câmeras profissionais, o tamanho pode facilmente dobrar ou triplicar isso. No Raw, o tamanho pode aumentar mais três vezes. No final, eu tiro pro Raw poderia acabar com mais de 3 GB por tiro.

Exposição: Às vezes, a câmera precisa expor por mais de 1/100 segundos. para obter a quantidade adequada de luz. Se você fotografar com pouca luz, as imagens resultantes serão subexpostas e potencialmente inutilizáveis. Você não pode simplesmente combinar imagens para compensar isso, pois não consegue encontrar dados que não existem.

Ruído: À medida que os sensores aquecem, eles exibem um fenômeno conhecido como ruído. Essa é a mancha de pixels coloridos aleatoriamente aparentes em algumas fotos. Se o sensor estivesse constantemente trabalhando por um segundo de cada vez, os níveis de ruído aumentariam rapidamente, levando potencialmente a imagens inutilizáveis.

Velocidade de gravação do cartão: Os cartões de memória são limitados em quão rápido eles podem adicionar informações. Isso é conhecido como velocidade de gravação. Para lidar com arquivos desse tamanho, os cartões precisariam de uma velocidade de gravação rápida. Esses cartões podem ser extremamente caros.

Então, para recapitular, essa é uma ideia interessante, mas com várias grandes dificuldades em seu caminho.

Espero que isso tenha ajudado.


Exceto pelo ruído de leitura, você pode criar uma exposição mais longa adicionando vários quadros rápidos. De fato, isso geralmente é feito , mas não geralmente para exposições individuais tão curtas que se aplicam a fotografias "normais", e geralmente não na câmera (embora as DSLRs da Pentax possam fazê-lo de maneira limitada).
mattdm

11
Para construir sobre o que mattdm disse: Você pode combinar teoricamente exposições, os dados estão lá. O problema é que, para exposições muito curtas, com sensores reais, os dados são mascarados por uma enorme quantidade de ruído em relação ao sinal, e a imagem resultante será muito meh. Sensores melhores com um SNR mais adequado nos curtos tempos de exposição tornariam viável o conceito no OP.
Whatsisname

Acho que o tamanho do arquivo não é um grande problema; em minha opinião, você pode optar por fotografar no modo integral ou no modo diferencial. O timelapse precisa de muita memória, isso não significa que as pessoas não estejam fazendo isso. Para a Exposição , acho que você está errado, como o mattdm disse e acho que o ruído é o mesmo no caso de você fazer apenas uma sessão ou somar mais sessões, a única diferença é que você abre e fecha o obturador. Ao somar quadros diferentes, você soma o sinal e o ruído. Penso que a prova é que a soma de duas variáveis ​​aleatórias poissonianas independentes ainda é uma distribuição poissoniana.
Ruggero Turra

A quantidade de ruído será aproximadamente a mesma para uma exposição longa ou curta, que para a exposição múltipla será integrada novamente, resultando em um resultado final ruim e barulhento.
Whatsisname

11
@ wiso: o ruído relacionado à temperatura é apenas uma fonte de ruído. O fator significativo de ruído para câmeras digitais comuns é a leitura do sensor e a amplificação do sinal, que não dependem da velocidade do obturador.
whatsisname 23/01

2

Pode-se notar que, desde que essa pergunta foi feita, essa ideia foi implementada em (pelo menos alguns) smartphones.

Como os limites tecnológicos não melhoraram muito, é claro que estão restritos a exposições muito longas com pouca luz (por exemplo, astrofotografia). O fato de o software acumular várias exposições de n segundos é visível se houver movimento no quadro (eles terão algumas descontinuidades na leitura).

O empilhamento pode até ser visualizado em tempo real na tela, pois a imagem do 'resultado' parece cada vez mais clara.


1

Existem câmeras que funcionam basicamente dessa maneira. Procure câmeras HDR (High Dynamic Range). Os mais baratos funcionam agrupando a exposição, basicamente tirando duas ou quatro exposições diferentes e combinando-as em seu software interno em uma imagem unificada. Na verdade, você pode fazer isso com qualquer câmera, usando software externo .

Meu entendimento de como as câmeras HDR de última geração funcionam é que elas basicamente calculam dinamicamente um tempo de exposição automática separado para cada pixel individual e o usam para determinar o brilho real da cena. Isso resolve o problema de ter toneladas e toneladas de dados para cada pixel. Você basicamente armazena o tempo de exposição e os valores de cor quando ele ultrapassa um certo limite de brilho. Obviamente, isso requer um hardware e software muito mais complexo para acertar.


interessante, encontrei apenas esta câmera de vigilância usando uma dupla exposição: video.boschsecurity.com/video/Introducing-the-new-HDR-camera/… , você conhece um modelo específico?
Ruggero Turra

O HDR não é realmente o mesmo que o OP está perguntando, porque o HDR é seletivo na maneira como combina as informações, em oposição a uma integração direta. Uma câmera como o OP está descrevendo seria essencialmente um dispositivo que mede 2D o fluxo radiante da cena, uma medição de taxa e uma fotografia a partir dela seria uma integração de um conjunto de dados, uma exibição de quantidade.
whatsisname 24/01

0

Existem alguns tipos diferentes de persianas, mas as principais são persianas mecânicas e eletrônicas (o sensor é ligado / desligado).

A maioria das DSLRs usa o obturador do plano focal enquanto as câmeras de vídeo usam obturadores eletrônicos. Portanto, embora pareça o que você deseja fazer para integrá-los, há outras maneiras de conseguir isso.

A principal razão para o obturador é a exposição, um princípio fundamental da fotografia.

Você provavelmente poderia configurar algo para o seu exemplo. Talvez você queira dar bracketing ou, se isso não for suficiente, amarrar.

0,01 = 1/100 e é a velocidade fina do obturador. A maioria das câmeras suporta velocidades de 1/8000 segundos.

Apenas na sua última parte:

digamos que ele economize a quantidade de luz que chega a cada 0,01 segundo por 1 segundo.

Você ainda precisa pensar na exposição para essa foto, a cada 0,01 segundo.


Eu acho que essa resposta perde a idéia por trás da pergunta. As capturas fracionárias seriam subexpostas, geralmente muito. Você escolheria o nível de exposição desejado para uma imagem final decidindo quantos quadros integrar.
mattdm

A "idéia" por trás da pergunta sobre abrir um obturador mecânico por 1 segundo e usar o obturador eletrônico é exposta 100 vezes nesse período? 1/100 não significa necessariamente subexposição, depende da iluminação. E sim, esse é exatamente o meu ponto! Você teria que pensar em quadros por segundo. E geralmente, você deseja colocar em camadas imagens expostas de maneira diferente, não iguais. Pergunta: Por que preciso de um obturador. Resposta: Exposição.
BBking

Também estou acrescentando que o OP está falando sobre a velocidade do obturador e está sugerindo um resultado de 1/10 segundo. No entanto, isso pode ser feito com um obturador eletrônico que ainda precisaria de uma velocidade do obturador . Sinto que o OP está perguntando sobre o obturador real, em vez de simplesmente a velocidade do obturador.
BBking 23/01

@ BBKing: meus números foram apenas um exemplo, provavelmente você deve usar a velocidade mais rápida possível. Cada quadro deve ter subexposição para poder obter a exposição correta somando quadros diferentes. Provavelmente tenho que mudar o título da minha pergunta de "por que preciso da velocidade do obturador?" para "por que preciso da velocidade do obturador mecânico".
Ruggero Turra

Claro, eu sei que eles eram apenas exemplos. O problema que tenho com a pergunta é que "Por que preciso de um obturador (mecânico)" e "Por que preciso de uma velocidade do obturador " (independentemente de mecânica ou eletrônica) são questões muito diferentes. Se você pretende provar diferentes áreas do sensor em momentos diferentes, é uma ideia interessante! E eu acredito que é factível (enquanto as outras respostas argumentam por que não é). Quanto ao porquê? Ninguém o desenvolveu ainda, só isso. Você pode estar interessado em uma câmera Lytro . Você pode escolher diferentes pontos de foco no pós-processamento.
BBking 23/01

-1

Além dos pontos que todos os outros fizeram - o que acontecerá com a exposição?

por exemplo, com a minha câmera convencional, é necessária uma exposição de 1 segundo para uma determinada foto. Essencialmente, isso significa 1 segundo de luz gravada pelo sensor de uma só vez.

Ok, vamos à sugestão que você fez, a câmera grava 0,001 segundos de luz 1000 vezes. Todas essas imagens são subexpostas e, portanto, inúteis. Se as empilhar, não recebo a mesma imagem da minha câmera convencional porque o empilhamento não corrige a subexposição. Para obter algo próximo da exposição correta, eu precisaria de uma abertura muito ampla, que (mesmo que você pudesse encontrar uma lente adequada) teria outros problemas - profundidade de campo etc. luz em 0,001 segundo para que a imagem não fique subexposta, teremos um problema grave com ruído. A idéia que você menciona de incluir / excluir quadros para obter uma exposição diferente já é tratada em PP com o controle deslizante de exposição.

Você pode experimentar sua idéia tirando fotos com um obturador curto (como você sugere) e depois empilhando-as no software HDR ou no software startrail.

O material de pós-processamento que você mencionou sobre tirar o solo e o céu com diferentes exposições para equilibrar a imagem já pode ser retificado em PP com controles de sombra / destaque e / ou tonificação dividida.

Além disso, pense em fotografia de ação, como o automobilismo, em que preciso de um obturador longo durante a panorâmica para dar uma sensação de velocidade e movimento. Se eu disser 200 imagens com um tempo de obturador muito pequeno, não captarei a desfocagem e o efeito da foto não funcionará.


11
"o empilhamento não corrige a subexposição", por que não? A quantidade de luz que entra na câmara em 1000 x 0.001s é a mesma em 1 x 1s
Ruggero Turra

wiso: experimente. Vamos dizer que temos uma foto que precisa de uma exposição de 5 segundos. Faça 5 segundos de exposição, empilhe-as e veja o que você recebe. Você teria que abrir a abertura (o que pode ser impossível ou indesejável).
Mark
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.