Qual é o espectro mais amplo que uma única câmera poderia processar? [fechadas]


0

eu vi essa questão , que era muito amplo, e eu pensei em uma pergunta mais específica que poderia ser respondida.

Há câmeras "normais" (espectro de luz visível), câmeras infravermelhas e câmeras UV, e também há especializados Câmeras VNIR que capturam o espectro visível mais alguns dos raios infravermelhos próximos. Pelo que entendi, a aplicação típica de câmeras VNIR usa filtros para mudança as freqüências NIR no espectro visível, a serem capturadas pelos sensores vermelho, verde e azul, produzindo imagens de cores falsas que são essencialmente um composto da informação de cor NIR e do visível.

Mas e se, em vez de nos preocuparmos com a capacidade de comprimir o espectro de freqüências no espectro visível para a visão humana, projetamos a câmera com o objetivo de registrar a maior variedade possível de freqüências (por exemplo, inventar um novo formato de imagem com mais de 3 canais por pixel - digamos, R, G, B, IR-A, IR-B, IR-C, UV-A, UV-B, UV-C, projetando uma matriz de sensores de subpixels sensíveis para esses canais, etc.)? Aceitando que teríamos que melhorar substancialmente a fabricação do conjunto de sensores para obter a mesma resolução que uma matriz RGB comum, vamos priorizar a minimização da aberração cromática em vez de maximizar os detalhes.

Até onde podemos estender a faixa de freqüência de uma única câmera? Se toda a luz (ou radiação eletromagnética) que capturamos ainda tiver que passar pela mesma abertura e lente (s) ao mesmo tempo, poderíamos obter todos os espectros de infravermelho, visível e UV de uma só vez? Poderíamos ir além disso? Quais fatores impõem as mais difíceis limitações em tal empreendimento? Se possível, por favor, diferencie entre algo que é definitivamente, completamente impossível, contra apenas proibitivamente caro.


1
Assumindo que poderíamos fazer isso, como você saberia se capturasse os resultados sem convertê-los em algum tipo de alternativa de cores falsas? Até mesmo coisas como o Hubble e o Chandra precisam converter a informação em algo que um humano possa interpretar.
grfrazee

1
Esta é uma duplicata de uma questão (fechada) em algum lugar da física. TL: DR: é uma questão sem sentido, já que vários métodos podem capturar quase qualquer comprimento de onda.
Carl Witthoft

BTW, você está completamente errado que as câmeras IR "mudam" os comprimentos de onda. Isso é feito quando a exibição de saída é criada, atribuindo várias cores visíveis às intensidades do sinal registradas para várias bandas IR.
Carl Witthoft

Respostas:


2

Um cru matriz de microbolômetro 1 é completamente insensível ao comprimento de onda (energia por fóton) da radiação de entrada - ela simplesmente mede o aumento de temperatura que é devido à energia total de entrada. Nós geralmente os usamos apenas para IR de ondas longas, porque eles são a melhor tecnologia para fazer isso, e nós temos tecnologias melhores para comprimentos de onda menores de qualquer maneira.

Mas você poderia criar um sensor que tivesse vários bolômetros por pixel, cada um olhando através de um filtro adequado para uma faixa de comprimentos de onda.

1 Observe que câmeras completas têm intencionalmente limitado a resposta a comprimentos de onda curtos por causa dos materiais usados ​​nas lentes.


Não, eles não. A resposta a ondas curtas é devido ao QE limitado da camada de detecção ou para fazer com que a imagem de saída corresponda mais de acordo com a resposta dos nossos olhos.
Carl Witthoft
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.