eu vi essa questão , que era muito amplo, e eu pensei em uma pergunta mais específica que poderia ser respondida.
Há câmeras "normais" (espectro de luz visível), câmeras infravermelhas e câmeras UV, e também há especializados Câmeras VNIR que capturam o espectro visível mais alguns dos raios infravermelhos próximos. Pelo que entendi, a aplicação típica de câmeras VNIR usa filtros para mudança as freqüências NIR no espectro visível, a serem capturadas pelos sensores vermelho, verde e azul, produzindo imagens de cores falsas que são essencialmente um composto da informação de cor NIR e do visível.
Mas e se, em vez de nos preocuparmos com a capacidade de comprimir o espectro de freqüências no espectro visível para a visão humana, projetamos a câmera com o objetivo de registrar a maior variedade possível de freqüências (por exemplo, inventar um novo formato de imagem com mais de 3 canais por pixel - digamos, R, G, B, IR-A, IR-B, IR-C, UV-A, UV-B, UV-C, projetando uma matriz de sensores de subpixels sensíveis para esses canais, etc.)? Aceitando que teríamos que melhorar substancialmente a fabricação do conjunto de sensores para obter a mesma resolução que uma matriz RGB comum, vamos priorizar a minimização da aberração cromática em vez de maximizar os detalhes.
Até onde podemos estender a faixa de freqüência de uma única câmera? Se toda a luz (ou radiação eletromagnética) que capturamos ainda tiver que passar pela mesma abertura e lente (s) ao mesmo tempo, poderíamos obter todos os espectros de infravermelho, visível e UV de uma só vez? Poderíamos ir além disso? Quais fatores impõem as mais difíceis limitações em tal empreendimento? Se possível, por favor, diferencie entre algo que é definitivamente, completamente impossível, contra apenas proibitivamente caro.