Várias das operações que você está descrevendo manipulam os dados na imagem para que as informações sejam perdidas ou transformadas. Na maioria das vezes, acho que isso não importa com a fotografia tradicional (isto é, impressões e afins), mas definitivamente importa quando cada pixel é considerado uma medida do número de fótons.
O que penso quando faço operações é a propagação de erros. O erro pode existir no nível de pixel único, no nível espacial e no nível de cor.
O ruído é um erro do sensor de pixel único durante o processo de detecção, introduzido por fótons errantes, efeitos quânticos (converter um fóton em elétron para contagem é um evento probabilístico no nível quântico) e analógico para conversão digital. Se operações subseqüentes fizerem coisas como esticar o contraste (equalização do histograma) ou enfatizar regiões mais escuras (luz de preenchimento), convém reduzir o ruído antes de fazer isso.
Para um exemplo completamente reduzido do que quero dizer, tire uma imagem de campo escuro (foto com a tampa da lente). O resultado é barulho. Você pode contrastar para melhorar isso, ou o que quiser, mas ainda é ruído. Um algoritmo perfeito de redução de ruído deve remover tudo, para que nenhum contraste seja encontrado para melhorar nas etapas posteriores.
O erro espacial pode ser introduzido de várias maneiras. Ao girar uma imagem, você introduz erros espaciais. Se você pensa que existe uma imagem 'verdadeira' (no sentido ideal platônico), a câmera grava uma versão digital disso. Mesmo quando você usa filme - os grãos / cristais do filme são de tamanho finito e algumas amostras da imagem 'verdadeira' acontecerão. Ao girar uma imagem digital, você introduz efeitos de alias. As arestas mais nítidas ficarão um pouco embotadas (a menos que você gire para 90 graus, nesse caso a amostragem da grade ainda se mantém). Para entender o que quero dizer, tire uma imagem e gire-a em incrementos de 1 grau. A borda afiada ficará agora (ligeiramente) embaçada por causa da amostragem necessária para fazer pequenas rotações.
A amostragem da Bayer pode ser apenas um erro de amostragem espacial com o qual temos que conviver. É um dos grandes atrativos (talvez o único atrativo real) para o sensor Foveon. Cada pixel mede a cor nesse local, em vez de obter as outras cores dos pixels vizinhos. Eu tenho um dp2, e devo dizer, as cores são bastante impressionantes em comparação com o meu d300. A usabilidade, nem tanto.
Os artefatos de compactação são outro exemplo de erro espacial. Comprima uma imagem várias vezes (abra um jpg, salve-o em um local diferente, feche, reabra, enxágue, repita) e você verá o que quero dizer aqui, especialmente com 75% de compressão.
Erros de espaço de cores são introduzidos quando você passa de um espaço de cores para o próximo. Se você pegar um png (sem perdas) e movê-lo de um espaço de cores para outro, salve-o. Depois, volte para o espaço de cores original, e verá algumas diferenças sutis em que as cores de um espaço não foram mapeadas para o outro.
Quando estou processando fotos, meu pedido geralmente é o seguinte:
- redução de ruído
- aprimoramento de contraste, exposições, etc.
- rotações
- espaço colorido
- compressão final na imagem de saída.
E eu sempre salvo o cru.