Varias de las operaciones que está describiendo manipulan los datos en la imagen de modo que la información se pierde o se transforma. En su mayor parte, no creo que esto importe con la fotografía tradicional (es decir, impresiones y similares), pero definitivamente importa cuando cada píxel se considera una medida del número de fotones.
Lo que pienso cuando hago operaciones es la propagación del error. El error puede existir en el nivel de un solo píxel, el nivel espacial y el nivel de color.
El ruido es un error del sensor de un solo píxel durante el proceso de detección, introducido por fotones errantes, efectos cuánticos (traducir un fotón en un electrón para contar es un evento probabilístico en el nivel cuántico) y conversión de analógico a digital. Si las operaciones posteriores harán cosas como el contraste de estiramiento (ecualización de histograma) o enfatizan regiones más oscuras (luz de relleno), entonces querrá reducir el ruido antes de hacer eso.
Para un ejemplo completamente reducido de lo que quiero decir, tome una imagen de campo oscuro (imagen con la tapa del objetivo puesta). El resultado es ruido. Puede mejorar el contraste, o lo que quiera, pero sigue siendo ruido. Un algoritmo perfecto de reducción de ruido debería eliminarlo todo, por lo que no se puede encontrar contraste para mejorar en los pasos posteriores.
El error espacial se puede introducir de varias maneras. Cuando gira una imagen, introduce errores espaciales. Si piensa que hay una imagen 'verdadera' (en el sentido ideal platónico), la cámara graba una versión digital de eso. Incluso cuando usa película: los granos / cristales de película son de tamaño finito, y se producirá un muestreo de la imagen 'verdadera'. Cuando gira una imagen digital, introduce efectos de alias. Los bordes más afilados se opacarán ligeramente (a menos que gire a 90 grados, en cuyo caso el muestreo de cuadrícula aún se mantiene). Para ver a qué me refiero, tome una imagen y gírela en incrementos de 1 grado. El borde afilado ahora estará (ligeramente) borroso debido al muestreo necesario para hacer pequeñas rotaciones.
El muestreo de Bayer puede ser solo un error de muestreo espacial con el que tenemos que vivir. Es uno de los grandes atractivos (quizás el único atractivo real) del sensor Foveon. Cada píxel mide el color en esa ubicación, en lugar de obtener los otros colores de los píxeles vecinos. Tengo un dp2, y debo decir que los colores son bastante impresionantes en comparación con mi d300. La usabilidad, no tanto.
Los artefactos de compresión son otro ejemplo de error espacial. Comprima una imagen varias veces (abra un jpg, guárdelo en una ubicación diferente, cierre, vuelva a abrir, enjuague, repita) y verá lo que quiero decir aquí, especialmente con una compresión del 75%.
Los errores de espacio de color se introducen cuando se mueve de un espacio de color al siguiente. Si toma un png (sin pérdidas) y lo mueve de un espacio de color a otro, guárdelo. Luego, regrese al espacio de color original, verá algunas diferencias sutiles donde los colores en un espacio no se asignaron al otro.
Cuando estoy procesando fotos, entonces, mi pedido generalmente es este:
- reducción de ruido
- mejora de contraste, exposiciones, etc.
- rotaciones
- espacio de color
- Compresión final a la imagen de salida.
Y siempre guardo lo crudo.