¿Cuál es el orden óptimo de los pasos de postprocesamiento?


16

Sé que es mejor hacer el posprocesamiento antes de convertir RAW, pero en los casos en que no es posible, ¿cuál es el orden óptimo de los pasos de postprocesamiento (como eliminación de ruido, eliminación de manchas de polvo, corrección de color, brillo / contraste) corrección, enderezamiento, eliminación de distorsión / aberración, ediciones selectivas, afilado, cambio de tamaño, cambio de espacio de color y profundidad de bits, etc.)?

Cuando digo orden óptimo, me refiero al orden que resultará en la menor cantidad de bandas, recortes, halos y otros artefactos digitales. También me gustaría entender las razones detrás de algunos pedidos particulares. ¿Es diferente para impresiones y salida web?

Respuestas:


13

Varias de las operaciones que está describiendo manipulan los datos en la imagen de modo que la información se pierde o se transforma. En su mayor parte, no creo que esto importe con la fotografía tradicional (es decir, impresiones y similares), pero definitivamente importa cuando cada píxel se considera una medida del número de fotones.

Lo que pienso cuando hago operaciones es la propagación del error. El error puede existir en el nivel de un solo píxel, el nivel espacial y el nivel de color.

El ruido es un error del sensor de un solo píxel durante el proceso de detección, introducido por fotones errantes, efectos cuánticos (traducir un fotón en un electrón para contar es un evento probabilístico en el nivel cuántico) y conversión de analógico a digital. Si las operaciones posteriores harán cosas como el contraste de estiramiento (ecualización de histograma) o enfatizan regiones más oscuras (luz de relleno), entonces querrá reducir el ruido antes de hacer eso.

Para un ejemplo completamente reducido de lo que quiero decir, tome una imagen de campo oscuro (imagen con la tapa del objetivo puesta). El resultado es ruido. Puede mejorar el contraste, o lo que quiera, pero sigue siendo ruido. Un algoritmo perfecto de reducción de ruido debería eliminarlo todo, por lo que no se puede encontrar contraste para mejorar en los pasos posteriores.

El error espacial se puede introducir de varias maneras. Cuando gira una imagen, introduce errores espaciales. Si piensa que hay una imagen 'verdadera' (en el sentido ideal platónico), la cámara graba una versión digital de eso. Incluso cuando usa película: los granos / cristales de película son de tamaño finito, y se producirá un muestreo de la imagen 'verdadera'. Cuando gira una imagen digital, introduce efectos de alias. Los bordes más afilados se opacarán ligeramente (a menos que gire a 90 grados, en cuyo caso el muestreo de cuadrícula aún se mantiene). Para ver a qué me refiero, tome una imagen y gírela en incrementos de 1 grado. El borde afilado ahora estará (ligeramente) borroso debido al muestreo necesario para hacer pequeñas rotaciones.

El muestreo de Bayer puede ser solo un error de muestreo espacial con el que tenemos que vivir. Es uno de los grandes atractivos (quizás el único atractivo real) del sensor Foveon. Cada píxel mide el color en esa ubicación, en lugar de obtener los otros colores de los píxeles vecinos. Tengo un dp2, y debo decir que los colores son bastante impresionantes en comparación con mi d300. La usabilidad, no tanto.

Los artefactos de compresión son otro ejemplo de error espacial. Comprima una imagen varias veces (abra un jpg, guárdelo en una ubicación diferente, cierre, vuelva a abrir, enjuague, repita) y verá lo que quiero decir aquí, especialmente con una compresión del 75%.

Los errores de espacio de color se introducen cuando se mueve de un espacio de color al siguiente. Si toma un png (sin pérdidas) y lo mueve de un espacio de color a otro, guárdelo. Luego, regrese al espacio de color original, verá algunas diferencias sutiles donde los colores en un espacio no se asignaron al otro.

Cuando estoy procesando fotos, entonces, mi pedido generalmente es este:

  • reducción de ruido
  • mejora de contraste, exposiciones, etc.
  • rotaciones
  • espacio de color
  • Compresión final a la imagen de salida.

Y siempre guardo lo crudo.


No cuento fotones, pero de vez en cuando descubro que un paso más abajo hace que mi imagen quede inutilizable. Y esto no se debe a una edición extrema, sino a condiciones de disparo extremas (solo un ejemplo reciente: 2.bp.blogspot.com/_-yoT3Wnz6VY/TGBx0Ju3T1I/AAAAAAAAJPY/… ).
Karel

¿Qué no te gusta de esa imagen? Parece que tiene algunas imágenes en particular en mente, por lo que tal vez buscar la fijación de imágenes individuales podría ser el camino a seguir para tener una idea de cómo hacer un flujo de trabajo general.
mmr

Lamentablemente, no tengo buenos ejemplos, ya que siempre los rehice y nunca guardé las versiones problemáticas. Es algo que se me ha quedado en la cabeza durante mucho tiempo. Según su respuesta, entiendo que es mejor reducir el ruido lo antes posible porque es probable que otras ediciones (como agregar contraste) hagan que el ruido sea aún más distinguible.
Karel

Creo que la propagación del error es lo más importante para mí aquí. Uno debe comenzar por deshacerse de los errores (como el ruido) siempre que sea posible y hacer todos los demás pasos en orden de "menor error introducido".
Karel

5

Como siempre, depende . Preferiblemente usaría un editor no destructivo, Lightroom es un ejemplo. En ese caso, el orden no hace mucha diferencia (¿alguna?).

Por otro lado, si está utilizando un editor que realiza los cambios a medida que avanza, cada cambio es permanente y tendrá una pérdida de calidad.

En esas situaciones, tiendo a hacer los cambios más pequeños primero, y trabajar con cambios más grandes.

Siguiendo esa orden, probablemente diría:

  • espacio de color
  • eliminación de manchas / polvo
  • corrección de color
  • ediciones selectivas
  • enderezar u otras ediciones de imagen amplia
  • redimensionando
  • afilado

Dicho esto, las únicas cosas que me preocupan son los últimos 2, cambiar el tamaño al final, luego, después de cambiar el tamaño, agudizar .


No me refiero a Lightroom o ACR, sino a la edición en Photoshop, por ejemplo.
Karel

1
Photoshop es un editor (en su mayoría) destructivo, por lo que se aplica la segunda sección, sin embargo, hay algunos tipos de ediciones que se pueden hacer de una manera no destructiva (generalmente mediante el uso de capas).
escalofríos42

44
En Photoshop, intente usar capas de ajuste y máscaras de capa cuando pueda. Estos le permiten hacer ajustes comunes de una manera no destructiva. También aprendí recientemente que algunas técnicas de nitidez de calidad (que incluyen capas copiadas, un ligero desenfoque, inversiones y opacidad) se pueden hacer con múltiples capas y mezclas de capas, lo que le permite enfocar su imagen de una manera no destructiva. Photoshop es una herramienta poderosa, y con un poco de cuidado, puede usarla efectivamente como un editor no destructivo.
jrista

1
Sin embargo, tenga en cuenta que los objetos inteligentes de Photoshop permiten una edición un poco más no destructiva y evitará que realice accidentalmente ediciones destructivas por accidente (primero debe convertirlo a una capa normal).
Jerry Coffin

Yo diría que incluso en un editor no destructivo, el orden sigue siendo importante (si las operaciones no son lineales). Dadas dos operaciones, operación A (pixelColor) = pixelColor * scalarA y operación B (pixelColor) = pixelColor + scalarb. Entonces se puede probar A (B (pixelColor))! = B (A (pixelColor)). El software todavía necesita recoger una orden de operación (éter dado por el usuario o predefinido)
FRR

4

Creo que en la práctica son muy, muy pocas operaciones en las que el pedido marca una diferencia particular. Puede haber algunos en los que cambie una cantidad menor de datos en total, pero la preocupación por la edición destructiva es en gran medida exagerada. Regresé y volví a hacer fotos muy raramente para algunos favoritos en particular; Si he cometido lo que luego percibo como un error, prefiero hacer ajustes en el futuro.

Creo que, en lugar de pensar en términos de orden, es más útil pensar en términos de grupos interactivos de operaciones.

  1. (Si se basa primero en la conversión RAW, como lo hace Photoshop) ajustes de color / tonalidad y balance de blancos "lo suficientemente cercanos", aplicados como un lote. Los cambios menores están bien para hacerlos más tarde. El gran consejo aquí es usar una configuración manual de WB cuando sea factible, ya que eso hace que sea mucho más fácil de procesar.
  2. mantener / descartar, recortar y enderezar, polvo, distorsión, balance de blancos.
    • Estas son las cosas básicas que hago para obtener la imagen con la que estoy trabajando. No importa si son 'destructivos' o no; Nunca los volveré a hacer.
  3. Tonalidad: color, brillo, etc. Muchos comentarios perceptivos en estos pasos, por lo que no hay un orden particular para mí.
  4. Exportar, generalmente trabajo desde presets dependiendo del destino:
    • profundidad de bits, espacio de color
    • (rara vez) reajuste la tonalidad
    • redimensionando
    • el afilado debe ser el último

Mi copia de archivo generalmente es después del paso 3, pero ocasionalmente después del paso 2 si 3 parece particularmente experimental o extremo.


Mi flujo de trabajo es similar, mantengo todos los RAW originales y las versiones que aún no están ajustadas.
Karel el

1

(Esto es más un comentario que una respuesta). El orden hace la diferencia independientemente de si está haciendo una edición "no destructiva" o no.

Photoshop es tan "no destructivo" como cualquier otro editor, dependiendo de cómo lo use. No está cambiando el archivo sin formato original.

El punto principal es que es más fácil hacer algunas modificaciones antes de cambiar de los valores lineales capturados por el sensor a los valores de respuesta logarítmica utilizados para atraer la atención. Es por eso que gran parte del procesamiento en los últimos años se ha trasladado al convertidor sin formato: es mejor hacerlo antes de asignarlo a la respuesta de registro del ojo.

El conversor sin formato es el mejor lugar para la mayoría de los cambios de "desarrollo" porque es antes de que se aplique la corrección gamma. Intente ajustar el balance de color antes y después de la conversión en bruto para tener una idea de la diferencia. Por supuesto, no tengo idea de en qué orden realiza el convertidor sin formato la eliminación de manchas y la reducción de ruido (aunque podría adivinar), pero no es particularmente relevante: es un paso en el procesamiento.

En el pasado, la gente se preocuparía por hacer la mayor parte del trabajo en la profundidad de bits máxima y luego convertir a la salida. No hay nada malo con ese principio, pero en la práctica debería poder hacer todo lo que necesita en el convertidor sin formato, por lo que es un punto discutible.

Claro, debe cambiar el tamaño y luego enfocar en ese tamaño, el punto perdido por quizás el 95% de las personas que muestran imágenes en la web.


Es diferente para impresiones y salida web. Para la salida web, necesita saber cómo se relaciona su monitor con los demás: ¿es nítido o no y los colores son correctos? Una vez que sepa, sabrá cuánto afilar. En su mayoría, encontrará que las impresoras son mucho más suaves, por lo que, por lo general, querrá afinar demasiado su pantalla para que las impresiones sean precisas. La cantidad de afilado excesivo que tendrá que encontrar por prueba y error, ya que las impresoras varían. Debido a que no está editando de forma no destructiva, puede enfocar para dispositivos de salida específicos sin preocuparse por sus originales.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.