Desenfoques en tiempo real versus postproducción: ¿cuál es la diferencia?


9

Siempre he sido un gran fanático de las fotos borrosas, supongo en parte porque casi cualquier cámara es capaz de tomar fotos borrosas, aunque algunas son mejores que otras.

¿Cuál es la diferencia entre desenfoques en tiempo real y postproducción?



+1 @mattdm: Curiosamente, nunca usaría una lente suave, ya que me gustan los desenfoques con nitidez ... :-) ... lo que significa que muevo la lente para obtener el efecto de desenfoque.
errores

Respuestas:


9

En general: el desenfoque "real", ya sea debido a características ópticas (incluida la profundidad de campo, la aberración cromática, la aberración esférica y más) o debido al movimiento, se basa en más información. Incluye los aspectos tridimensionales y temporales de la escena, y los diferentes reflejos y refracciones de las diferentes longitudes de onda de la luz.

En el procesamiento posterior, solo hay una representación plana y proyectada para trabajar. Los algoritmos inteligentes pueden intentar descubrir qué estaba pasando y simular el efecto, pero siempre están en desventaja. Es difícil saber si algo es pequeño porque está muy lejos o porque es muy pequeño para empezar, o si algo se movía o simplemente estaba borroso, o en qué dirección y con qué rapidez. Si está dirigiendo el proceso de desenfoque a mano como un trabajo artístico, obtendrá mejores resultados porque puede aplicar su propio motor de conocimiento y reconocimiento de escena (en, ya sabe, su cerebro ), pero incluso así, es mucho trabaje y necesitará aproximar la distancia y el movimiento diferente para diferentes objetos en la escena, o comenzar intencionalmente con una fotografía donde estas cosas sean simples.

En el Mundo del Mañana, las cámaras recopilarán mucha más información tanto en tiempo como en espacio. La cámara Lytro actual es una vista previa de esto. Con un mejor modelo 3D, los efectos de diferentes configuraciones ópticas pueden simularse mejor y, por supuesto, el desenfoque de movimiento se puede construir a partir de una grabación a lo largo del tiempo.


+1 @mattdm: ¿Eso significa que mirar una foto de una sola vez en comparación con otras personas podría notar la diferencia, o es poco probable?
errores

@blunders: Creo que depende del tema y de qué tan bien se hizo el efecto, pero en general, , al menos para los observadores expertos. Me gusta pensar que no me engañaría la fotografía simulada de cambio de inclinación de Matt Grum , pero es fácil detectar los cuentos si lo sabes de antemano.
Lea mi perfil

4

Tanto el desenfoque de movimiento como el desenfoque se pueden simular en un software con suficiente tiempo, pero los resultados rara vez son tan satisfactorios como los reales. Fingir funciona mejor cuando tiene solo dos niveles de desenfoque, por ejemplo, un solo objeto en movimiento o un solo sujeto con el fondo a una distancia fija.

Para simular realmente el desenfoque de la lente, el radio de desenfoque varía proporcionalmente con la distancia desde el plano focal, por lo que tendría que trazar la distancia a cada punto de la imagen. Si tiene un fondo plano de igual distancia, como una pared, entonces el problema se reduce a cortar el sujeto, lo que es más manejable). Una cosa que a menudo puede salirse con la suya es tomar un fondo borroso existente y hacerlo más borroso.

A menos que pase mucho tiempo en él, no engañará a otro fotógrafo, aunque será un observador casual.

El desenfoque de movimiento es un poco más fácil siempre que el movimiento sea de lado a lado, ya que se reduce a un problema de segmentación de objetos que se mueven independientemente (recortando el sujeto). Sin embargo, lo que debe hacer es completar un poco de fondo adicional a cada lado del sujeto, ya que en la vida real verá un poco más de fondo de lo que vería si el sujeto estuviera estacionario. Esto se debe a que el fondo se revela a medida que el sujeto se mueve a través del cuadro.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.