¿Cómo capturar la escena exactamente como mis ojos pueden ver?


30

¿Qué ajustes de mi cámara DSLR emularán la escena exactamente como puedo ver a simple vista?

Creo que no es posible obtener el contraste y los colores exactamente como mis ojos pueden ver, y puede variar de persona a persona. Por lo tanto, estoy más interesado en la distancia focal de la lente. Si alguien puede dar más información más allá de la distancia focal, me alegrará saberlo.

Por ejemplo, si estoy parado en la orilla del mar y quiero capturar la salida del sol, ¿cuál debería ser la distancia focal para poder cubrir el ángulo de visión que mis ojos pueden ver, y así el tamaño de los objetos en la foto será precisamente como lo perciben mis ojos?

Mi cámara es una Canon EOS 1000D APS-C. Tengo 50 mm 1.8 y 70-300 mm Sigma, ¿se puede lograr a través de este lente de equipo? Hasta ahora, no he logrado ni estoy satisfecho con lo que veo y lo que obtengo.


¿Tiene una DSLR de fotograma completo (FX) de recorte (DX, 1.6x)?
Philippe Lavoie

Seguro que editaré mi pregunta, olvidé ese factor. Tengo Canon eos 1000D, que no es un cuadro completo. factor de recorte de 1.6x
sábado

1
¿Qué pasa con los medios destinados a entregar la imagen a los ojos de los demás? ¿Grande o pequeño? ¿Pantalla o papel? ...
mouviciel

Interesante: esto terminó como una forma más general de photo.stackexchange.com/questions/8043/... en el sentido de que los cerebros de nuestros espectadores juegan un papel importante en su percepción de las fotos. Grandes respuestas aquí.
D. Lambert

1
@mouviviel: los medios están destinados a entregarme a mis ojos después de tomar la imagen, Acerca de, Pantalla y papel. Si la pantalla está calibrada correctamente, creo que podemos esperar casi lo mismo en la pantalla en Papel, Básicamente Pantalla y papel: D
Sat

Respuestas:


38

Bueno, odio decírtelo, pero no puedes emular exactamente tus ojos. Hay algunas razones, déjame explicarte.

  1. Los humanos ven una resolución mucho más alta en la fovia central (parte central de nuestros ojos) que cerca de los bordes. Las cámaras tienen una resolución uniforme en todas partes.
  2. El rango dinámico se maneja de manera diferente entre cámaras y humanos. No puedo explicarlo, pero una escena parece tener más rango dinámico para un humano que una cámara, aunque técnicamente una cámara tiene más rango dinámico.
  3. Los humanos ven en 3 dimensiones.
  4. Los humanos cambian sus puntos focales muy rápidamente, hasta el punto de que realmente no notamos las porciones desenfocadas de la mayoría de las escenas.
  5. La forma de la visión humana es muy diferente a la de una fotografía. Las fotografías suelen ser rectangulares, con cierta dimensión, la visión humana tiene una forma más curva, aunque es difícil de cuantificar por la forma en que nuestro cerebro maneja las señales.

A pesar de todo eso, permítanme decir que depende si desea enfocarse en un área específica o en la escena más amplia. Si desea el área específica, probablemente debería ir unos 150 mm más o menos. En cuanto a un paisaje dramático, algo más como un 24 obtendrá todo su campo de visión. Un número comúnmente citado es 50 mm, lo que le permitirá ver la porción de mayor resolución de sus ojos y algo más, pero no todo el campo, y generalmente es un buen compromiso. (Todo esto supone que tiene una cámara con marco completo, si la suya es un sensor de recorte, divida por el factor apropiado)


Ok, no estaba satisfecho con esta situación, donde tomé una foto del amanecer con 50 mm 1.8, el tamaño del sol era mucho más pequeño en comparación con lo que vi en realidad, así que creo que tendré que ajustar mi distancia focal alrededor 90-100 mm para obtener el tamaño adecuado. Gracias.
sentaron

1
Como dije, el ojo tiene varias regiones de sensibilidad. Es una lástima que realmente no puedas obtener el FOV y la percepción, es realmente sorprendente lo que nuestros ojos y nuestra mente pueden hacer, así que ...
PearsonArtPhoto

1
olvidó uno: el ojo humano tiene un campo de visión diferente de la imagen generada por la mayoría de las cámaras (pueden existir cámaras altamente especializadas). No vemos en factor de forma 4/3 o 2/3.
Juent

Además, la imagen que "ve" en su cerebro básicamente se ejecuta a través de una pila de 1000 filtros, postprocesadores y una sesión de Photoshop decente.
Hobbamok

36

El ojo se mueve

Me gustaría agregar a la respuesta de @Pearsonartphoto, que los ojos humanos no ven una escena fija, sino que la escanean continuamente, ajustan su "apertura" y vuelven a enfocar mientras la escanean. Entonces, gracias a este proceso de escaneo, podemos percibir :

  • el rango dinámico más alto,
  • una profundidad de campo infinita
  • una escena más amplia en su conjunto,
  • mucho más detalle de lo que puede ver una "resolución" del ojo inmóvil.

Entonces, lo que "vemos" es el resultado del "procesamiento posterior" de una secuencia de imágenes, 30-70 imágenes por segundo. Ver movimiento de los ojos .

La cámara está quieta

La cámara no puede simular lo que ve el ojo, porque gran parte de lo que ve el ojo es nuestro proceso de ver y pensar sobre la escena, y gran parte de esto ocurre en el cerebro, no solo en el ojo.

Pero puede tomar fotos que producen una cierta impresión deseada en la persona que las ve. Y aquí es donde comienza el arte , porque tienes que provocar ciertos sentimientos en otra persona por medio de un objeto de color plano.

Múltiples técnicas de imagen.

PD: Algunas técnicas populares en fotografía digital en realidad intentan recuperar más de múltiples imágenes secuenciales como lo hace la visión humana. Estas técnicas incluyen:

  • costura panorámica (mosaico de múltiples imágenes para cubrir un ángulo de visión más amplio y aumentar la resolución),
  • técnicas de fusión de exposición y HDR (apilando múltiples imágenes para aumentar el rango dinámico),
  • apilamiento de enfoque (apilando múltiples imágenes para aumentar la profundidad de campo) (más) .

Lo has resumido bien, la mejor respuesta hasta ahora.
labnut

27

¿Capturar una imagen exactamente como la ven sus ojos? No hay problema, pero no todo es dentro de la cámara, tendrás que hacer un trabajo por correo Y casi seguro que no es lo que realmente quieres.

Primero, necesitará una lente de ojo de pez circular que haga viñetas con las que tomará una foto. (En realidad, necesitará varias imágenes y un sistema de visualización con seguimiento ocular incorporado que puede voltear imágenes a medida que su ojo se mueve). Nadie hace una lente que funcione tan mal como el ojo humano (al menos, nadie hace una como esa a propósito y lo ofrece a la venta como lente fotográfica), por lo que el resto tendrá que suceder en la publicación.

Primero, deberás cortar la imagen en la parte superior. Exactamente dónde variará, pero ahí es donde su ceja se interpone en el camino. Luego, deberá ejecutar un buscador de bordes: en Photoshop, el filtro de relieve Sketch-> Bas funcionará bien. Ponga el resultado de eso en un conjunto de capas separado para multiplicar: lo fusionará más adelante, pero puede ocultar la capa por ahora.

Luego, seleccione una sección en el medio de la imagen, aproximadamente uno o dos por ciento de toda la imagen, reduzca la selección en veinte o treinta píxeles, luego copie esa selección en una capa separada.

Ahora ejecute un filtro de desenfoque pesado sobre la imagen original. Desea poder ver los colores, pero sin detalles reales. Combina la capa de bajo relieve en la imagen borrosa. Luego, combine la capa que hizo de la selección. Ahora debería tener una imagen circular con la parte superior cortada, bordes mal definidos, sin detalles reales de la imagen sobre la mayor parte de la imagen, pero con los bordes de los elementos originales pidiendo atención y un área pequeña en el medio (aproximadamente diez por ciento del ancho y alto) en enfoque relativamente nítido.

Aún no has terminado. Debe crear una selección circular de aproximadamente la mitad del tamaño del área que está enfocada, justo debajo y a un lado, y superponer ligeramente el área de enfoque. Emplume bien la selección, luego llénela de negro.

Cree una nueva capa de superposición, llénela con un 50% de gris y agregue aproximadamente un diez por ciento de ruido gaussiano monocromático, para darle un buen desenfoque. Combinar eso hacia abajo.

Ahora tiene una imagen que se aproxima a lo que realmente ve con su ojo fijo. En realidad, está mucho menos distorsionado de lo que ve su ojo, pero agregar todas las pequeñas convoluciones que suceden debido al grosor diferente de los fluidos en la superficie del ojo en un momento dado es un gran problema para este ejercicio. .

Cualquier otra cosa que creas que ves proviene de tu cerebro, no de tu ojo. Ese punto negro? Tienes uno en cada ojo y tu cerebro llena los datos que faltan. ¿El vasto mar de detalles? Costuras panorámicas en la corteza visual. Nitidez de cualquier tipo? Promedio de múltiples "exposiciones". También tenemos un sistema de apertura automática y hacemos "cambios ISO" sobre la marcha, dependiendo de lo que prestemos atención en un momento dado (nuestro rango dinámico estático no es muy diferente de lo que captura la cámara: hacemos HDR " en la publicación ").

Probablemente lo que desea es capturar lo que ve su mente, no lo que ven sus ojos, y eso es diferente para cada imagen. Es por eso que hacen todas esas lentes diferentes. A veces quieres mostrar un panorama amplio porque eso es lo que viste . Pero incluso con un paisaje enorme, puede haber sido un pequeño bosquecillo de árboles que llamó su atención. Un retrato puede ser un primer plano apretado o puede involucrar todo el entorno de la modelo; una vez más, todo depende de lo que vio en su mente, no de lo que vio con su ojo real. Lo mismo ocurre con la profundidad de campo: ¿estaba mirando toda la escena o simplemente prestando atención a un pequeño detalle dentro de un contexto más amplio?

En otras palabras, esta no es una pregunta que pueda responderse directamente. La respuesta es, y siempre será, "depende". Experimentar. Práctica. Conozca sus herramientas y lo que hacen, y eventualmente sabrá exactamente lo que necesita hacer para capturar no lo que realmente estaba allí, sino lo que vio. Ansel Adams lo llamó previsualización , y pasó mucho tiempo desarrollando un sistema formal que le permitiera capturar en una película lo que veía con su mente y su corazón, no con sus ojos.


44
Si bien esto quizás comienza un pequeño cambio, termina siendo una respuesta hermosa y maravillosa. Prestigio.
lindes

1
Wow, me perdí leyendo las cosas de Photoshop y al final fue un buen consejo :) TY.
sentaron

2
¿Qué, no hay flotadores ?
junkyardsparkle

El proceso de Photoshop es una excelente descripción de la mala calidad de imagen que el ojo ve realmente, fijada en su lugar. Pero no está arreglado y el cerebro lo une todo.
Doug

10

Uno de los problemas al tratar de emular la vista humana en una fotografía es el campo de visión .

La perspectiva que vemos, que es una función de la distancia focal relativa es, en general, aproximadamente la perspectiva de una lente de 50 mm en un sensor de fotograma completo o 32 mm en un sensor DX, pero el problema no es la perspectiva, es el campo de visión. Piense en la imagen que ve a 50 mm y ahora extienda el campo de visión como lo haría al tomar una panorámica.

Si tomara una fotografía "humana", vería casi 180 grados horizontalmente y aproximadamente 120 grados verticalmente, y aún así mantendría la perspectiva de la distancia focal media.

Tome este diagrama bruto del ojo (verde) y un sensor digital SLR (azul). Notarás que la distancia focal es exactamente la misma para ambos medios, 17 mm aproximadamente, pero el ángulo al que se extiende la retina es mucho mayor que el del sensor.

Campo de visión

Ve un campo de visión más amplio, con la misma distancia focal. Es por eso que un sensor DX equivale al campo de visión 1,6 veces más pequeño que el del sensor de 35 mm, pero a la misma distancia focal, la perspectiva no cambia. Simplemente captura un área más pequeña de la escena.

Las panorámicas son una forma de emular el campo de visión de algo como el ojo humano, al tiempo que conservan una perspectiva más plana y realista.


El siguiente problema es el rango dinámico . Un rango dinámico promedio de sensores digitales de tamaño SLR es de aproximadamente 11 paradas de luz. Esto significa que puede registrar la diferencia entre 11 duplicaciones en intensidad de luz. 1, 2, 4, 8, 16, 32, etc. Cuán precisa es otra historia. 14 bits es mejor que 12 y 12 es mejor que 8 bits, pero lo analógico es incluso mejor que lo digital de 14 bits.

Si bien un cuerpo profesional de fotograma completo capaz de capturar hasta 13 paradas en un buen día se considera impresionante para los estándares modernos, ni siquiera se acerca al ojo humano.

El ojo humano es a veces capaz de distinguir la diferencia entre aproximadamente 18 a 20 paradas de intensidad, en una medida muy cruda. Esto significa que la sombra negra que ve su cámara podría verse fácilmente en detalle por el ojo humano, al mismo tiempo que se ven detalles brillantes en la escena . Aquí es donde el rango dinámico de un sensor digital cae actualmente.

Simplemente no puede distinguir intensidades de luz tan salvajemente diferentes al mismo tiempo. A veces es tan malo que usted tiene para exponer tanto para los aspectos más destacados o exponer para las sombras y lo entiendan, incluso cuando sus propios ojos pueden ver tanto bien.

HDR es una forma de emular el rango dinámico del ojo humano, pero todavía está limitado por los medios en los que se ve y por la forma en que se procesa.


Otro problema es que si bien es un paseo por el parque para nosotros, ya que nuestros cerebros están diseñados para ver de esta manera, solo la fóvea ve con gran detalle. La visión periférica es bastante detallada y está principalmente allí para ver el movimiento, lo que puede ayudarnos a identificar que están sucediendo cosas a nuestro alrededor o advertirnos del peligro y desencadenar la respuesta de lucha o huida.

Si simulara esto en una fotografía, la imagen tendría un área de enfoque pequeña en el centro y la imagen se volvería borrosa rápidamente a medida que avanza hacia los bordes.


Hay otros temas que no he tocado o que no conozco sobre mí, pero creo que, al final del día, una fotografía no pretende realmente "emular" la experiencia humana, sino capturar un momento, para crear una respuesta o una emoción, o capturar recuerdos, o obtener un gran pago de un cliente :)


Entonces, ¿quieres decir que la lente del bebé da mejor o dice un efecto real a lo que vemos? porque se enfocará en un punto y otras cosas serán borrosas?
sentaron

¿Qué quieres decir?
Nick Bedford

1
Supongo que sí. Supongo que la verdadera pregunta es si deberías o no hacerlo. La simulación pura significaría que desenfocaría el área exterior de la foto, pero si lograras hacer estallar la foto final para que se ajuste a tu visión, entonces ... tu visión tomaría el desenfoque, si sabes a lo que me refiero.
Nick Bedford

Okay. Experimentará un poco la próxima vez :)
sábado

0

Su cerebro puede ajustarse a las señales que provienen de las células sensoras de la luz en su ojo para que pueda tener un rango dinámico más alto de sus ojos que el que es posible desde las células de su cámara. Hasta que no haya sensores de cámara inteligentes que puedan apagar uno que haya tenido suficiente luz sobre ellos, tendrá dificultades para obtener el alcance que necesita.

Sugeriría hacer un HDR de una escena, pero solo presionar ligeramente la exposición por debajo y por encima para que todavía se vea natural.


Bueno, existe Highlight Tone Priority (como Canon lo llama; probablemente también existe con diferentes nombres para diferentes marcas), pero no es exactamente de lo que estás hablando aquí. Me encantaría un sensor que de alguna manera tenía una curva de respuesta logarítmica por sitio de fotos después de llegar a una cierta exposición ...
lindes

0

Bueno, ¿por qué no simplemente poner su lente de 70-200 mm y hacer zoom hasta que la imagen en su pantalla LCD tenga el mismo tamaño que su vista sin la cámara? La lente luego leerá a qué distancia focal está. O simplemente use el buscador de vistas. Un estudio minucioso de la vista real, la vista LCD y la vista del visor lo llevará hasta allí, pero necesitará un trípode y al menos 10 minutos. Es posible que su configuración solo sobresalga a ciertas distancias ... es decir, las 3 vistas coinciden satisfactoriamente. En ese momento, puede considerar la compra de una lente. Otra cosa después de la igualación de escala será la igualación tonal a su ojo. Las cámaras apestan al ver sombras en general. Parece una buena idea agregar un filtro de oscurecimiento neutro y agregar algunas paradas para compensar con el objetivo de aclarar las sombras mientras se mantienen dóciles los reflejos. Esto podría llevar a que los aspectos más destacados no sean tan "apagados" mientras que las sombras son completamente negras si la exposición simplemente se intensificó. Un filtro UV también parece importante. Después de eso, se pueden ajustar las funciones de procesamiento en la cámara para ajustar y hacer que esta configuración sea predeterminada. Solo menciono aquí lo que intentaría. Espero que esto ayude.


El principal problema al hacer esto es que el aspecto de una imagen está determinado por mucho más que solo la distancia focal y el color, incluida la distancia de visualización, los medios y las condiciones de visualización. Como se ha mencionado en algunas respuestas, una cámara no puede replicar lo que ve el ojo.
malditas verdades
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.