¿Cómo puede importar una cámara de alta resolución cuando la salida es de baja resolución?


17

La pregunta está inspirada en esta pregunta que muestra estas imágenes .
La respuesta aceptada sugiere que estas imágenes fueron tomadas por una cámara de visión de 8x10, y el uso de una cámara de 8x10 fue confirmado en los comentarios.

Mi pregunta es: ¿cómo puedes saberlo?


Cuando se ven en la página web, estas imágenes son 496x620 = 0,37 megapíxeles (o 720x900 = 0,65 megapíxeles si hace clic en "vista completa").
Por lo tanto, cualquier cámara con una resolución superior a 0,37 Mpx debería poder capturar estas imágenes, es decir, prácticamente todos los teléfonos inteligentes y cámaras web del mercado.

Sé acerca de los sensores de Bayer . Pero el efecto en el peor de los casos de un sensor Bayer debería ser reducir la resolución en un factor de cuatro: si reduce la imagen en un factor de dos en cada dirección, cada píxel de salida contendrá datos de al menos un sensor de entrada para cada uno de ellos. los canales R / G / B.
La reducción de escala por el factor 4 aún significa que cualquier cámara con una resolución de más de 1.5Mpx (en lugar de los 0.37Mpx de la salida) debería poder capturar estas imágenes. Todavía estamos hablando de casi todos los teléfonos inteligentes y la mayoría de las cámaras web en el mercado.

Sé sobre la profundidad del color . Pero JPG, el formato que estamos usando para ver estas imágenes, es 8x3 = 24 bits. Y de acuerdo con los puntajes de DxOMark, hay varias cámaras, incluidas la Sony NEX 7 y la Nikon D3200, que son capaces de capturar 24 bits de color.
Entonces, incluso si una cámara web de $ 10 no puede capturar los matices en estas imágenes, una NEX 7 o D3200 debería poder hacerlo.

Sé que la mayoría de las lentes tienen una resolución más baja que la que la mayoría de los sensores son capaces de hacer. Como ejemplo, la Nikkor 85mm f / 1.4G es la lente más nítida de Nikon según DxOMark , y ofrece el mejor equivalente de resolución de 19Mpx en una cámara de 24Mpx (la Nikon D3X de fotograma completo), mientras que la lente menos nítida tiene un equivalente al mejor caso de 8Mpx en la misma cámara.
Pero la peor lente en su base de datos todavía da un orden de magnitud más resolución que el formato de salida de estos ejemplos.

Sé sobre el rango dinámico. Pero estas imágenes controlan la iluminación, por lo que no soplan los reflejos ni pierden las sombras. Mientras esté en condiciones de hacerlo, el rango dinámico no importa; de todos modos se asignará al rango de salida 0-255 de JPG.
En cualquier caso, DxOMark dice que varias cámaras con fotograma completo o sensores más pequeños tienen un mejor rango dinámico que las mejores cámaras de formato medio.


Eso es lo que sé, y no hay nada en estos fragmentos de teoría que pueda decirme cómo es posible distinguir una cámara de visualización de 8x10 de una Sony NEX 7 cuando ves el resultado como un JPG de 0,37 Mpx.

Esencialmente, hasta donde yo entiendo, debería ser irrelevante cuántos megapíxeles y cuánta profundidad de color puede capturar el sensor, siempre que sea al menos tanto como el formato de salida puede representar.

Aún así, no dudo del juicio de la respuesta de Stan Rogers. Y nunca he visto nada similar, en términos de nitidez percibida, de las cámaras de sensores pequeños.

¿He entendido mal lo que significa la resolución?

Supongo que principalmente estoy preguntando sobre teoría: ¿cómo puede ser visible una diferencia entre dos resoluciones (medidas en píxeles, lp / mm, profundidad de color o lo que sea) en un formato de visualización que tenga menos resolución que cualquiera de los originales?

O para decirlo de otra manera: ¿hay algo que me impida, en principio, replicar estas imágenes hasta el píxel utilizando una Sony NEX 7 y una iluminación por valor de $ 10,000?


2
Mientras consigas todo perfecto en tu toma, tampoco hay mucha ventaja en disparar RAW sobre JPEG. ¡La resolución, la profundidad de bits y los datos RAW se tratan de aprovechar al máximo su foto! Foto web pequeña hoy, pantalla retina 4x o impresión de alta calidad mañana.
Henrik

1
Lamentablemente, solo puedo aceptar una respuesta. Matt Grum hace un argumento creíble de que un sensor pequeño, más iluminación y un poco de procesamiento posterior, puede replicar quizás el 95% de lo que vemos en las imágenes de Martin Schoeller en tamaño web (excluyendo los efectos DoF). Creo que Michael Nielsen hace un argumento creíble de que es posible que necesite una resolución del sistema APS-C típica para llegar al 100%. Y Stan Rogers explica cómo podemos reconocer una cámara de gran formato incluso en fotos de tamaño web. Te sugiero que los leas todos :)
jg-faustus

Respuestas:


10

Se trata del micro contraste. Mire las publicaciones sobre aps-c versus fotograma completo y luego extienda esa diferencia a sensores de formato medio y grande.

¿Cuándo importan las diferencias entre APS-C y los sensores de fotograma completo y por qué?

Siguiendo las teorías sobre el sobremuestreo, es mejor tomar muestras a una tasa más alta y luego reducir la muestra que tomar muestras en el límite de nyquist desde el principio, es decir. Si su objetivo final es 640x480, es mejor usar un sensor de 1280x960 que un sensor de 640x480.

De todos modos, no importa cuántos MPixels tenga cuando los píxeles vecinos dependan unos de otros, debido a que el círculo de confusión es mayor que sus píxeles en el plano del sensor. Las lentes también tienen una capacidad limitada de resolución. Además, debe considerar la "nitidez" de la lente en comparación con su apertura, y un sensor más grande le permite acercarse y reducir el DOF más estrecho, lo que significa que puede capturar aún más detalles: el círculo de confusión es más grande, la lente está trabajando con menos difusión, etc.

Y luego tienes la "compresión de profundidad" realizada por la distancia focal de la lente que es bastante agresiva en esas tomas, apuntando a un teleobjetivo. El FOV en un sensor pequeño requeriría que retroceda un largo camino y abra mucho la apertura para obtener ese DOF estrecho. Sin embargo, al ejecutar los números, con una cámara de fotograma completo podría lograrlo, 210 mm, 2 metros de distancia, F8 daría un DOF de 4 cm y un FOV que toma la cara como esas tomas.

Dicho de otra manera: cuanto más grande es el sensor en relación con el sujeto, menos tiene que trabajar la lente en los rayos de luz para comprimirlos en un lugar estrecho. Esto aumenta la claridad de la toma y se muestra sin importar la distancia de visualización (que es lo que se simula cambiando el tamaño de la imagen a una resolución más baja).

Las siguientes discusiones sobre la mejora y retención de detalles a través del cambio de tamaño aquí son una comparación si temas similares de gran formato versus fullframe y gran formato versus apsc:

Arriba: caras masculinas con barbas. En la resolución en el sitio al que se vincula, la barba se representa con pelos de píxeles, pero todo eso se pierde en el mismo tamaño que el ejemplo de Matt. Ahora las barbas son difusas. Si vemos la imagen de Matt en el mismo tamaño que las fotos de 8x10 en el sitio, podríamos ver una gran diferencia si la cabeza no está enfocada. Incluso un sistema aps-c y un sensor más pequeño podrían producir este resultado (con respecto a los detalles).

Abajo: si comparamos las pestañas de la cara femenina con un tamaño similar al de la página web que mostró, con un ojo enfocado de una cámara aps-c, y el afilado no va a devolver los poros de la piel. Podríamos mejorar la percepción de las pestañas a costa de un halo brillante a su alrededor.

Ahora vemos una gran diferencia en la resolución del "sistema general" , y la cámara apsc + la lente utilizada + vista en la resolución de baja resolución dada no puede mostrar el mismo detalle que la cámara 8x10 + esa lente + la resolución vista . Espero que mi punto sea más claro ahora.

detalles

Otra comparación con aps-c, trozos de barba, después de afilarlos. Aunque stackexchange los redimensiona, todavía podemos percibir una diferencia en la claridad.

apsc

En conclusión, los otros factores que está preguntando además de la resolución de píxeles son:

  • Resolución total del sistema lp / mm
  • SNR
  • Aumento de la persona al sensor a la pantalla en la que lo ve a la distancia dada desde que lo ve hasta la proyección de su ojo en la resolución de la retina: cuanto menor sea el aumento (por debajo de 1: 1) en cualquier parte del sistema, mayores serán las demandas para los dos factores anteriores, que a su vez están influenciados negativamente por el área de proyección más pequeña.

Obtendrá más detalles en una toma macro reducida que en primer lugar sin disparar macro.

Una prueba final de que la resolución antes de la reducción de escala es importante. Arriba: 21MP FF Inferior: 15MP Aps-c con la misma distancia focal de lente / apertura.

Dos res / tamaño del sensor de diferencia

Ahora reescalado a igual resolución:

Pequeño

Menor

Pequeñísimo

Minúsculo

y aplicó un poco de nitidez para recuperar algunos detalles. ¿Que ves? Un poco más de detalles de la cámara de 21mp FF vistos en el mismo tamaño / resolución que sería equivalente a una cámara de 3Mp. no puede contar las líneas en la imagen reescalada, pero la percepción de que son líneas es verdadera. Si desea esto o no, es su opción creativa, pero a partir de la resolución más alta (dada por el sistema total), tiene la opción. Si no los quiere, puede desenfocar la imagen antes de volver a escalar.

Un experimento final para mostrar la diferencia entre un sensor de tamaño pequeño, baja resolución frente a mayor, mayor resolución, pero reajustada y afilada a la misma resolución, que se muestra al MISMO TAMAÑO al final, con TODO MÁS IGUAL. Genial, ¿eh? ¿Cómo hice eso? Mi cámara APS-C que tomo simula un "sensor de recorte" (más pequeño que mi apc-c) recortando una imagen de la imagen. Luego me acerco al sujeto para llenar un sensor 4 veces más grande con el mismo sujeto. - al igual que los retratos en el sensor de gran formato es básicamente una toma macro, cada vez más cerca de lo que se obtendría con una cámara aps-c. La misma calidad electrónica, la misma lente, la misma configuración, la misma luz.

Así es como se ve en el pequeño sensor, llamémoslo "mini aps-cc":

Pequeño sensor

Aquí vemos el "gran formato" (gran aps-c completo):

aps-c

Aquí vemos muchos detalles, ¿verdad? Pero eso no importa después de que lo reduzcamos a una imagen de 0.016MP y lo agudicemos para obtener el mismo contraste general, ¿verdad?

Comparación de igual tamaño

Pero de hecho lo hacemos! Si todavía no me crees, me rindo :)


Una nota sobre el patrón de laberinto que muestran estos cultivos: es el artefacto de interpolación bayer común para la demostración de AHD bayer.
Michael Nielsen

Sin embargo, la percepción de que es una serie de líneas es más fiel al original que ver un cuadro gris. Lo mismo que ver poros en la piel, tal vez no la cantidad exacta como la vida real, pero estarían allí.
Michael Nielsen

Gracias, interesantes comparaciones. Parece que la nitidez / detalle (o al menos una ilusión de detalle) sobrevive más reducción de lo que pensaba. Me has dado algo para considerar.
jg-faustus

tenga en cuenta que las líneas convergentes son una pesadilla para los algoritmos de interpolación y SABEMOS cómo DEBE verse, no tenemos los mismos supuestos sobre los detalles en una textura agradable de la piel, por lo que incluso un punto se mueve medio píxel en la cara que todavía se ve increíble. En el ejemplo más pequeño anterior, todavía percibimos que tiene líneas hasta la segunda vertical.
Michael Nielsen

Michael, una pregunta relacionada: ¿y si el tamaño del sensor es el mismo? ¿Voy a obtener mejores resultados de un sensor APS-C con una resolución nativa de 16 MP, pero disminuido a 8MP, por ejemplo, en lugar de comprar una cámara (hipotética) con un sensor ASP-C de 8MP?
Vaddadi Kartick

7

Tanto como cualquier cosa, el regalo de la cámara de visión fue una profundidad de campo extremadamente baja que no es paralela al plano de la película. Enfocar los labios y los ojos en varias de las imágenes con la postura del sujeto y el DoF muy superficial (la mayoría de las veces, la frente en la mandíbula inmediatamente debajo de los ojos es suave) es imposible sin inclinación.

También existe la naturaleza de los rangos fuera de foco; Es más típico de la reproducción casi a tamaño real que el enfoque lejano. La extensión DoF hacia la cámara es casi igual a la extensión hacia el fondo, que es lo que esperaría al acercarse a la reproducción 1: 1. A distancias de trabajo más normales, esperaría una distribución de un tercio / dos tercios de la nitidez aparente alrededor del plano de enfoque nítido (un tercio del DoF delante del plano de enfoque; dos tercios detrás). Entonces eso indica un "sensor" considerablemente más grande que APS-C, full-frame o incluso formato medio. La experiencia con los formatos 4x5 y 8x10 me dijo que era más probable que fuera un 8x10 (aunque incluso una de las raras cámaras de formato más grande tampoco hubiera estado fuera de discusión), y pensé que la lente de 210 mm era más probable que, decir,

Como señaló Michael Nielsen, hay mucho "micro contraste" aparente en las imágenes, pero hasta cierto punto puedes fingir eso en el postprocesamiento, especialmente si el objetivo es renderizar en tamaños webby. Y supongo que incluso podría falsificar el DoF y el plano focal si fuera diligente en la creación de un mapa de profundidad con un plano focal de gradiente aplicado contra lo que tendría que ser un modelo 3D del sujeto y entendiera la dinámica de enfoque de un 8x10 en aproximadamente 50-60% de reproducción a tamaño real, pero eso sería un gran trabajo. La solución económica, tanto para el fotógrafo como para cualquiera que analice la imagen, sería una cámara de visión real de 8x10.


Sin embargo, aumentar el microcontraste en la publicación introduce artefactos, así como los algoritmos están "adivinando" los detalles, por lo que no sería la misma imagen.
Michael Nielsen

@Michael, pero en una reproducción redimensionada, ¿podrían ser evidentes para todos los propósitos? ¿O no?
Francesco

¿Era "hasta cierto punto" ambiguo?

¿Quiere decir que si afila primero y luego cambia el tamaño donde se borra la mejora, a menos que la ventana del filtro de paso alto sea tan grande que introduzca un sonido en el marco? Los detalles en esos retratos son tan increíbles que si examina un recorte de la piel de 1x50 píxeles, se ve como una imagen binaria, que puede producir fácilmente anillos de halo con filtros de nitidez.
Michael Nielsen

3
@MichaelNielsen al hacer una gran disminución de la muestra puede introducir alias en una imagen totalmente suave (sin microcontraste) y obtener una imagen extremadamente nítida sin halos u otros artefactos de nitidez. Si no fuera por el plano de enfoque inclinado, no sería capaz de decir que esas imágenes eran de gran formato al observar los "detalles" aparentes
Matt Grum

4

No, una cámara de alta resolución realmente no importa cuando la salida es de baja resolución, al menos no cuando pasas de megapíxeles de dos dígitos a un cuarto de megapíxel. Toma la siguiente imagen:

Redimensionado para la web, se ve bien a pesar del hecho de que la cara del sujeto ni siquiera estaba enfocada. Es obvio cuando se ve al 100% y obvio en la impresión, pero absolutamente no se puede saber cuando se ha cambiado el tamaño al 2% de sus píxeles originales y se ha mejorado para la web.

Aquí hay otro ejemplo, tome una imagen original masivamente suave, a unos 8 megapíxeles:

Reduzca drásticamente la muestra a una resolución amigable para la web y agudice, ¡y de repente mire todo el microcontraste!

Un sobremuestreo 2x definitivamente ayudará con la resolución y fidelidad de color de las imágenes de Bayer. Pero una imagen del Canon Digital Rebel original (300D) lanzada en 2003 redimensionada a 600x400 es un sobremuestreo de 5x, en cada dirección, lo que significa que cada píxel en la imagen redimensionada ocupa el lugar de 25 píxeles originales. Muy, muy poco de la calidad de esos 25 píxeles tendrá un impacto en la imagen redimensionada.

El aumento del microcontraste que ofrece un sistema de formato más grande simplemente no será visible, el macrocontraste que usted ve puede compensarse mediante el procesamiento posterior, cuando tenga tanta resolución para desechar los artefactos de afilado no serán visibles.

Si iguala la profundidad de campo, sería extremadamente difícil distinguir entre una cámara de visión de 10x8 y una compacta cuando se redimensiona a menos de 1 megapíxel.


¿puedo ver su cara del mismo tamaño que los retratos?
Michael Nielsen

¡Sí, cuando llegue a casa y saque los originales!
Matt Grum el

Tengo que estar en desacuerdo con la afirmación contundente "una cámara de alta resolución realmente no importa cuando la salida es de baja resolución". Las relaciones de sobremuestreo y aumento son importantes en los resultados finales (hasta cierto límite).
Michael Nielsen

1
está obteniendo detalles agradables en la imagen pequeña exactamente porque ha sobremuestreado tantas veces. Si hubiera usado solo 2x sobremuestreo con la misma cantidad de desenfoque, no habría obtenido ninguno de los detalles de la piel. Y lo exageraste con el afilado, su cabello se ve raro. Además, esta toma parece una típica imagen de gama baja. nada parecido a esas imágenes de las que estamos hablando, que retienen más detalles que un sistema APS-C con una lente decente puede producir.
Michael Nielsen

Gracias por el último ejemplo, parece creíble que algo así como las imágenes vinculadas en la pregunta se puedan crear con un sensor APS-C. @MichaelNielsen Pero ese es el tipo de sobremuestreo sobre el que se trata la pregunta, por ejemplo, reducción de escala, digamos un disparo APS-C de 16Mpx a <1Mpx de tamaño web. Entonces, en términos de sobremuestreo, ¿puede, por ejemplo, el sobremuestreo de 7x (entrada de 49 píxeles a salida de 1 px) puede ser visiblemente mejor que el sobremuestreo de 5x? Me estoy inclinando hacia "probablemente no", en su ejemplo con las líneas no puedo ver mucha / ninguna diferencia más allá del sobremuestreo 4x.
jg-faustus

1

Al representar una escena con detalles finos en una imagen de baja resolución, es necesario aplicar un filtro espacial para eliminar cualquier contenido cuya frecuencia esté por encima del límite de Nyquist. Al aplicar el filtro espacial, hay dos objetivos en conflicto:

  1. El contenido cuya frecuencia espacial es lo suficientemente baja como para mostrarse debe atenuarse lo menos posible.

  2. El contenido cuyas frecuencias espaciales son similares debe atenuarse en cantidades aproximadamente iguales.

Para ver dónde entran en conflicto los objetivos, imagine una escena con un patrón de líneas convergentes. Si el espacio se acerca un poco al límite de Nyquist para la resolución del objetivo, pero las líneas siempre se separan lo suficiente como para mostrarse claramente, a menudo será mejor mostrarlas claramente que desenfocarlas. Sin embargo, si la escena contiene un patrón de líneas convergentes que se acercan demasiado para ser distinguibles, las líneas se vuelven gradualmente más borrosas a medida que su espacio se acerca al límite de resolución sería menos molesto que hacer que las líneas aparezcan claramente hasta un punto donde transición brusca a un gris sólido.

En muchos casos, el tipo óptimo de filtrado para una escena dependerá de su contenido y de qué aspectos son interesantes. La captura de una escena en una resolución superior a su formato de salida previsto garantizará que toda la información que pueda desearse en la imagen final se conserve. La información tendrá que filtrarse antes de que la imagen pueda renderizarse en una resolución más baja, pero la captura de alta resolución permitirá adaptar los métodos de filtrado exactos para ajustarse de manera óptima a las necesidades de la escena (y posiblemente usar diferentes métodos para diferentes partes de una escena). Si uno tiene la intención de renderizar una imagen final a 640x480, el beneficio de capturarlo a 6400x4800 probablemente no sea mucho mayor que el proporcionado por 1600x1200, pero puede haber algunos beneficios al subir a aproximadamente 2.5x.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.