La pregunta está inspirada en esta pregunta que muestra estas imágenes .
La respuesta aceptada sugiere que estas imágenes fueron tomadas por una cámara de visión de 8x10, y el uso de una cámara de 8x10 fue confirmado en los comentarios.
Mi pregunta es: ¿cómo puedes saberlo?
Cuando se ven en la página web, estas imágenes son 496x620 = 0,37 megapíxeles (o 720x900 = 0,65 megapíxeles si hace clic en "vista completa").
Por lo tanto, cualquier cámara con una resolución superior a 0,37 Mpx debería poder capturar estas imágenes, es decir, prácticamente todos los teléfonos inteligentes y cámaras web del mercado.
Sé acerca de los sensores de Bayer . Pero el efecto en el peor de los casos de un sensor Bayer debería ser reducir la resolución en un factor de cuatro: si reduce la imagen en un factor de dos en cada dirección, cada píxel de salida contendrá datos de al menos un sensor de entrada para cada uno de ellos. los canales R / G / B.
La reducción de escala por el factor 4 aún significa que cualquier cámara con una resolución de más de 1.5Mpx (en lugar de los 0.37Mpx de la salida) debería poder capturar estas imágenes. Todavía estamos hablando de casi todos los teléfonos inteligentes y la mayoría de las cámaras web en el mercado.
Sé sobre la profundidad del color . Pero JPG, el formato que estamos usando para ver estas imágenes, es 8x3 = 24 bits. Y de acuerdo con los puntajes de DxOMark, hay varias cámaras, incluidas la Sony NEX 7 y la Nikon D3200, que son capaces de capturar 24 bits de color.
Entonces, incluso si una cámara web de $ 10 no puede capturar los matices en estas imágenes, una NEX 7 o D3200 debería poder hacerlo.
Sé que la mayoría de las lentes tienen una resolución más baja que la que la mayoría de los sensores son capaces de hacer. Como ejemplo, la Nikkor 85mm f / 1.4G es la lente más nítida de Nikon según DxOMark , y ofrece el mejor equivalente de resolución de 19Mpx en una cámara de 24Mpx (la Nikon D3X de fotograma completo), mientras que la lente menos nítida tiene un equivalente al mejor caso de 8Mpx en la misma cámara.
Pero la peor lente en su base de datos todavía da un orden de magnitud más resolución que el formato de salida de estos ejemplos.
Sé sobre el rango dinámico. Pero estas imágenes controlan la iluminación, por lo que no soplan los reflejos ni pierden las sombras. Mientras esté en condiciones de hacerlo, el rango dinámico no importa; de todos modos se asignará al rango de salida 0-255 de JPG.
En cualquier caso, DxOMark dice que varias cámaras con fotograma completo o sensores más pequeños tienen un mejor rango dinámico que las mejores cámaras de formato medio.
Eso es lo que sé, y no hay nada en estos fragmentos de teoría que pueda decirme cómo es posible distinguir una cámara de visualización de 8x10 de una Sony NEX 7 cuando ves el resultado como un JPG de 0,37 Mpx.
Esencialmente, hasta donde yo entiendo, debería ser irrelevante cuántos megapíxeles y cuánta profundidad de color puede capturar el sensor, siempre que sea al menos tanto como el formato de salida puede representar.
Aún así, no dudo del juicio de la respuesta de Stan Rogers. Y nunca he visto nada similar, en términos de nitidez percibida, de las cámaras de sensores pequeños.
¿He entendido mal lo que significa la resolución?
Supongo que principalmente estoy preguntando sobre teoría: ¿cómo puede ser visible una diferencia entre dos resoluciones (medidas en píxeles, lp / mm, profundidad de color o lo que sea) en un formato de visualización que tenga menos resolución que cualquiera de los originales?
O para decirlo de otra manera: ¿hay algo que me impida, en principio, replicar estas imágenes hasta el píxel utilizando una Sony NEX 7 y una iluminación por valor de $ 10,000?