Megapixel carrera innecesaria?


15

¿Hemos llegado al punto en que la carrera de megapíxeles se trata más de la carrera, de tener más que el otro tipo, que de la calidad de la imagen?

Hace solo unos años, 6MP se promocionaba como la cantidad óptima de MP que necesitabas para tomar fotos realmente buenas.

Pero últimamente, como la mayoría de la tecnología, MP ha estado saltando unos sobre otros a pasos agigantados.

Nikon lanzó recientemente la d800 con un (en mi opinión) 36.3MP loco. Pero bien, la d800 es una cámara de gama alta, una manera fácil de dejar caer algunos grandes. Pero luego también lanzaron d3200, que tenía como objetivo ser una DSLR de nivel principiante, con 24.2MP. Eso es el doble que el d5000 que compré hace dos años.

Sé que más MP es bueno. Mayor MP = imagen más nítida. Pero, ¿en qué momento estos aumentos en la nitidez se vuelven insignificantes en el mejor de los casos, y los aumentos en el recuento de MP no sirven más que para alardear?

Cuando considera que las personas han estado tomando fotografías magníficas durante décadas, que se tomaron algunas fotos sorprendentes en cámaras réflex digitales tempranas con menos de 10MP, ¿con qué frecuencia será realmente útil 36MP?


1
Esto es exactamente a lo que estaba tratando de llegar ¿Importan los megapíxeles con la tecnología moderna de sensores? .
Lea el perfil el

Todo lo que puedo decir es que incluso cuando no estás viendo cosechas grandes o 100% locas, realmente puedes ver algunos detalles adicionales con la D800.
rfusca

El tamaño de píxel es más relevante para comparar que los megapíxeles, así que tome la raíz cuadrada de la cantidad de píxeles. Ahora está comparando un tamaño de píxel de 3.2 con las primeras réflex digitales, que aparentemente está bien, con el d800 "loco" 6
Matt Grum

@ MattGrum: Estoy confundido acerca de esa última declaración. Cuando dices "tamaño de píxel", ¿te refieres al tamaño de píxel? Si es así, la D800 tiene un paso de píxeles de aproximadamente 4,6 micras. En relación con otras cámaras: 7D = 4.3, D7000 = 4.8, 5D III = 6.2, 1D X = 6.9, D3s = 8.4. El D800 tiene un paso de píxeles más pequeño que casi todos los demás sensores, excepto el 7D (y, una vez lanzado, el D3200, que tendrá un paso de píxeles de aproximadamente 3,8 micras). He llegado a estos números dividiendo la altura física de el sensor (digamos 24 mm, 15,7 mm, 14,9 mm) por las filas de píxeles. No estoy realmente seguro de dónde entra en juego la raíz cuadrada.
jrista

2
@MattGrum: Ah, sí, estoy totalmente de acuerdo contigo allí. :) La diferencia entre el recuento de píxeles "lineal" y el "área" de píxeles. He hecho ese argumento muchas veces recientemente en otros foros ... es un concepto que la gente realmente no entiende. Tal vez podríamos usar una publicación de blog sobre el tema ...
jrista

Respuestas:


16

Megapíxeles son necesarios!

La carrera de megapíxeles ciertamente no es "innecesaria". Constantemente durante la última década, se ha avanzado en el frente de megapíxeles al tiempo que aumenta constantemente la calidad de la imagen. Los refranes anecdóticos lo harían pensar que eso era imposible, pero hay bastantes mejoras tecnológicas y de fabricación que han hecho un ruido más bajo, una mayor relación señal / ruido y un mayor rango dinámico posible a pesar de las áreas de píxeles reducidas.

Creo que la llegada del sensor Sony Exmor de 36.3mp que se usa actualmente en la Nikon D800 es un ejemplo exquisito de lo que las mejoras tecnológicas de bajo nivel pueden hacer para reducir el ruido y aumentar la dinámica, al tiempo que permiten aumentos significativos en la resolución de la imagen. Como tal, creo que la D800 es un excelente ejemplo de por qué la carrera de megapíxeles definitivamente no ha terminado de ninguna manera.

¿En cuanto a si solo se trata de presumir derechos? Lo dudo. Siempre se pueden utilizar mejores herramientas de manera efectiva en manos de un artesano experto. Una resolución más alta y un rango dinámico más bajo de ISO tienen algunos casos de uso específicos de alto valor. A saber, fotografía de paisajes y algunas formas de fotografía de estudio. La D800 se encuentra en un lugar único, que ofrece una calidad de imagen de formato casi medio en un paquete de aproximadamente 1/10 del costo. Para algunos estudios, no hay sustituto para el mejor, y utilizarán cámaras digitales de medio formato de $ 40,000 para brindar la percepción correcta a sus clientes. Sin embargo, para muchos otros estudios y para muchos fotógrafos de paisajes, la D800 es un sueño hecho realidad: un montón de megapíxeles Y un alto rango dinámico.

No, la carrera de megapíxeles definitivamente no ha terminado, y ciertamente no es innecesaria. La competencia en todos los frentes produce progreso en todos los frentes, y eso solo es algo bueno para el consumidor.


Potencial de mejora

Para ir un poco más profundo que mis conclusiones anteriores, hay más en la historia que simplemente que la competencia en todos los frentes es buena. Tecnológica, física y prácticamente, existen limitaciones que de hecho restringirán las ganancias potenciales a medida que continuamos aumentando el recuento de píxeles del sensor. Una vez que hayamos alcanzado esos límites, habrá que obtener ganancias útiles a un costo razonable en otro lugar. Dos áreas donde eso puede ocurrir serían la óptica y el software.

Limitaciones tecnológicas

Tecnológicamente, existen límites distintos en cuanto a cuánto puede mejorar el coeficiente intelectual. La fuente principal de degradación de la imagen en los sensores es el ruido, y hay una variedad de formas de ruido introducidas electrónicamente que pueden controlarse. Creo que Sony, con sus sensores Exmor, está muy cerca de alcanzar límites tecnológicos, si aún no lo han hecho. Han utilizado una variedad de patentes para reducir las fuentes de producción de ruido a nivel de hardware directamente en sus sensores. Las principales fuentes de ruido controlable son el ruido de corriente oscura , el ruido de lectura , ruido de patrón , el ruido no uniformidad , la conversión (o de cuantificación) de ruido , y el ruido térmico .

Tanto Sony como Canon usan CDS , o doble muestreo correlacionado , para reducir el ruido de la corriente oscura. El enfoque de Sony es un toque más eficiente, pero ambos utilizan esencialmente el mismo enfoque. El ruido de lectura es un subproducto de la amplificación debido a las fluctuaciones en la corriente a través del circuito. Hay una variedad de enfoques patentados y experimentales para detectar la variación de voltaje en un circuito y corregirlo durante la amplificación, para producir un resultado de lectura "más puro y preciso". Sony utiliza un enfoque patentado propio en los sensores Exmor, incluido el 36.3mp que se usa en el D800. Los otros dos tipos de ruido electrónico previo a la conversión son ruido de patrón y ruido de no uniformidad.. Estos son el resultado de discontinuidades en la respuesta y eficiencia del circuito.

El ruido de patrón es un aspecto fijo de cada uno de los transistores utilizados para construir un solo píxel del sensor y las puertas electrónicas utilizadas para iniciar la lectura y el vaciado de la señal. A nivel cuántico, es casi imposible hacer que cada transistor sea exactamente idéntico entre sí, y esto produce un patrón fijo de líneas horizontales y verticales en el ruido del sensor. En términos generales, el ruido de patrón es un contribuyente menor al ruido general, y solo es realmente un problema en regiones de SNR muy bajas o durante exposiciones muy largas. El ruido del patrón puede ser relativamente fácil de eliminar dado que aborda el problema correctamente. Se puede construir un "marco oscuro" promediando varias muestras juntas para crear una plantilla de patrón de ruido que se puede diferenciar con un marco de color para eliminar el ruido del patrón. Esto es esencialmente cómo funciona la eliminación de ruido de larga exposición, y también es cómo se puede eliminar manualmente el ruido de patrón fijo de exposiciones prolongadas. A nivel de hardware, el ruido de patrón fijo se puede mitigar mediante la grabación en una plantilla que invierte los efectos de FPN de modo que las diferencias se puedan sumar / restar en el tiempo de lectura, de forma similar a CDS, mejorando así la "pureza" de las lecturas de píxeles. Hoy en día, existe una variedad de enfoques experimentales para grabar en plantillas FPN, así como enfoques más abstractos.

El ruido de no uniformidad, a menudo llamado PRNU o no uniformidad de respuesta de píxeles, es el resultado de ligeras variaciones en la eficiencia cuántica (QE) de cada píxel. QE se refiere a una capacidad de píxeles para capturar fotones, y generalmente se califica como un porcentaje. La Canon 5D III, por ejemplo, tiene un QE del 47%, lo que indica que es lo suficientemente eficiente como para capturar regularmente el 47% de los fotones que alcanzan cada píxel. El QE real por píxel puede variar en +/- un par por ciento, lo que produce otra fuente de ruido, ya que cada píxel puede no capturar la misma cantidad de fotones que sus vecinos a pesar de recibir la misma cantidad de luz incidente. La PRNU también cambia con la sensibilidad, y esta forma de ruido puede exacerbarse a medida que aumenta el ISO. PRNU puede mitigarse normalizando la eficiencia cuántica de cada píxel, minimizando la variación entre vecinos y en toda el área del sensor. Se pueden lograr mejoras en la QE reduciendo la brecha entre los fotodiodos en cada píxel, la introducción de una o más capas de microlentes sobre cada píxel para refractar la luz incidente no fotodioda en el fotodiodo, y el uso de tecnología de sensor retroiluminado (que se mueve mucho o todo el cableado de lectura y los transistores detrás del fotodiodo, eliminando la posibilidad de que puedan obstruir los fotones incidentes y reflejarlos o convertirlos en energía térmica).

El ruido térmico es el ruido introducido por el calor. El calor es esencialmente solo otra forma de energía, y puede excitar la generación de electrones en un fotodiodo de manera muy similar a la de un fotón. El ruido térmico es causado directamente por la aplicación de calor, a menudo a través de componentes electrónicos calientes como un procesador de imagen o ADC. Se puede mitigar aislando térmicamente dichos componentes del sensor o enfriando activamente el sensor.

Finalmente hay ruido de conversión, o ruido de cuantización. Este tipo de ruido se genera debido a imprecisiones inherentes durante el ADC o la conversión de analógico a digital. Una ganancia no integral (una ganancia decimal con parte entera y fraccionaria) se aplica generalmente a la señal de imagen analógica leída desde el sensor al digitalizar una imagen. Dado que una señal analógica y una ganancia son números reales, el resultado digital (integral) de la conversión a menudo es inconsistente. Una ganancia de 1 produciría una ADU por cada electrón capturado por un píxel, sin embargo, una ganancia más realista podría ser 1.46, en cuyo caso podría obtener 1 ADU por electrón en algunos casos y 2 ADU por electrón en otros casos. Esta inconsistencia puede introducir ruido de conversión / cuantificación en la salida digital posterior al ADC. Esta contribución al ruido es bastante baja, y produce una desviación de ruido bastante fina de píxel a píxel. A menudo es bastante fácil de eliminar con la reducción de ruido de software.

La eliminación de formas electrónicas de ruido tiene el potencial de mejorar el punto negro y la pureza negra de una imagen. Cuantas más formas de ruido electrónico pueda eliminar o mitigar, mejor será su relación señal / ruido, incluso para niveles de señal muy bajos. Este es el principal frente en el que Sony ha progresado significativamente con sus sensores Exmor, lo que ha abierto la posibilidad de un verdadero rango dinámico de 14 paradas con una recuperación de sombras realmente impresionante. Esta es también el área principal donde muchas tecnologías de fabricación de sensores de la competencia están rezagadas, en particular los sensores Canon y de formato medio. Los sensores de Canon en particular tienen niveles de ruido de lectura muy altos, niveles más bajos de normalización de QE, QE más bajo en general y solo usan CDS para mitigar el ruido de corriente oscura en sus sensores. Esto da como resultado un rango dinámico general mucho más bajo,

Una vez que todas las formas de ruido electrónico se mitiguen a niveles donde ya no importen, habrá pocos fabricantes que puedan hacer para mejorar dentro de los sensores. Una vez que se alcanza este punto, lo único que realmente importará desde un punto de vista de eficiencia cuántica por píxel es el área de píxeles ... y con características electrónicas casi perfectas, probablemente podríamos soportar tamaños de píxeles considerablemente más pequeños que los sensores DSLR de mayor densidad hoy (que sería la Nikon D800 con sus píxeles de 4,6 micras, la Canon 7D con sus píxeles de 4,3 micras y, finalmente, la Nikon D3200 con píxeles de 3,8 micras). Los sensores de los teléfonos celulares usan píxeles alrededor del tamaño de 1 micra, y han demostrado los píxeles son viables y pueden producir un coeficiente intelectual bastante decente. La misma tecnología en una DSLR podría ir aún más lejos con la máxima reducción de ruido,

Limitaciones físicas

Más allá de las limitaciones tecnológicas para la perfección de la calidad de imagen, existen algunas limitaciones físicas. Las dos limitaciones principales son el ruido de fotones y la resolución espacial . Estos son aspectos de la realidad física y son cosas sobre las que realmente no tenemos mucho control. No pueden mitigarse con mejoras tecnológicas, y están (y han estado) presentes independientemente de la calidad de nuestro equipo.

Ruido de fotones o disparo de fotonesruido, es una forma de ruido debido a la naturaleza inherentemente impredecible de la luz. En un nivel cuántico, no podemos predecir exactamente qué píxel podría golpear un fotón, o con qué frecuencia los fotones podrían golpear un píxel y no otro. Podemos adaptar aproximadamente los ataques de fotones a una curva de probabilidad, pero nunca podemos hacer que el ajuste sea perfecto, por lo que los fotones de una fuente de luz uniforme nunca se distribuirán perfecta y uniformemente sobre el área de un sensor. Este aspecto físico de la realidad produce la mayor parte del ruido que encontramos en nuestras fotografías, y la amplificación de esta forma de ruido por los amplificadores del sensor es la razón principal por la que las fotos se vuelven más ruidosas en configuraciones ISO más altas. Las relaciones señal / ruido más bajas significan que hay menos rango de señal total dentro del cual capturar y amplificar fotones, por lo tanto, una SNR más alta puede ayudar a mitigar los efectos del ruido de fotones y ayudarnos a lograr configuraciones ISO más altas ... sin embargo, el ruido de fotones en sí mismo no se puede eliminar y siempre será una limitación en el coeficiente intelectual de la cámara digital. El software puede desempeñar un papel en la minimización del ruido de disparo de fotones, y como hay cierta previsibilidad en la luz, los algoritmos matemáticos avanzados pueden eliminar la gran mayoría de esta forma de ruido después de que una foto se haya tomado e importado en formato RAW. La única limitación real aquí sería la calidad, precisión y precisión del software de reducción de ruido. Los algoritmos matemáticos avanzados pueden eliminar la gran mayoría de esta forma de ruido después de que una foto ha sido tomada e importada en formato RAW. La única limitación real aquí sería la calidad, precisión y precisión del software de reducción de ruido. Los algoritmos matemáticos avanzados pueden eliminar la gran mayoría de esta forma de ruido después de que una foto ha sido tomada e importada en formato RAW. La única limitación real aquí sería la calidad, precisión y precisión del software de reducción de ruido.

La resolución espacial es otro aspecto físico de las imágenes bidimensionales con las que tenemos que trabajar. Las frecuencias espaciales, o formas de onda bidimensionales de luminosidad variable, son una forma de conceptualizar la imagen proyectada por una lente y grabada por un sensor. La resolución espacial describe la escala de estas frecuencias y es un atributo fijo de un sistema óptico. Cuando se trata de sensores, la resolución espacial es una consecuencia directa del tamaño del sensor y la densidad de píxeles.

La resolución espacial a menudo se mide en pares de líneas por milímetro (lp / mm) o ciclos por milímetro. El D800 con sus píxeles de 4,3 micras, o 4912 filas de píxeles en 24 mm de altura del sensor, es capaz de 102,33 lp / mm. Curiosamente, la Canon 7D, con sus 3456 filas de píxeles en 14.9 mm de altura del sensor, es capaz de 115.97 lp / mm ... una resolución más alta que la D800. Del mismo modo, la Nikon D3200 con 4000 filas de píxeles en 15,4 mm de altura del sensor será capaz de 129,87 lp / mm. Tanto el 7D como el D3200 son APS-C, o sensores de marco recortado ... más pequeños en dimensiones físicas que el sensor de marco completo del D800. Si siguiéramos aumentando el número de megapíxeles en un sensor de fotograma completo hasta que tuvieran el mismo tamaño de píxel que el D3200 (3,8 micras) podríamos producir un sensor de 9351x6234 píxeles, o 58.3mp. Podríamos llevar este pensamiento al extremo, y suponga que es posible producir un sensor DSLR de fotograma completo con el mismo tamaño de píxel que el sensor en el iPhone 4 (que es conocido por tomar algunas fotos muy buenas con IQ que, aunque no tan bueno como el de una DSLR, es más que aceptable), que es 1.75 micras. ¡Eso se traduciría en un sensor de 20571x13714 píxeles, o 282.1mp! Tal sensor podría tener una resolución espacial de 285.7 lp / mm, un número que, como verá en breve, tiene una aplicabilidad limitada.

La verdadera pregunta es si tal resolución en un factor de forma DSLR sería beneficiosa. La respuesta a eso es potencialmente. La resolución espacial de un sensor representa un límite superior de lo que podría ser posible con toda la cámara, suponiendo que tuviera una lente correspondiente capaz de producir suficiente resolución para maximizar el potencial del sensor. Las lentes tienen sus propias limitaciones físicas inherentes a la resolución espacial de las imágenes que proyectan, y esas limitaciones no son constantes ... varían con la apertura, la calidad del vidrio y la corrección de la aberración. La difracción es otro atributo físico de la luz que reduce la resolución potencial máxima a medida que pasa a través de una abertura cada vez más estrecha (en el caso de una lente, esa abertura es la abertura). Aberraciones ópticas, o imperfecciones en la refracción de la luz por una lente, son otro aspecto físico que reduce la resolución potencial máxima. A diferencia de la difracción, Las aberraciones ópticas aumentan a medida que se amplía la apertura. La mayoría de las lentes tienen un "punto óptimo" en cuyo punto los efectos de las aberraciones ópticas y la difracción son aproximadamente equivalentes, y la lente alcanza su máximo potencial. Una lente "perfecta" es una lente que no tiene ninguna aberración óptica de ningún tipo, y por lo tantoDifracción limitada . Las lentes a menudo se convierten en difracción limitada alrededor de aproximadamente f / 4.

La resolución espacial de una lente está limitada por la difracción y las aberraciones, y a medida que aumenta la difracción a medida que se detiene la apertura, la resolución espacial se reduce con el tamaño de la pupila de entrada. En f / 4, la resolución espacial máxima de una lente perfecta es 173 lp / mm. En f / 8, una lente de difracción limitada es capaz de 83 lp / mm, que es casi lo mismo que la mayoría de las DSLR de fotograma completo (excluyendo la D800), que van desde aproximadamente 70-85 lp / mm. Con f / 16, una lente de difracción limitada es capaz de apenas 43 lp / mm, la mitad de la resolución de la mayoría de las cámaras de fotograma completo y menos de la mitad de la resolución de la mayoría de las cámaras APS-C. Más ancho que f / 4, para una lente que aún se ve afectada por aberraciones ópticas, la resolución puede caer rápidamente a 60 lp / mm o menos, y tan baja como 25-30 lp / mm para cebadores ultra rápidos de ángulo amplio f / 1.8 o más rápidos . Volviendo a nuestra teoría 1. Sensor de 75 micras de píxeles 282mp FF ... sería capaz de una resolución espacial de 285 lp / mm. Necesitaría una lente f / 2.4 perfecta, limitada por difracción para lograr esa resolución espacial. Tal lente requeriría una corrección de aberración extrema, lo que aumentaría enormemente el costo. Existen algunas lentes que pueden lograr características casi perfectas en aperturas aún más anchas (una lente especializada de Zeiss viene a la mente que supuestamente es capaz de aproximadamente 400 lp / mm, lo que requeriría una apertura de aproximadamente f / 1.6-f / 1.5), Sin embargo, son raros, altamente especializados y extremadamente caros. Es mucho más fácil lograr la perfección en torno a f / 4 (si las últimas décadas de producción de lentes son una pista), lo que indica que la resolución máxima viable y rentable para una lente es de aproximadamente 173 lp / mm o un toque menos. Sería capaz de una resolución espacial de 285 lp / mm. Necesitaría una lente f / 2.4 perfecta, limitada por difracción para lograr esa resolución espacial. Tal lente requeriría una corrección de aberración extrema, lo que aumentaría enormemente el costo. Existen algunas lentes que pueden lograr características casi perfectas en aperturas aún más anchas (una lente especializada de Zeiss viene a la mente que supuestamente es capaz de aproximadamente 400 lp / mm, lo que requeriría una apertura de aproximadamente f / 1.6-f / 1.5), Sin embargo, son raros, altamente especializados y extremadamente caros. Es mucho más fácil lograr la perfección en torno a f / 4 (si las últimas décadas de producción de lentes son una pista), lo que indica que la resolución máxima viable y rentable para una lente es de aproximadamente 173 lp / mm o un toque menos. Sería capaz de una resolución espacial de 285 lp / mm. Necesitaría una lente f / 2.4 perfecta, limitada por difracción para lograr tanta resolución espacial. Tal lente requeriría una corrección de aberración extrema, lo que aumentaría enormemente el costo. Existen algunos lentes que pueden lograr características casi perfectas en aperturas aún más anchas (un lente especializado de Zeiss viene a la mente que supuestamente es capaz de aproximadamente 400 lp / mm, lo que requeriría una apertura de aproximadamente f / 1.6-f / 1.5), Sin embargo, son raros, altamente especializados y extremadamente caros. Es mucho más fácil lograr la perfección alrededor de f / 4 (si las últimas décadas de producción de lentes son una pista), lo que indica que la resolución máxima viable y rentable para una lente es de aproximadamente 173 lp / mm o un toque menos. 4 lentes para lograr esa resolución espacial. Tal lente requeriría una corrección de aberración extrema, lo que aumentaría enormemente el costo. Existen algunos lentes que pueden lograr características casi perfectas en aperturas aún más anchas (un lente especializado de Zeiss viene a la mente que supuestamente es capaz de aproximadamente 400 lp / mm, lo que requeriría una apertura de aproximadamente f / 1.6-f / 1.5), Sin embargo, son raros, altamente especializados y extremadamente caros. Es mucho más fácil lograr la perfección alrededor de f / 4 (si las últimas décadas de producción de lentes son una pista), lo que indica que la resolución máxima viable y rentable para una lente es de aproximadamente 173 lp / mm o un toque menos. 4 lentes para lograr esa resolución espacial. Tal lente requeriría una corrección de aberración extrema, lo que aumentaría enormemente el costo. Existen algunos lentes que pueden lograr características casi perfectas en aperturas aún más anchas (un lente especializado de Zeiss viene a la mente que supuestamente es capaz de aproximadamente 400 lp / mm, lo que requeriría una apertura de aproximadamente f / 1.6-f / 1.5), Sin embargo, son raros, altamente especializados y extremadamente caros. Es mucho más fácil lograr la perfección alrededor de f / 4 (si las últimas décadas de producción de lentes son una pista), lo que indica que la resolución máxima viable y rentable para una lente es de aproximadamente 173 lp / mm o un toque menos. Existen algunos lentes que pueden lograr características casi perfectas en aperturas aún más anchas (un lente especializado de Zeiss viene a la mente que supuestamente es capaz de aproximadamente 400 lp / mm, lo que requeriría una apertura de aproximadamente f / 1.6-f / 1.5), Sin embargo, son raros, altamente especializados y extremadamente caros. Es mucho más fácil lograr la perfección alrededor de f / 4 (si las últimas décadas de producción de lentes son una pista), lo que indica que la resolución máxima viable y rentable para una lente es de aproximadamente 173 lp / mm o un toque menos. Existen algunos lentes que pueden lograr características casi perfectas en aperturas aún más anchas (un lente especializado de Zeiss viene a la mente que supuestamente es capaz de aproximadamente 400 lp / mm, lo que requeriría una apertura de aproximadamente f / 1.6-f / 1.5), Sin embargo, son raros, altamente especializados y extremadamente caros. Es mucho más fácil lograr la perfección alrededor de f / 4 (si las últimas décadas de producción de lentes son una pista), lo que indica que la resolución máxima viable y rentable para una lente es de aproximadamente 173 lp / mm o un toque menos.

Cuando tenemos en cuenta las limitaciones físicas en la ecuación de cuándo terminará la carrera de megapíxeles, encontramos que (suponiendo una perfección casi tecnológica) la resolución más rentable es de 173 lp / mm. Se trata de un sensor APS-C de fotograma completo de 103mp o 40mp. Cabe señalar que empujar la resolución del sensor tan alto solo verá los beneficios en una banda de apertura cada vez más estrecha alrededor de aproximadamente f / 4, donde el rendimiento del objetivo es óptimo. Si la corrección de las aberraciones ópticas se vuelve más fácil, es posible que podamos lograr resoluciones más altas, empujando 200 lp / mm, pero nuevamente, tales resoluciones solo serían posibles en o cerca de la apertura máxima, mientras que en todas las otras aberturas, la resolución general de su la cámara será más baja, potencialmente mucho más baja de lo que el sensor mismo es capaz de hacer.


Entonces, ¿cuándo termina la carrera de megapíxeles?

Contestar esta pregunta no es realmente algo que creo que alguien esté calificado para responder. En última instancia, es una elección personal y dependerá de una variedad de factores. Es posible que algunos fotógrafos siempre quieran el potencial que los sensores de mayor resolución pueden ofrecer en la apertura ideal, siempre que estén fotografiando escenas con detalles cada vez más finos que requieren tal resolución. Otros fotógrafos pueden preferir la percepción mejorada de la nitidez que se logra al mejorar las características de los sensores de baja resolución. Para muchos fotógrafos, creo que la carrera de megapíxeles ya ha terminado, con alrededor de 20mp en un paquete DSLR FF es más que suficiente. Aún más, muchos fotógrafos ven la calidad de imagen en una luz completamente diferente, prefiriendo la velocidad de fotogramas y la capacidad de capturar más fotogramas de forma continua a una resolución más baja para su éxito como fotógrafo. En tales casos, muchos fanáticos de Nikon han indicado que alrededor de 12mp es más que suficiente siempre que puedan capturar 10 fotogramas por segundo con una claridad nítida.

Tecnológica y físicamente, todavía hay una enorme cantidad de espacio para crecer y continuar obteniendo ganancias en términos de megapíxeles y resolución. Donde la carrera nos termina a ti. La diversidad de opciones en la mesa nunca ha sido tan alta como hoy, y usted es libre de elegir la combinación de resolución, tamaño del sensor y capacidades de la cámara como AF, ISO y DR que se adapten a sus necesidades.


Una vez que llegamos a una etapa en la que podemos tomar una imagen para una valla publicitaria de 14x48 pies a 300 ppp con un zoom digital equivalente de 2400 mm, no puedo ver que la carrera termine antes de esto, y puede continuar después. Por lo que puedo decir, esto equivale a 14 * 12 * 300 * 48 * 12 * 300 * (2400/35) ^ 2 / 1,000,000 = 40,950,638 megapíxeles. Si dejara de lado el requisito de zoom digital, esto seguiría siendo 8709 megapíxeles. A 8709MP, un sensor de fotograma completo de 36 mm de ancho tendría un ancho de píxel de aproximadamente 208 nm. Las CPU Intel 2012 usan tecnología de 22 nm .
BeowulfNode42

...continuado. Me doy cuenta de que las ondas de luz visible son más grandes que esto a aproximadamente 390 nm ~ 700 nm. Pero todavía tenemos un buen camino por recorrer antes de que esto sea críticamente limitante.
BeowulfNode42

No estoy seguro de lo que quieres decir con el zoom digital. Eso es básicamente una ampliación en la publicación, y no lo llevaría a ninguna parte remotamente cerca de 300ppi a 14x48 pies. Quiero decir, ciertamente podrías hacer eso ... pero no tiene sentido hacerlo ... solo tendrías detalles de imagen borrosa masivamente. También podría seguir imprimiendo a 15ppi. En cuanto a la distancia entre píxeles, una vez que alcanzan los 700 nm, filtran la luz roja. Por 550 nm están filtrando luz verde, y por 460 nm están filtrando luz azul. Nunca habrá 208nm píxeles para luz visible.
jrista

En cuanto a dónde están hoy los tamaños de píxeles ... la próxima generación de sensores de factor de forma pequeño usará píxeles de 0,95 µm ... eso es 950 nm. La próxima generación después de eso es probablemente de 825 nm, después de lo cual alcanzamos esa limitación de longitud de onda ... No creo que veamos 700 nm de píxeles en ningún sensor. Por supuesto, estos píxeles no se utilizarán en sensores FF o APS-C durante mucho tiempo, pero tecnológicamente hablando, ya nos estamos acercando bastante al límite de megapíxeles (en referencia al paso de píxeles). Finalmente, no es No es realmente lógico aplicar tamaños de transistor de CPU a los tonos de píxeles. Intel usa 22nm ...
jrista

... transistores. Los píxeles son diferentes. El área de píxeles es crítica para la capacidad de captación de luz, que se relaciona directamente con los niveles de ruido. Un píxel de 22 nm es simplemente ilógico. Los tamaños de los transistores del sensor ya se están volviendo bastante pequeños. Canon todavía usa 500 nm, pero la última generación usó transistores de 180 nm, y las generaciones más nuevas usan 90 nm y algunas incluso 65 nm. Las siguientes paradas para el tamaño del transistor del sensor son 45 nm y quizás 32 nm (aunque realmente no espero ver 32 nm en uso hasta un paso de píxeles de 825 nm, si incluso lo vemos allí, ya que no es necesario con BSI.)
jrista

7

Dejando a un lado los problemas de velocidad / almacenamiento, tener más megapíxeles va a hacer que cada foto que tome sea mejor. Tal vez solo un poco mejor en algunos casos, pero eso suena como algo que vale la pena tener para mí.

Si alguna vez ha tenido una imagen que sufre de muaré (patrones de bandas de color):

Artefactos de laberinto:


(fuente: gol.com )

Aliasing:

http://cdn.asia.cnet.com/i/r/2005/dc/39095631/4.jpg

Bordes de color, detalles falsos, falta de detalles de color o cualquier otro artefacto de demostración, sus problemas se resolverían si tuviera más megapíxeles.

Eventualmente veo sensores DSLR de 80-100 MP, en este punto no querrá almacenar cada píxel cada vez, sino un modo RAW reducido de resolución reducida, como el mRAW de Canon que le proporcionará una imagen con detalles de color excepcionales similares a lo que se puede lograr con sensores Foveon pero a una resolución mucho más alta.


1
Una nota sobre Canon s / mRAW. Usé esos formatos durante un par de meses después de comprar mi Canon 7D. Si bien se llaman RAW, están muy lejos del formato RAW nativo real desde una perspectiva de procesamiento posterior. Al procesar un archivo mRAW, noté notables limitaciones sobre hasta dónde podía llevar la exposición, la saturación, la tonificación, etc. en comparación con el raw nativo. En muchos casos, el mRAW falló miserablemente al tratar de recuperar reflejos o levantar sombras. Incluso con un sensor de 100mp, siempre preferiría el RAW nativo, ya que la interpolación previa de los píxeles impone muchos límites.
jrista

"Bordes de color, detalles falsos, falta de detalles de color o cualquier otro artefacto de demostración, entonces sus problemas se resolverían si tuviera más megapíxeles". Siempre supuse que la lente produce el borde de color, no el sensor: ¿cómo resolvería esto una mayor resolución del sensor? ¿No lo haría "peor", es decir, empujar los límites de las lentes para que los artefactos y defectos ópticos generales sean más visibles?
MattiaG

@MattiaGobbi: se está refiriendo a los artefactos de demostración, que incluye una forma de franja de color que resulta de algoritmos de demostración muy básicos, no la franja de color producida por las aberraciones de lentes.
jrista

@jrista - Gracias, echaré un vistazo a esto. No puedo dejar de pensar que el demosaicing en su forma básica se supone que hace que la imagen sea más suave, ya que tres de cada cuatro píxeles en la imagen final tienen, como una forma de hablar, un color que es el promedio de los colores del píxel circundante. Esto también explica la baja precisión del color en los bordes. ¿Podrían generarse artefactos más complejos mediante algoritmos destinados a mejorar la nitidez y el color dentro del proceso de demoisaicing?
MattiaG

@MattiaGobbi: El propósito del demosaicing no es suavizar la imagen ... es interpolar los canales de color individuales de un sensor bayer en píxeles RGB. Hay bastantes algoritmos de demostración. Uno de los más comunes es el demosaicing AHD, que es un algoritmo ponderado que elimina la mayoría de las franjas de color y produce resultados bastante nítidos. También hay una variedad de otros enfoques que se usan en editores RAW de código abierto y herramientas de astrofotografía que son más rápidas, más precisas, diseñadas para extraer la mayor cantidad de detalles posible, etc.
jrista

2

No estoy totalmente en desacuerdo con lo que otros han dicho, pero la respuesta depende en parte de lo que más valoras. Estoy más interesado en un alto rendimiento ISO de bajo ruido con resolución de píxeles importante pero secundaria. Otros tienen prioridades muy diferentes. Tengo una cámara APSC A77 de 24 MP que está a la vanguardia del rendimiento de mp APSC, pero notablemente detrás de algunas cámaras APSC en las áreas que más me interesan.

Después de haber analizado los resultados de la D700, D3, D3s, D3x, 5DMkII, 5DMkIII, A800 y D4, mi conclusión es que en la actualidad la carrera de megapíxeles ha superado el alto rendimiento ISO y que en la actualidad para mis propósitos la "mejor actuación" La cámara es la Nikon D3s lanzada en octubre de 2009. Según los números, nada más lo iguala, y según tengo entendido que el rendimiento realmente funciona en el mundo real, nada más se acerca.


El siguiente tipo de material tiende a producir guerras de llamas. Estoy intentando describir simplemente lo que veo. Los ojos de otras personas pueden funcionar de manera diferente :-).

Estoy personalmente decepcionado con el D800 y su sensor de 36 mp. Había estado esperando algo que fuera una cabeza y hombros claros por encima del D700 y que pudiera desmantelar suavemente los D3.

El sensor DXOMark evalúa la evaluación ISO con poca luz

de ninguna manera es la guía definitiva de qué tan bien funciona una cámara en tales situaciones en condiciones del mundo real, pero es una buena guía de lo que razonablemente se puede esperar. La clasificación establece una configuración ISO en la que la cámara solo supera 3 requisitos mínimos.

El D700 de 4 años tiene un sensor DxO con una clasificación ISO baja de 2303 ISO y la D800 tiene una clasificación de 2853 ISO. El nuevo D4 tiene una clasificación de 2965 ISO y el que alguna vez fue el rey de esta medida es el (convirtiéndose en legendario) D3s en 3253 ISO. PEROestas clasificaciones se ajustan a un tamaño de imagen estándar de 12 mp con la clasificación ISO en la prueba que se escala por un factor de raíz cuadrada (megapíxeles / 12 megapíxeles). Por el contrario, para obtener lo que vieron en la prueba, escale la racha hacia abajo en sqrt (12 / mp). Por lo tanto, el D800 con 36 mp es un factor 0f sqrt (36/12) = sqrt (3) = 1.732 más alto en el gráfico de informes que el realmente medido. Entonces lo midieron como 2853 / 1.73 = ~ 1650 ISO. La justificación dada para el escalado es que el "ruido" en una imagen se reduce matemáticamente mediante la disminución de muestreo debido al promedio de la información en las celdas adyacentes. En teoría, la escala por un factor relacionado con sqrt (megapíxeles) tiene sentido. Pero, al mirar imágenes, no estoy convencido. Dicen que una cámara con mayor ruido absoluto a relaciones de señal por píxel pero más mp producirá un resultado mejorado cuando se reduzca la escala. Matemáticas dice que sí. El sistema ojo-cerebro dice que el efecto es mucho menor de lo que sugiere la escala. Probablemente podría desenterrar los ejemplos específicos de los que saqué estas conclusiones hace algún tiempo, pero esto es subjetivo y hay suficientes comparaciones para permitir que cada uno encuentre su versión favorita.

La EOS 5D MkII (NO III) tiene una clasificación DXO ISO de 1815 contra ISO 2303 para la D700. Pero la comparación de imágenes de escenas idénticas tomadas en condiciones de iluminación idénticas con lentes equivalentes en configuraciones ISO altas y convertidas al mismo tamaño de imagen muestra una diferencia extremadamente significativa entre las dos. Tan genial que no consideraría un 5DkII ni siquiera por esta razón.

Todavía no he visto suficiente salida de D800 para ser firme en las conclusiones, pero lo que he visto indica que un D700 de segunda mano puede ser una opción muy atractiva y posiblemente superior si su rendimiento con poca luz y alto ISO es su prioridad. . Y un D3s es mejor para la cabeza y los hombros.


Un excelente artículo "imprescindible" . Complementa la excelente respuesta de JRista.
Ruido, rango dinámico y profundidad de bits en cámaras réflex digitales

También se refiere a:

IRIS: software de procesamiento de imágenes gratuito con sesgo de fotografía astronómica , pero útil para mucho más.

Software de procesamiento de imágenes IMAGEJ gratuito de US NIH


¿Puede proporcionar un enlace que muestre imágenes 5D2 y D700 de escenas idénticas tomadas en condiciones de iluminación idénticas con lentes equivalentes en configuraciones ISO altas y convertidas al mismo tamaño de imagen? Me resulta difícil creer que la diferencia sea "extremadamente significativa"
Matt Grum

@MattGrum: intentaré encontrar las imágenes que me convencieron de que el D700 era mi objetivo final (si ignoramos los D3). He estado esperando un D700 o lo que sea, por lo que el D800 es una gran decepción. Maravilloso juguete, pero no el siguiente paso hacia "ver en la oscuridad" que esperaba. Sony tendrá 2 x FF más adelante este año y uno debería usar el sensor D800 más o menos, por lo que puede haber alguna esperanza para el otro. PERO Sony tiene un registro muy pobre con un alto ruido ISO en comparación con Nikon con el mismo sensor. Mi A700 era <D300 hasta el software Rev 4.
Russell McMahon

3
También hay un punto que con frecuencia se pierde cuando se discute este problema y es que puede aplicar una reducción de ruido más fuerte a imágenes de megapíxeles altos sin artefactos. Esto se debe a que el ruido es mucho más fino y cae entre los detalles en lugar de oscurecerlos. Si el promedio de muestreo descendente directo mejora el ruido en un factor de 1.73, un esquema sofisticado de reducción de ruido debería ser mucho mejor. Para una cantidad fija de luz entrante, el aumento de megapíxeles le brinda más información (sobre dónde cae la luz) incluso si el ruido por píxel es mayor.
Matt Grum

2

Solía ​​pensar que los parlamentarios están sobrevalorados, hasta que hice un experimento con sobremuestreo. Inspirado por la regla general de muestreo de audio para muestrear el doble de la frecuencia que necesita. Las ondas de 22K se muestrean con 44k, pero si dibujas las figuras solo obtendrás la onda si está en fase perfecta. También puede arriesgarse a muestrear solo ceros. Necesita al menos un sobremuestreo 4x para obtener la onda y su forma (puede ser un diente de sierra o un seno, no puede saber con 2x la frecuencia de muestreo). Muestra de equipo de audio profesional internamente 192khz y luego muestra a 48k o 44k.

Descubrí que lo mismo ocurre con las fotos: si desea terminar con una imagen de 1024x768, la mejor frecuencia que puede lograr es donde cada segundo píxel esté oscuro y la alternativa cada segundo píxel sea brillante (llamémosle textura). Si toma la imagen a 1024x768, es posible que se pierda la fase de esa textura, o simplemente se borre debido a que la "resolución real del sistema" es baja o la demostración de bayer ciertamente la arruinará. Por lo tanto, debe tomar al menos una imagen de 4096x3072 sin tener en cuenta el demosiacking de bayer, por lo que elegiría el doble para tener en cuenta el bayer, es decir. 8192x6144.

El muestreo descendente debe ser mejor que el bilineal o bicúbico para obtener el beneficio. Un filtro basado en sinc es lo mejor, por ejemplo, lanzcos.

1: 1 vs sobremuestreado y luego disminuido con lanczos:

Sobremuestreo


Buenos puntos. Tenga en cuenta que, dado que una imagen es un aumento de imagen 2D en MP, es el cuadrado de la tasa de sobremuestreo. Entonces, el sobremuestreo 2X es 4 veces más MP, y el sobremuestreo 4X es 16 veces más MP, el sobremuestreo 8X es 64 veces más MP.
BeowulfNode42

Lo sé. tenga en cuenta que no (a diferencia de la mayoría de las personas) cuento la resolución en MP. Trabajo con cámaras en muchas relaciones de aspecto diferentes (p. Ej., 1x12000, que entonces era una cámara de 0.012MP pero tenía la mejor resolución en un eje que una cámara de 4: 3 36MP). Puedes ver esto en mis ejemplos de resolución.
Michael Nielsen

1

Solía ​​pensar que la carrera de megapíxeles era un poco tonta, hasta que me di cuenta de que las cámaras de alta gama de 36 MP hacen que los equipos de gama baja (pero perfectamente utilizables) sean mucho más asequibles. Si alguien necesita comprar una cámara que pueda imprimir impresiones en tamaño de cartelera, ¡genial! Mientras tanto, el resto de nosotros sacamos muchas fotos geniales (para nuestras modestas necesidades) en nuestros iPhones y prosumer Nikons.


El iPhone 4 y algunos de los androides recientes toman fotos increíbles. Espero que coman el mercado de p + s completamente en unos pocos años. Y espero que coman en el mercado de superzoom / dslr de gama baja. La buena noticia es que la ley de Moore es válida, por lo que nuestras mejores DSLR APS-C continuarán mejorando.
Pat Farrell el

¿La ley de Moore también cuenta en óptica? Quiero decir que la parte "digital", donde la ley de Moore podría funcionar, solo comienza dentro del cuerpo de la cámara.
Esa Paulasto

0

Te daré una respuesta breve y útil (espero)

Muchas de las respuestas dadas antes que yo tienen gran información, así que no las descarte

Pero para responder la pregunta de: ¿Con qué frecuencia va a ser útil 36MP? Depende de su situación Amateur, que nunca imprime y solo muestra digitalmente. Nunca.

Aficionado que imprime a veces. Ocasionalmente, si ocasionalmente imprime más grande que A4

Pro, por varios motivos. Muy a menudo

Para las personas que nunca imprimen o no van más allá del tamaño del póster, nunca verán ninguna utilidad en nada más que 10-12 y tiene desventajas, por ejemplo, al disparar en RAW (todos disparan en RAW, ¿no? ) los tamaños de imagen en el 21MP 5DmkII son alrededor de 24Mb, me han dicho que los tamaños de imagen en el D800 son alrededor de 30Mb, lo que puede llenar las tarjetas muy rápidamente, así que si obtienes una buena cámara de 10-12 MP y no imprimes más de póster, obtendrá el triple de imágenes en una tarjeta y no podrá notar la diferencia que si hubiera gastado una cantidad enorme más en la D800

espero que esto ayude


3
¿Qué tal el cultivo? Por ejemplo, un aficionado sin lente ultra telefoto de nivel profesional. ¿No ayudarían los megapíxeles?
Imre

1
Estoy con @Imre aquí ... más megapíxeles es de suma importancia cuando no puede permitirse los lentes de $ 10,000 + necesarios para obtener el tipo de alcance que necesita para capturar las fotografías que necesita. El recorte es la única alternativa, y una cámara como la D800 ofrece algunas capacidades de recorte asombrosas. En cuanto al espacio ... el espacio es barato. Puede obtener 128 Gb de espacio CF por un par de cientos de dólares, que es menos del 10% del costo del D800. En términos relativos, las fotos de 30mp son un pequeño precio a pagar por el coeficiente intelectual y la capacidad de recorte que obtienes.
jrista

Robert Capa dijo: "Si tus fotos no son lo suficientemente buenas, no estás lo suficientemente cerca" Recortar después de que el hecho nunca sea un reemplazo para aprender a enmarcar correctamente en primer lugar.
Richard

Recortar después del hecho nunca es un reemplazo para aprender a enmarcar correctamente en primer lugar. A menos que esté fotografiando la vida silvestre, será poco común que necesite una lente de más de 200 mm y hay docenas de lentes a esa distancia focal o menos por un precio bastante económico. Trabajando en esta industria, solo he usado una lente de más de 200 mm en dos circunstancias (para la Fórmula 1, donde por seguridad no podríamos acercarnos y la vida silvestre) Las más comunes son 50 mm, 85 mm y 100 mm, por lo que 24-70 y 70-200 cubrirá todo
Richard

1
Sí, a menos que esté fotografiando vida silvestre , que es exactamente lo que a muchos aficionados les gusta hacer.
Imre

0

Acabo de recibir mi D800E a la que me mudé de una D200. He medido 100 lppm con esta cosa usando el enfoque automático con un sigma 24 1.8 en f4. Todavía no he impreso nada ya que lo he tenido solo 2 días. Pude excitar el muaré disparando un objetivo de prueba, pero solo era visible en el monitor, CaptureNX2 lo eliminó con un ajuste demosiaco bajo. Tengo un 55 nikkor que se ve más nítido, pero realmente no puede ser mejor que 100 debido al sensor. La gran ventaja es, por supuesto, que 100 lppm se extienden a través de un sensor FF y eso es una gran cantidad de bienes inmuebles de imagen real. Finalmente puedo disparar sin tener que componer el cuadro con tanta fuerza. Incluso puedo disparar 645 o cuadrado: será una gran libertad para mi estilo donde me gusta enmarcar para el sujeto. o al menos eso es lo que espero


-3

Nadie ha estado tomando hermosas fotos digitales durante décadas. A comienzos de este siglo, mucha gente pensaba que la película era muy superior. En estos días, ese argumento ha sido resuelto.

No es cierto que más píxeles signifique una imagen más nítida, hay límites debido a la difracción de la lente que proporcionan un límite. Por supuesto, si usa un sensor más grande, puede evitar ese problema para el sensor práctico, razón por la cual muchos profesionales ahora pasan de 35 mm (fotograma completo) a imágenes de 6x4.5.

A menudo, el recuento de megapíxeles es solo una pelusa de marketing, para engañar a las personas que no conocen mejor. Pero a veces más es mejor.

Es un tema más complejo de lo que sugieren los prejuicios de su pregunta.


Lo que estás diciendo sobre la difracción es cierto. Roger Cicala en lensrentals.com tiene una buena publicación de blog con números que muestran el efecto (pequeño) de la difracción.
Håkon K. Olafsen
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.