¿Por qué los píxeles efectivos son mayores que la resolución real?


16

Esta página compara las cámaras Canon EOS 550D y Canon EOS 500D y menciona

18,7 millones de píxeles efectivos

para 550D. Sin embargo, la mejor resolución posible con esta cámara es

5184 * 3456 = 17915904 ~ 17.9 million pixels

¿Qué son los píxeles efectivos y por qué ese número es superior a 17,9 millones en este caso?


1
También tenga en cuenta que "resolución" tiene dos significados. En las computadoras, lo usamos para referirnos a las dimensiones en píxeles de una pantalla o imagen. Y en un dibujo por computadora o una imagen generada, eso generalmente corresponde a la resolución "real": la cantidad de detalles realmente resueltos en la imagen. Pero en una fotografía, no es necesariamente el caso.
mattdm

1
Eso no es lo que está sucediendo aquí, solo una fuente adicional de confusión.
mattdm

Respuestas:


9

Parte de lo que estamos viendo aquí es (estoy razonablemente seguro) nada más que un simple error tipográfico (o algo en ese orden) por parte de DPReview.com. Según Canon , [PDF, página 225] el número de pocillos en el sensor es "Aprox. 18.00 megapíxeles".

Esos se reducen a aproximadamente 17,9 megapíxeles cuando las entradas del patrón Bayer se convierten en lo que la mayoría de nosotros pensaría como píxeles. La diferencia es bastante simple: cada pocillo en el sensor solo detecta un color de luz, pero un píxel como normalmente lo espera en la salida (por ejemplo, un archivo JPEG o TIFF) tiene tres colores para cada píxel. A primera vista, podría parecer que eso significaría que un archivo tendría solo aproximadamente un tercio de píxeles que hay pozos de sensores en la entrada. Obviamente, ese no es el caso. Aquí está (una vista simplificada de) cómo funcionan las cosas:

patrón simplificado de Bayer

Cada letra representa un pozo en el sensor. Cada cuadro representa un píxel tricolor como irá en el archivo de salida.

En la parte "interior" del sensor, cada píxel de salida depende de la entrada de cuatro pocillos del sensor, pero cada pocillo del sensor se usa como entrada a cuatro píxeles de salida diferentes, por lo que el número de entradas y el número de salidas sigue siendo el mismo.

Sin embargo, alrededor de los bordes, tenemos pozos sensores que solo contribuyen a dos píxeles en lugar de cuatro. En las esquinas, cada sensor solo contribuye a un píxel de salida.

Eso significa que el número total de píxeles de salida es menor que el número de pocillos de sensores. Específicamente, el resultado es más pequeño en una fila y una columna en comparación con la entrada (por ejemplo, en el ejemplo, tenemos un sensor de 8x3, pero píxeles de salida de 7x2).


+1 especialmente para el diagrama. Pero todavía estoy perplejo, porque esto explicaría la ausencia de 2 (5184-1 + 3456-1) = aproximadamente 17K píxeles, que simplemente se perderían en el redondeo en la computación 18.0 - 17.9 = 0.1M píxeles. Parece que se deben quitar al menos tres veces más píxeles del límite (porque cualquier cosa menor a 50K debería redondearse a 0.0M). Quizás el demosaicing está usando un vecindario más grande que los 2 x 2 que se muestran aquí: ¿tal vez está usando alrededor de un vecindario 7 x 7?
whuber

1
@whuber: De improviso, no estoy seguro de poder dar cuenta directamente del resto. Ciertamente es posible usar más sensores para producir un solo píxel de salida, pero no tengo ninguna forma real de saber que es lo que Canon está haciendo en este caso. Un archivo sin procesar de la cámara daría el número exacto de pozos de sensores, pero aún no diría exactamente cómo Canon está pasando de la entrada X a la salida Y.
Jerry Coffin

3
En buenos algoritmos de demostración (por ejemplo, dirigido por la homogeneidad adaptativa), cada sensor contribuye bien a más de cuatro píxeles de salida, por lo que se pierde más de una fila o columna. Es bastante fácil tomar la salida inigualable de dcraw y comparar las dimensiones de la imagen con la salida del DPP de Canon para obtener una respuesta definitiva, lo intentaré cuando tenga tiempo.
Matt Grum

@ Matt Grum: Bien, mirando hacia atrás, mi comentario anterior está mal redactado. A lo que intentaba llegar es a que hay varios algoritmos que podrían (y lo harán) perder / descartar ~ 3 filas / columnas de píxeles, pero el recuento de píxeles por sí solo no le dirá cuáles de ellos están usando. Sin embargo, el uso de un algoritmo más sofisticado que usa más sensores por píxel de salida es prácticamente un hecho.
Jerry Coffin

5

No sé por qué DPReview utiliza el término "efectivo", pero hay un par de razones para la discrepancia entre el número de fotosites (píxeles) en el chip y el tamaño en píxeles de las imágenes resultantes.

Algunos sensores de cámara tienen una tira de píxeles enmascarados a cada lado. Estos píxeles son idénticos a la mayor parte de los píxeles en el sensor, excepto que no reciben luz. Se utilizan para detectar interferencia y restarla de la señal producida por los píxeles sensibles a la luz.

En segundo lugar, los [buenos] algoritmos de demostración utilizan muchas "operaciones de vecindario", esto significa que el valor de un píxel depende en cierta medida del valor de sus píxeles vecinos. Los píxeles en el borde extremo de la imagen no tienen vecinos, así que contribuya a otros píxeles pero no agregue a las dimensiones de la imagen.

También es posible que la cámara recorte el sensor por otras razones (por ejemplo, el círculo de la imagen del objetivo no cubre el sensor), aunque dudo que este sea el caso con el 550D.


¿Se utilizan los píxeles del borde para eliminar la interferencia o simplemente para establecer el punto negro?
mattdm

1
Supongo que si no hubiera ninguna interferencia (incluida la respuesta térmica), el punto negro sería 0
Matt Grum,

Descripción de DPReview . Me parece que va y viene entre dos conceptos opuestos, y no veo que realmente defina el término, excepto implícitamente. Creo que su respuesta ayuda un poco, pero aún me deja preguntándome por qué los píxeles "efectivos" serían más que sitios de fotos reales, aunque la página dpreview ofrece algunas posibilidades. Efectivo: ¿se usa para efectuar datos de imagen? ¿O la fecha de la imagen en última instancia, tan efectuada? (nota: verbo de efecto con una e: creando existencia.) Todavía me pregunto a qué se refieren.
lindes

5

Hay dos razones por las cuales los píxeles efectivos son menores que el número real de píxeles del sensor (elementos sensores o sensores). Primero, los sensores Bayer están compuestos por "píxeles" que detectan un solo color de luz. Por lo general, hay sensores rojos, verdes y azules, organizados en pares de filas en forma de:

RGRGRGRG
GBGBGBGB

Un único "píxel" como la mayoría de nosotros estamos familiarizados con él, el píxel de estilo RGB de una pantalla de computadora, se genera a partir de un sensor Bayer combinando cuatro sensores, un cuarteto RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Dado que se utiliza una cuadrícula 2x2 de cuatro sensores RGBG para generar un solo píxel RGB de computadora, no siempre hay suficientes píxeles a lo largo del borde de un sensor para crear un píxel completo. Un borde "adicional" de píxeles suele estar presente en los sensores Bayer para acomodar esto. También puede estar presente un borde adicional de píxeles simplemente para compensar el diseño completo de un sensor, servir como píxeles de calibración y acomodar componentes de sensores adicionales que generalmente incluyen filtros IR y UV, filtros anti-aliasing, etc. que pueden obstruir un La cantidad total de luz que llega a la periferia exterior del sensor.

Finalmente, los sensores Bayer deben ser "demostrados" para producir una imagen RGB normal de píxeles de computadora. Hay una variedad de formas diferentes de demostrar un sensor Bayer, sin embargo, la mayoría de los algoritmos intentan maximizar la cantidad de píxeles RGB que se pueden extraer combinando píxeles RGB de cada posible conjunto superpuesto de cuartetos RGBG 2x2:

Bayer Demosaicing

Para un sensor con un total de 36 sensores de un solo color, se puede extraer un total de 24 píxeles RGB. Observe la naturaleza superpuesta del algoritmo de demosaicing al ver el GIF animado de arriba. También tenga en cuenta cómo durante la tercera y cuarta pasada, no se utilizaron las filas superior e inferior. Esto demuestra cómo los píxeles de borde de un sensor no siempre se pueden utilizar al demostrar una matriz Bayer sensel.

En cuanto a la página de DPReview, creo que pueden tener su información incorrecta. Creo que el número total de sensores (píxeles) en el sensor Canon 550D Bayer es 18.0mp, mientras que los píxeles efectivos, o el número de píxeles de computadora RGB que se pueden generar a partir de esa base 18mp, es 5184x3456 o 17,915,904 (17.9mp). La diferencia se reduciría a los píxeles de borde que no pueden formar un cuarteto completo, y posiblemente a algunos píxeles de borde adicionales para compensar el diseño de los filtros y el hardware de montaje que se encuentra frente al sensor.


Me acabo de dar cuenta de que contaba mal los sensores en mi imagen animada. En los primeros dos pasos, no combina 8 sensores ... combina 28 sensores en 8 píxeles. En los dos pasos finales, combina 14 sensores en 4 píxeles. Perdón por la discrepancia. Intentaré arreglarlo pronto.
jrista

-3

Lamento decepcionar, pero ninguna de esas explicaciones es cierta. En cada sensor hay una región fuera del área de imágenes que también contiene fotosites. Algunos de estos están apagados, otros están completamente encendidos y otros se usan para otros fines de monitoreo. Estos se utilizan para establecer los niveles de amplificador y balance de blancos, como un "conjunto de control" contra aquellos que realizan la imagen real.

Si toma los datos del sensor RAW de cualquiera de las cámaras Powershot compatibles con CHDK y utiliza dcraw para convertirlos, puede obtener la imagen completa del sensor, incluidas estas regiones 100% negras y 100% blancas.

Sin embargo, lo interesante es que la resolución de tamaño de imagen RAW en la cámara siempre es mayor que los resultados JPG en la cámara. La razón es que los métodos de interpolación más simples y rápidos utilizados en la cámara para pasar de RAW a JPG requieren fotosites RGB circundantes para determinar el color final de cada píxel. Las fotosites de borde y esquina no tienen estas referencias de color circundante en todos los lados para hacerlo. Sin embargo, hacer el proceso más tarde en una computadora con un mejor software de interpolación RAW, le permitirá recuperar un poco más de resolución de tamaño de imagen que la que se puede obtener de un JPG en la cámara.

ps Los revisores de DPReview y los autores de artículos nunca deben ser tomados como evangelio por nadie. He encontrado tantos agujeros en sus pruebas y ejemplos evidentes en los que los probadores ni siquiera sabían cómo usar cámaras, que descarté sus consejos hace muchos años.


55
A pesar de su comentario de que "ninguna de esas explicaciones es verdadera", otras respuestas ya cubren esto.
mattdm
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.