¿Por qué los sensores convencionales no usan filtros CYM en lugar de RGB?


18

Por lo que entiendo, la mayoría de las cámaras digitales tienen un sensor donde cada sensor de píxeles tiene tres sub-sensores, cada uno con un filtro R, G y B. RGB es obviamente el modelo de color más fundamental, ya que corresponde directamente con los receptores (conos) en el ojo humano.

Sin embargo, los filtros RGB necesariamente cortan dos tercios de la luz blanca para obtener su componente. ¿Seguramente las cámaras se beneficiarían de tiempos de exposición más cortos si los filtros fueran CYM en donde cada elemento corta solo un tercio de la luz? El procesador de la cámara aún puede guardar la imagen en cualquier formato que el consumidor desee, ya que un punto de datos CYM se puede convertir fácilmente en uno RGB.

Sé que esto a veces se hace en astrofotografía, donde se toman tres fotos en blanco y negro con filtros CYM.

¿Estoy equivocado y esto es, de hecho, lo que ya se ha hecho, o hay una buena razón para un sensor RGB?


1
En la astrofotografía de larga exposición, una de las pocas áreas donde la cantidad total de luz capturada es una preocupación importante, un enfoque común es usar un sensor monocromo puro y combinar períodos de exposición (relativamente) cortos con filtros rojo, verde y azul para colorea la imagen, con un intervalo mucho más largo en el que no se utiliza ningún filtro para maximizar el detalle en el resultado final.
Dan Neely

Respuestas:


19

Primero, un poco de historia para aclarar un ligero malentendido de su parte.

La gran mayoría de las cámaras digitales en color tienen un filtro Bayer que enmascara cada píxel con un filtro de color: rojo, verde o azul. ¹ Los datos RAW no incluyen ninguna información de color, sino solo un valor de luminancia para cada píxel.

Sin embargo, los filtros RGB necesariamente cortan dos tercios de la luz blanca para obtener su componente.

Realmente no. Hay mucha luz verde que pasa los filtros 'rojo' y 'azul'. Hay mucha luz "roja" y una buena cantidad de luz "azul" que hace que pase el filtro "verde". Hay una luz 'azul' que pasa el filtro rojo y viceversa. Las longitudes de onda en las que se centran los filtros 'Verde' y 'Rojo' están muy cerca una de la otra, y 'Rojo' generalmente está en algún lugar entre 580 nm y 600 nm, que está más en territorio 'amarillo-naranja' que 'rojo'. Los "picos" de los filtros en una matriz típica de Bayer no están alineados con las longitudes de onda que describimos como "rojo", "verde" y "azul".

ingrese la descripción de la imagen aquí

Entonces, en cierto sentido, nuestras cámaras son realmente YGV (Amarillo-Verde-Violeta) tanto como son RGB. Nuestros sistemas de reproducción de color (monitores, impresoras, prensas web, etc.) son RGB, CMYK o alguna otra combinación de colores.

ingrese la descripción de la imagen aquí

Esto imita el ojo humano, donde nuestros conos 'rojos' se centran alrededor de 565 nm, que es un amarillo verdoso, a diferencia de nuestros conos 'verdes' que se centran alrededor de 540 nm, que es verde con solo un tinte de amarillo mezclado. Para obtener más información sobre cómo el sistema de visión humana y nuestras cámaras crean "color" a partir de la porción del espectro de radiación electromagnética que llamamos "luz", vea: ¿Por qué el rojo, el verde y el azul son los colores primarios de la luz?

No hay un límite estricto entre los colores del filtro, como con un filtro utilizado en un instrumento científico que solo deja pasar una banda muy estrecha de longitudes de onda. Es más parecido a los filtros de color que usamos en las películas en blanco y negro. Si utilizamos un filtro rojo con película en blanco y negro, todos los objetos verdes no desaparecen ni se ven totalmente negros, como lo harían con un corte duro. Por el contrario, los objetos verdes se verán con un tono más oscuro de gris que los objetos rojos que son igualmente brillantes en la escena real.

Al igual que con el ojo humano, casi todos los filtros Bayer incluyen el doble de píxeles "verdes" que de píxeles "rojos" o "azules". En otras palabras, cada otro píxel está enmascarado con "Verde" y la mitad restante se divide entre "Rojo" y "Azul". Por lo tanto, un sensor de 20MP tendría aproximadamente 10M de verde, 5M de rojo y 5M de píxeles azules. Cuando los valores de luminancia de cada píxel son interpretados por la unidad de procesamiento de la cámara, la diferencia entre los píxeles adyacentes enmascarados con diferentes colores se utiliza para interpolar un valor Rojo, Verde y Azul ( que en realidad corresponde a alrededor de 480, 530 y 640 nanómetros ) para cada píxel Cada color tiene una ponderación adicional de aproximadamente la sensibilidad del ojo humano, por lo que el "Rojo"

El proceso de convertir valores de luminancia monocromáticos de cada píxel en un valor RGB interpolado para cada píxel se conoce como demostración. Dado que la mayoría de los fabricantes de cámaras utilizan algoritmos patentados para hacer esto, el uso de convertidores RAW de terceros, como Adobe Camera RAW o DxO Optics, arrojará resultados ligeramente diferentes que el uso del propio convertidor RAW del fabricante. Hay algunos tipos de sensores, como el Foveon, que tienen tres capas sensibles al color apiladas una encima de la otra. Pero los fabricantes afirman que dicho sensor con tres capas de 15MP apiladas entre sí es un sensor de 45MP. En realidad, tal disposición produce la misma cantidad de detalles que un sensor enmascarado Bayer convencional de aproximadamente 30MP. El problema con los sensores de tipo Foveon, al menos hasta ahora, ha sido un peor rendimiento de ruido en entornos con poca luz.

Entonces, ¿por qué la mayoría de las cámaras digitales no usan filtros CYM en lugar de filtros RGB¹? La razón principal es la precisión del color definida por la percepción humana de las diferentes longitudes de onda de la luz. Es mucho más difícil interpolar valores de color con precisión usando valores de píxeles adyacentes cuando se usa una máscara CYM que cuando se usa una máscara "RGB". Así que renuncia a un poco de sensibilidad a la luz para ganar precisión de color. Después de todo, la mayoría de las fotografías comerciales en los niveles más altos se realizan con iluminación controlada (como un estudio de retratos donde es bastante fácil agregar luz) o desde un trípode (que permite tiempos de exposición más largos para recolectar más luz). Y las demandas de los fotógrafos profesionales son lo que impulsa la tecnología que luego llega a los productos de calidad para el consumidor.

¹ Excepto que los tres filtros de color para la mayoría de las cámaras "RGB" enmascaradas de Bayer son realmente 'azul con un toque de violeta', 'Verde con un toque de amarillo' y entre 'Amarillo con un toque de verde' (que imita el ojo humano más) y 'Amarillo con mucha naranja' (que parece ser más fácil de implementar para un sensor CMOS).


Gracias por la información del filtro Bayer. Como alguien que vive en un país sombrío y con poca luz, siempre optimizo la sensibilidad, pero entiendo el argumento de la precisión del color. ¡Gran respuesta!
Robin

¿Su país sombrío y con poca luz no tiene electricidad ni bombillas? :-)
Michael C

Somos el país más cubierto de CCTV del mundo, así que creo que algunas cámaras funcionan. En cuanto a las bombillas ... prefiero aprovechar el glorioso poder del sol.
Robin

Incluso el glorioso poder del sol necesita un reflector a veces para arrojar luz sobre el lado oscuro de un sujeto. Y el sol está "dormido" la mitad del tiempo en el transcurso de un año, sin importar en qué parte del planeta se encuentre.
Michael C

10

Se han realizado sensores cian magenta amarillo, junto con cian verde rojo y algunas otras variaciones.

El principal problema es que incluso con sensores RGB hay una superposición significativa entre la respuesta espectral de cada uno de los tintes, es decir, los píxeles "verdes" son sensibles a la luz roja y azul en cierta medida. Esto significa que los resultados requieren cálculos complejos para obtener colores precisos, las respuestas relativas de los píxeles rojos y azules adyacentes se utilizan para juzgar qué parte de la respuesta verde fue realmente el resultado de la luz roja y azul.

Con CMY el problema es mucho peor. Básicamente, está cambiando la eficiencia de la luz por la precisión del color. Esto puede estar bien para la fotografía astronómica donde no siempre tiene límites de color nítidos, por lo tanto, puede reducir el ruido de color al desenfocar, pero no es bueno para la fotografía de paisajes o moda.


Entre los chips RGB, la elección exacta de los filtros varía según el fabricante. Canon, por ejemplo, utiliza tintes débiles con una amplia respuesta para perseguir el rendimiento con poca luz, pero los tintes específicos utilizados también están sintonizados para discernir colores bajo iluminación fluorescente, en beneficio del ejército de fotógrafos deportivos y de noticias que usan cámaras Canon.

Sony, por otro lado, con el A900 trató de entrar en el mercado de la moda profesional al proporcionar una precisión de color muy alta. Los conjuntos de filtros de color utilizados en respaldos digitales de formato medio están ajustados para proporcionar tonos de piel agradables (aunque no necesariamente precisos).


¿Sería práctico que una cámara intente lograr un rendimiento algo similar a los ojos mediante el uso de una mezcla de píxeles de muerte intensa y de intensidad débil, posiblemente también variando el tamaño del píxel, de modo que en condiciones de iluminación donde los píxeles más pequeños se tiñen fuertemente ¿estaban recogiendo datos significativos que se usarían para producir colores saturados, mientras que en condiciones de poca luz los píxeles más débilmente teñidos proporcionarían un canal de luminancia más limpio mientras que el filtrado adaptativo se usó para limpiar el ruido en el croma?
supercat

1
"El problema principal es que incluso con sensores RGB hay una superposición significativa entre la respuesta espectral de cada uno de los tintes ..." Sería un problema mucho mayor si cada filtro bloqueara totalmente las frecuencias de luz permitidas por los demás. Toda la percepción del "color" por parte de la visión humana se debe a la forma superpuesta de que los conos en nuestras retinas responden a la luz de varias frecuencias. No hay colores implícitos en varias longitudes de onda de la luz misma, solo en la percepción de la luz por nuestra visión tricromática con respuestas superpuestas de los conos S, M y L en nuestras retinas.
Michael C

2

Las razones por las que los fabricantes de cámaras se decidieron por la matriz RGBG Bayer probablemente tengan más que ver con las patentes, la disponibilidad y el costo que con la "precisión" del color. En principio, cualquier conjunto de tres colores apropiados, "ortogonales" (por así decirlo), debe estar bien para la reproducción del color. Con sensores y procesadores más avanzados, debería ser aún más fácil.

Dudo de la afirmación de precisión de color RGB vs CMY porque las conversiones entre RGB y CMYK se realizan todo el tiempo para imprimir. Además, antes del balance de blancos, los colores demosaicked en archivos sin formato no se parecen en nada a los colores deseados reales. Si los colores fueran realmente "precisos", los fotógrafos no tendrían que pasar tanto tiempo corrigiendo las fotos en color.

Los diversos experimentos de sensores de Fujifilm (Super CCD, EXR CMOS, X-Trans) demuestran que el hecho de que todos los demás hagan algo de una manera particular no significa que sea necesariamente la mejor manera de hacerlo. Kodak también experimentó con diferentes matrices de colores , pero no hicieron un muy buen trabajo al comercializar su tecnología y sus patentes.

La Nikon Coolpix 5700, una cámara de 5mp de alrededor de 2002, parece estar entre las últimas cámaras en usar una matriz de color CYGM . Digital Photography Review dice (énfasis agregado) :

La calidad de imagen es excelente, con esa gran medición matricial, buen equilibrio tonal y color (preciso y vívido sin soplar colores) más una resolución superior a la media. Las franjas púrpuras están caídas, pero el aspecto general de la imagen sigue siendo muy 'Coolpix'. Los niveles de ruido son buenos, especialmente en comparación con otras cámaras digitales de cinco megapíxeles (como lo indica nuestra comparación con el Minolta DiMAGE 7i).

Los pocos detalles de calidad de imagen que recogimos; La distorsión de barril, el recorte de resaltado y los artefactos de Bayer no son el tipo de problemas que afectan el disparo diario y no estropearán su disfrute general de la calidad de imagen del 5700.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.