¿Por qué las cámaras no ofrecen más de 3 canales de color? (¿O ellos?)


40

Actualmente, la mayoría (¿todas?) De las cámaras disponibles comercialmente capturan la luz en tres canales de color: rojo, verde y azul. Me parece que sería muy útil tener una cámara con un mayor alcance y resolución espectral, por lo que me pregunto por qué no hay cámaras disponibles que capturen más de tres canales de color.

¿A qué me refiero exactamente?

Hubo algunas consultas en los comentarios (desde que se eliminaron) sobre lo que quise decir, por lo que me gustaría dar una mejor explicación. La luz visible oscila entre las longitudes de onda de aproximadamente 390-700 nm. Hay un número infinito de longitudes de onda entre estos dos puntos finales, pero el ojo tiene una capacidad muy limitada para distinguirlos, ya que solo tiene fotorreceptores de tres colores. Las curvas de respuesta para estos se muestran en la parte (a) de la figura siguiente. ( Versión más grande ). Esto nos permite ver diferentes colores dependiendo de la frecuencia de la luz, ya que la luz de baja frecuencia tendrá un mayor efecto sobre los receptores azules y la luz de alta frecuencia tendrá un mayor efecto sobre los receptores rojos.

ingrese la descripción de la imagen aquí

Un sensor digital en una cámara funciona al tener filtros delante de sus píxeles, y generalmente hay tres tipos de filtro. Estos se eligen con curvas de respuesta lo más cercanas posible a la figura (a) anterior, para imitar lo que ve el ojo humano.

Sin embargo, tecnológicamente hablando no hay razón por la cual no podamos agregar un cuarto tipo de filtro, por ejemplo con un pico entre azul y verde, como se muestra en la figura (b). En la siguiente sección, explico por qué eso sería útil para el procesamiento posterior de fotografías, a pesar de que no corresponde a nada que el ojo pueda ver.

Otra posibilidad sería agregar canales adicionales en el infrarrojo o ultravioleta, como se muestra en la figura (c), extendiendo el rango espectral de la cámara. (Es probable que esto sea más difícil técnicamente).

Finalmente, una tercera posibilidad sería dividir el rango de frecuencia aún más finamente, produciendo una cámara con una alta resolución espectral. En esta versión, los canales RGB habituales tendrían que construirse en software a partir de los datos más finos que produce el sensor.

Mi pregunta es por qué las réflex digitales no suelen ofrecer ninguna de estas opciones además de (a), y si hay cámaras disponibles que ofrecen alguna de las otras. (Le pregunto sobre el tipo de cámara que usaría para tomar una foto; sé que hay instrumentos científicos que ofrecen este tipo de funciones).

¿Por qué sería útil esto?

He estado jugando con la edición de fotos en blanco y negro, desde tomas en color tomadas con mi DSLR. Este proceso me parece interesante porque al editar una foto en blanco y negro, los tres canales RGB simplemente se convierten en fuentes de datos sobre la escena. Los colores reales que representan son casi irrelevantes: el canal azul es útil principalmente porque los objetos en la escena difieren en la cantidad de luz que reflejan en ese rango de longitudes de onda, y el hecho de que corresponde a lo que el ojo humano ve como "azul" es mucho menos relevante.

Tener los tres canales ofrece mucha flexibilidad para controlar la exposición de diferentes aspectos de la imagen en blanco y negro final. Al hacer esto, se me ocurrió que un cuarto canal de color daría aún más flexibilidad, por lo que me pregunto por qué no existe tal cosa.

Los canales de color adicionales serían útiles para la fotografía en color, así como en blanco y negro, y por la misma razón. Simplemente estaría construyendo cada uno de los canales RGB de la misma manera que construye una imagen en blanco y negro ahora, combinando datos de diferentes canales que representan la luz de diferentes rangos de frecuencia. Para la mayoría de los propósitos, esto se haría automáticamente en el software, pero ofrecería mucha más flexibilidad en términos de opciones de procesamiento posterior.

Como un simple ejemplo de cómo esto podría ser útil, sabemos que las plantas son muy reflexivas en el infrarrojo cercano. Este hecho se usa a menudo para generar sorprendentes disparos de efectos especiales, en los que las plantas parecen ser de color blanco brillante. Sin embargo, si tuviera la imagen infrarroja como cuarto canal en su software de edición, estaría disponible para procesar imágenes en color, por ejemplo, cambiando la exposición de todas las plantas en la imagen, dejando solo menos objetos reflectantes de IR.

En el caso de los infrarrojos, entiendo que hay razones físicas por las que es difícil hacer un sensor que no sea sensible a los IR, por lo que los sensores digitales generalmente tienen un filtro de bloqueo de IR frente a ellos. Pero debería ser posible hacer un sensor con una resolución espectral más alta en el rango visible, lo que permitiría los mismos tipos de ventaja.

Uno podría pensar que esta característica sería menos útil en la era del procesamiento digital, pero en realidad creo que ahora sería muy útil. Los límites de lo que puede hacer digitalmente están establecidos por los datos disponibles, por lo que me imagino que una mayor cantidad de datos espectrales permitiría técnicas de procesamiento que no pueden existir sin ellos.

La pregunta

Me gustaría saber por qué esta característica no parece existir. ¿Existe un gran desafío técnico para hacer un sensor con cuatro o más canales de color, o es la razón más relacionada con la falta de demanda de dicha función? ¿Existen sensores multicanal como un esfuerzo de investigación? ¿O simplemente me equivoco sobre lo útil que sería?

Alternativamente, si existe (o ha existido en el pasado), ¿qué cámaras lo han ofrecido y cuáles son sus principales usos? (¡Me encantaría ver imágenes de ejemplo!)


Hola a todos, ha habido una gran cantidad de discusión en los comentarios aquí, más que suficiente para activar los sistemas automáticos. Si desea iniciar una discusión sobre las preguntas y / o respuestas, llévelo a nuestra sala de chat. Gracias.
John Cavan

Pregunta relacionada (pero diferente) : ¿Por qué simplemente usamos RGB en lugar de filtros para todas las longitudes de onda
Karan Karan

Para lo que sería útil es ofrecer mejores opciones para hacer frente a los problemas causados ​​por algunos tipos modernos de equipos de iluminación ...
rackandboneman

Respuestas:


32

¿Por qué las cámaras no ofrecen más de 3 canales de color?

Cuesta más producir (producir más de un tipo de cualquier cosa cuesta más) y ofrece ventajas casi nulas (comercializables) sobre Bayer CFA.

(¿O ellos?)

Lo hicieron. Varias cámaras, incluidas las minoristas, tenían filtros RGBW (RGB + Blanco) RGBE (RGB + Esmeralda), CYGM (Cyan Yellow Green Magenta) o CYYM (Cyan Yellow Yellow Magenta).

Me parece que sería muy útil tener una cámara con un mayor alcance y resolución espectral, por lo que me pregunto por qué no hay cámaras disponibles que capturen más de tres canales de color.

El número de canales no está directamente relacionado con el rango espectral.

¿Existe un gran desafío técnico para hacer un sensor con cuatro o más canales de color, o es la razón más relacionada con la falta de demanda de dicha función?

La falta de demanda es un factor decisivo.

Además, los filtros CYYM / CYGM causan un mayor ruido de color porque requieren operaciones aritméticas con grandes coeficientes durante la conversión. Sin embargo, la resolución de luminancia puede ser mejor, a costa del ruido de color.

¿Existen sensores multicanal como un esfuerzo de investigación? ¿O simplemente me equivoco sobre lo útil que sería?

Se equivoca en que el rango espectral sería mayor con más canales, tiene razón en que el cuarto canal proporciona una serie de técnicas de procesamiento interesantes tanto para color como para monótono.

Alternativamente, si existe (o ha existido en el pasado), ¿qué cámaras lo han ofrecido y cuáles son sus principales usos?

Sony F828 y Nikon 5700, por ejemplo, ellos y algunos otros están incluso disponibles de segunda mano. Son cámaras de uso común.


También es interesante saber que el rango espectral está limitado no solo por el espejo caliente presente en la mayoría de las cámaras, sino también por la sensibilidad de los fotodiodos que componen el sensor. No sé qué tipo de fotodiodos se usa exactamente en las cámaras de consumo, pero aquí hay un gráfico ejemplar que muestra la limitación de los semiconductores:

Comparación de semiconductores fotosensibles


Con respecto al software que se puede usar para extraer el cuarto canal: probablemente lo sea, dcrawpero se debe modificar y volver a compilar para extraer solo un canal.

Hay una matriz 4x3 para F828 en la dcraw.cque se hace uso del cuarto canal. Aquí hay una idea: { 7924,-1910,-777,-8226,15459,2998,-1517,2199,6818,-7242,11401‌​‌​,3481 }esta es la matriz en forma lineal, muy probablemente cada cuarto valor representa la Esmeralda. Lo convierte en esto: { 0,0,0,8191,0,0,0,0,0,0,0,0 }(no sé qué número debería estar allí en lugar de 8191, supongo que es una conjetura), se vuelve a compilar y la imagen de salida obtiene el canal Esmeralda después de la demostración en el canal rojo (si entiendo las fuentes correctamente).


Los comentarios no son para discusión extendida; Esta conversación se ha movido al chat .
John Cavan

3
Euri, había información súper útil en tus comentarios sobre dcraw, etc., ahora se trasladó a la sala de chat. ¿Hay alguna posibilidad de que puedas editar eso en tu respuesta para la posteridad?
Nathaniel

16

Algunas notas de este ingeniero de sistemas ópticos desde hace mucho tiempo. Primero, hay cosas llamadas cámaras "hiperespectrales" que usan rejillas o equivalentes para dividir la luz entrante en docenas o incluso en un par de cientos de canales de color (longitud de onda). Estos, como puede imaginar, no se usan ni son útiles para producir fotos en color per se, pero son excelentes para distinguir líneas espectrales de banda estrecha emitidas o reflejadas de materiales específicos. Los geólogos, por ejemplo, los utilizan para identificar depósitos minerales mediante el uso de una cámara hiperespectral montada en un avión.

Luego, hay una gran diferencia entre los colores producidos por cada longitud de onda (energía fotónica) y los colores que perciben nuestros ojos. Tenemos tres, o para algunos afortunados, cuatro conos diferentes, cada uno con diferentes curvas de respuesta espectral. Puede encontrar estas curvas en toda la red, incluida la primera imagen en esa página de Wikipedia. Luego, el rango de colores / matices que percibimos cubre un mapa completo , mientras que los colores producidos por cualquier longitud de onda de fotones forman una línea en el área de ese mapa.

Cualquier número de experimentos, incluidos algunos espectaculares realizados por Edwin Land, han demostrado que mezclar RGB es suficiente para permitir que el ojo reconstruya todos los colores de visión posibles. (En realidad, resulta que solo dos colores más una representación en escala de grises de otro serán suficientes. El procesamiento óptico en el cerebro es realmente extraño)


11

Los sensores de cámara RGB son muy populares porque reproducen la visión humana

Eso es lo que la mayoría de la gente necesita: hacer fotos que se vean como lo que vemos.

Reemplazar los subpíxeles RGB con más tipos diferentes de filtros para distinguir más bandas con una mejor resolución espectral funcionaría, pero:

  • solo para un solo propósito . Todos necesitan aproximadamente los mismos filtros RGB para hacer fotos decentes, pero hay un número ilimitado de posibles bandas espectrales que podrían ser útiles para alguien. No puedes hacer una cámara universal de esta manera.

  • disminuiría la sensibilidad general del sensor . Cada subpíxel dado es inútil para toda la luz, excepto para la banda estrecha que acepta. Más filtros = más luz desperdiciada.

Por lo tanto, en lugar de crear sensores estrechamente especializados, es mejor tener un sensor sin ningún filtro incorporado, y simplemente intercambiar filtros durante la adquisición de imágenes. De esta forma, se utiliza toda el área del sensor con cada filtro, no solo una pequeña fracción con el subpíxel correspondiente.


1
Esto no es estrictamente cierto, 3 colores primarios no pueden proporcionar todos los tonos que un humano puede ver. Si miras el diagrama de cromaticidad CIE , parece un poco triangular, pero cuando ves un práctico triángulo RGB inscrito en el interior, ves cuántos colores te faltan. Una cuarta primaria en el área azul-verde crearía un cuadrilátero con quizás un 20% más de colores.
Mark Ransom

PD: la única razón por la que las personas están satisfechas con RGB es que los colores fuera de la gama típica son más raros que los que RGB es capaz de reproducir.
Mark Ransom

1
¿Cómo el filtro Bayer no restringiría el espacio de color a un triángulo tal como lo hace una pantalla? Es un tema que no creo que reciba suficiente atención; nunca se menciona cuando se habla de diferencias en el chip del sensor, por ejemplo.
Mark Ransom

1
la misma pregunta se aplica a la retina humana que tiene solo 3 tipos de "filtros", y la respuesta es, supongo, ¡que mostrar y sentir son animales diferentes! quizás, a diferencia de las pantallas, donde las gamas luchan entre sí, es tan aburrido y fácil que nadie habla de eso.
szulat

1
@ MarkRansom, ¿habla de mostrar o grabar? Hay una gran diferencia El espacio XYZ es un espacio triestímulo y sus cromaticidades tienen coordenadas en ese gráfico que nombré. Aquí está representado (el exterior, sombreado).
Euri Pinhollow

2

Hay tres sensores de color en el ojo humano. Sus perfiles espectrales son amplios y se superponen. Cada uno envía señales nerviosas al cerebro donde la entrada se interpreta como color. El comentario en la respuesta anterior acerca de que el procesamiento en el cerebro es extraño es correcto. Siendo este el caso, solo se necesitan 3 estímulos para un color dado. Mira el artículo de Wikipedia sobre visión del color para más detalles.


0

También ha habido cámaras multiespectrales con canales adicionales para luz IR y UV, pero no como producto de consumo.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.