¿Por qué se dice que las cámaras digitales sufren más de aberración cromática que las cámaras de película?


15

¿Qué hace que las cámaras digitales sean más propensas a sufrir aberraciones cromáticas que las cámaras de cine?

He leído esto en muchos sitios web, pero las explicaciones difieren, de lo que creo que explicaciones menos creíbles como "la alta resolución de las cámaras digitales lo hace más prominente" a las que suenan más creíbles que involucran filtros de color en frente del sensor creando otra fuente de aberración además de lo que la lente ya ha producido.

¿Hay alguna verdad en la declaración en primer lugar, y si es así, por qué es así?


3
Proporcione una fuente, de lo contrario, esto suena como un mito tonto. Es la lente la que causa la abberación cromática, no el sensor. Hay algunos problemas debido a la matriz de Bayer, pero no los llamaría "aberraciones cromáticas". Las aberraciones cromáticas se producen cuando la lente enfoca diferentes longitudes de onda de luz de manera diferente.
Olin Lathrop

2
No puedo proporcionar las fuentes exactas donde lo leí originalmente (fue hace un tiempo), pero una búsqueda rápida me dio muchos resultados similares: 1 2 3 4 . Bien podría ser un mito como escribí en la pregunta, pero si es así, está muy extendido
Hugo

2
tal vez porque las fotos de la cámara de cine se vieron principalmente a 15x10 cm de luz que refleja impresiones con luz acogedora, donde el espectador tenía en mente la imagen general, mientras que prácticamente todas las fotos digitales se inspeccionan analmente de cerca para detectar errores al 100% de "recorte" en la emisión de luz de 15-25 pulgadas monitores o televisores de 30-50 pulgadas?
Michael Nielsen

La digital es mucho más nítida, en general, que ve problemas no aparentes en la película, también porque en la película no se acerca a "1: 1", mientras que en la digital es común. Tome una película, amplíe 500x y veamos si, después del desenfoque general, no puede encontrar ninguna aberración.
FarO

Respuestas:


10

Obviamente, la lente crea una aberración cromática, y la cantidad de CA es la misma.

Sin embargo, la película como medio y el sensor responden un poco diferente. La luz perpendicular verdadera se maneja de manera similar en ambos, pero la luz en ángulo se encuentra con una superficie diferente cuando se usa película y cuando se usa un sensor CMOS.

Los sensores CMOS tienen lentes pequeñas sobre el filtro de color (ver aquí ), y es bastante difícil proporcionar una velocidad de grupo uniforme dentro de una lente pequeña para todo tipo de longitudes de onda de luz, por lo que crean una respuesta dependiente del ángulo y de la longitud de onda al llegar ligero. (Considere la luz blanca que atraviesa un prisma, el mismo efecto).

Una película tiene mucha menos sensibilidad al ángulo incidente. Entonces simplemente fotografiarás el CA.

Por otro lado, R, G y B provenientes de un ángulo verán diferentes sensibilidades del sensor (cada una es diferente) que RGB que viene perpendicular al sensor. Entonces eso aparecerá como cambio de color o cambio de color, empeorando la CA.

Bueno, esta es la explicación que puedo pensar para su pregunta.

(Y una buena prueba sería usar luz blanca dirigida en un sensor CMOS, y hacer fotos comenzando desde perpendicular y luego inclinarlo más y más. Esperaría un poco de cambio de color. Pero no intente esto en casa :-) )


2
También está el cristal de filtro antialiasing / UV / IR bastante grueso (~ 1 mm más o menos) que se encuentra directamente en frente del sensor. En las esquinas del sensor, la luz entrante impactará en un ángulo agudo (a menos que la lente sea telecéntrica) y esto puede hacer cosas desagradables en los colores. Especialmente, por ejemplo, algunas lentes gran angular de montura Leica M donde un elemento trasero de diámetro pequeño está profundamente empotrado en, bueno, no en la "casa del espejo" sino en la cavidad correspondiente en la cámara, cerca del plano de la película. Esto no sucede con la película. Las microlentes solo pueden hacer mucho para superar esto.
Staale S

@TFuto - por favor mira mi respuesta. No hay necesidad de jerga como velocidad de grupo (una palabra elegante para lo que equivale a color axial) aquí. Las microlentes tampoco son muy relevantes para CA, ya que incluso si hubiera un color lateral para una microlente con diseño decente, la luz azul ya estaría filtrada en la parte superior del píxel rojo, o se filtraría debajo de la microlente. En general, si esto no sucediera, la matriz bayer se corrompería y obtendría imágenes muy extrañas de la cámara.
Brandon Dube

1

Una cámara digital cuantifica la luz de manera más gruesa que una película. Considere si la lente tiene 3 micras de aberración cromática. En una imagen de película, obtendrás algo un poco más grande que 3 micras, quizás 3,1 micras, debido a los cristales de haluro de plata de la película. En una cámara digital, los píxeles son, digamos, 6 micrones de lado. 3 micras son suficientes para derramarse significativamente en el píxel vecino, por lo que la cantidad de aberración cromática parece haberse duplicado en comparación con la película.

También ven el color de manera diferente. Considere esta prueba que alguien armó. Considere el ejemplo 6. El vehículo azul detrás del sobreexpuesto es casi negro en la imagen de la película y razonablemente brillante en el digital. Los faros rojos también están expuestos de manera muy diferente, incluso en relación con las cosas que los rodean.

Esto implica que la película es menos sensible a la luz roja y también menos sensible a la luz azul. Toda la franja que ves es magenta, que no es un color , sino una combinación de rojo y azul. Si la película es menos sensible a estos colores, en comparación con los elementos blancos o verdosos de la escena, la aberración cromática se reducirá en intensidad y, por lo tanto, en visibilidad.


El enlace que ha titulado "no es un color" no es compatible con esa afirmación.
Lea el perfil el

@mattdm _ se percibe fisiológica y psicológicamente como la mezcla de luz roja y violeta / azul, con la ausencia de verde._
Brandon Dube

1
"Magenta es un color extra-espectral". Eso no es lo mismo que "no es un color". Quiero decir, claro, "color" tiene muchas definiciones técnicas diferentes, pero no creo que ese límite sea particularmente útil. (Según esta definición, el rosa y el marrón tampoco serían colores). Y de todos modos, el enlace que proporcionas lo define como un color, definitivamente ahí en la cita que doy .
Lea el perfil el

1
Creo que su respuesta está bien, excepto que, como dije, su enlace a "magenta no es un color" va a una página que literalmente dice que el magenta es un color. Si quiere argumentar que por alguna razón no es un color, creo que al menos debería encontrar una mejor referencia.
Lea el perfil el

1
El color espectral es el color que percibimos en respuesta al estímulo de longitudes de onda únicas (o en la práctica, muy estrechamente similares) de luz. El "color puro" puede tener este sentido, pero también tiene otros sentidos.
Lea el perfil el

0

No creo que ninguna de las posibles razones por las que haya leído sea incorrecta, como tal. Ciertamente, la mayoría de las razones en los enlaces que proporcionó parecen causas suficientemente plausibles de una pequeña cantidad de abberación cromática.

Dejando de lado cosas como los elementos de lentes inestables y otros problemas de fabricación, la gran complejidad de los lentes modernos en comparación con los de la época de la película y la adición de microlentes en el sensor contribuirán a la franja de color que ve. La mayor resolución, tan tonta como suena, resalta las imperfecciones en muchas lentes, y, francamente, no creo que sea posible estudiar una impresión en cualquier lugar lo más cerca posible con una pantalla grande con un zoom del 100%.

Tan bueno como sería decir que hay una razón específica por la cual la película es mejor que la digital a este respecto, parece que en realidad es una combinación de muchos factores más pequeños.


Está usted equivocado. Las expectativas no tienen nada que lidiar con eso. Las aberraciones cromáticas SON más pronunciadas en digital que en película. Se puede medir Genotypewriter realizó uno de estos intentos: secure.flickr.com/photos/genotypewriter/6147351879 ; el resultado es bastante obvio: la película gana cuando se trata de CA.
MarcinWolny

1
Modifiqué mi respuesta para eliminar mi último comentario. En mi teléfono, leeré los enlaces más tarde, mientras tanto, tomaré tu palabra. :-P
Thomas Bisset

0

esto debido a la forma en que se extraen los colores del sensor. Solo unas pocas cámaras digitales realmente ven en color (la vieja sigma foveon es una de ellas en una gran cámara réflex "pública"). El sensor solo ve la intensidad de la luz, por lo que "en blanco y negro" y una rejilla frontal con filtro de color se utilizan para, más adelante en el proceso, tratar de definir el color original. (vea la cuadrícula de Bayer y su evolución) ( muestra de la aplicación bayer ) Debido a esta interpretación, algunas situaciones dan el color incorrecto como deducción. Esto sucedió a menudo en el borde de una superficie afilada.


3
¿Puede por favor elaborar y proporcionar algunas fuentes de por qué esto resulta en franjas de color? Si esta es la razón, parece no estar relacionado con la aberración cromática.
Hugo

2
¡También tenga en cuenta que la forma en que funciona el sensor Bayer está más cerca de la forma en que funciona el ojo humano que Foveon! ¡Según este estándar, los humanos tampoco ven en color!
Lea el perfil

Recomiendo este artículo que explica cómo se agrega phaseoneimageprofessor.wordpress.com/tag/bayer-pattern (sin reinventar la rueda). También puede consultar wiki pedia para foveon que también explica parcialmente (ventaja de foveon sobre este tema) en.wikipedia.org/wiki/Foveon_X3_sensor . @mattdm, el ojo derecho funciona más como bayer, pero la dispersión del sensor de la unidad del ojo es diferente a una rejilla bayer "regular", también cada unidad base captura información diferente donde el sensor bayer / sensor captura el mismo filtrado para que la aberración no se maneje de la misma manera. cerebro.
NeronLeVelu

1
Esto explica cómo un sensor Bayer puede causar una cierta clase de errores de color, pero no llamaría a esos errores abberación cromática como se hizo en la pregunta.
Olin Lathrop

0

Creo que Hugo escribe sobre Blooming, que ocurre en los sensores. Los sensores de gran resolución, principalmente de pequeño tamaño, son propensos a florecer. Es causado por la alta intensidad de la luz, mucho más alta de lo que puede manejar el fotodiodo. Entonces, la carga eléctrica se desborda hacia los fotodiodos adyacentes. Como resultado, crea los anillos coloreados en el borde de las áreas sobreexpuestas.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.