¿Qué limita exactamente los sensores modernos de cámaras digitales para capturar la intensidad de la luz más allá de cierto punto?
¿Qué limita exactamente los sensores modernos de cámaras digitales para capturar la intensidad de la luz más allá de cierto punto?
Respuestas:
¿Qué limita exactamente los sensores modernos de cámaras digitales para capturar la intensidad de la luz más allá de cierto punto?
En términos de las propiedades físicas del sensor en sí:
El número de ataques de fotones y el número de electrones libres resultantes de tales ataques de fotones hasta que no haya más electrones disponibles con el potencial de liberarse dentro de cada fotosite (a / k / a sensel, pozo de píxeles, etc.) definen su pozo completo. capacidad. No es muy diferente de la película, en la que se alcanza la saturación completa cuando no quedan cristales de haluro de plata en la emulsión que no tengan suficientes 'motas de sensibilidad' para que el desarrollador las transforme en plata atómica.. La principal diferencia es la forma de las curvas de respuesta cuando cada tecnología se acerca a su capacidad máxima. Los resultados digitales hacen que se libere la misma cantidad de electrones por fotón¹ hasta que se alcanza la capacidad total del pozo. A medida que la película se acerca a la saturación total, se necesita más y más energía lumínica (o tiempo de desarrollo) para afectar las sales de plata restantes.
En términos de registrar los voltajes analógicos como datos digitales:
Cuando el voltaje analógico de cada fotosite (a / k / a 'sensel', 'pozo de píxeles', etc.) se lee desde el sensor, se aplica amplificación a la señal. La configuración ISO de la cámara determina cuánta amplificación se aplica. Por cada aumento de parada de ISO, se aplica el doble de amplificación. Si se usa la sensibilidad "base" de la cámara (por simplicidad, llamemos a ISO 100 una amplificación de 1.00X en la cual el voltaje de entrada es igual al voltaje de salida), entonces las fotosites que alcanzaron la capacidad total del pozo deberían resultar en una lectura de voltaje máximo en la amplificación posterior. circuito analógico que alimenta el ADC. Si se usa ISO 200 (amplificación 2.0X), el voltaje de cualquier sensor que alcanzó la mitad (1/2) de la capacidad total del pozo o más se amplifica al voltaje máximo permitido en el circuito posterior a la amplificación.
Cualquier amplificación mayor que 1.0X aplicará un "techo" más bajo que la capacidad total de cada pozo de fotos. Cuando se usa una amplificación alta, las señales más débiles que la capacidad total del pozo también alcanzan la capacidad de voltaje máximo de los circuitos aguas abajo del amplificador. Cualquier nivel de señal preamplificado que sea lo suficientemente fuerte como para "vincular el medidor" después de la amplificación es indistinguible de cualquier otro nivel de señal preamplificado que también "vinculará el medidor".
Cuando estas señales analógicas amplificadas se convierten en datos digitales mediante el convertidor analógico a digital (ADC), a las señales a la capacidad de voltaje máxima del circuito se les asigna el valor máximo permitido por la profundidad de bits de la conversión de analógico a digital. Si se convierte a valores de 8 bits, a los voltajes se les asigna un valor en binario entre 0-255. La señal máxima permitida por el circuito analógico que alimenta el ADC se registraría como 255. Si a 14 bits, a los voltajes se les asigna un valor entre 0-16,383 con el valor máximo asignado a un valor binario de 16,383, y así sucesivamente.
La conclusión para cuando realmente estás tomando fotos:
Obtendrá la mayor diferencia y el mayor número de gradaciones entre los elementos más brillantes y más oscuros² en la escena que está fotografiando cuando la amplificación se encuentra en la sensibilidad "base" de la cámara y el tiempo de obturación y la apertura se combinan para dar los elementos más brillantes en la escena solo exposición suficiente para estar en o cerca de la saturación completa. Usar un valor ISO más alto es útil si no es posible exponer durante tanto tiempo o con una apertura lo suficientemente amplia como para acercarse a la saturación completa de los aspectos más destacados en la escena para la imagen que desea hacer. Pero usar un ISO más alto tiene un precio. El rango dinámico total se reduce por la mayor amplificación de las señales eléctricas que salen del sensor.
Entonces, ¿por qué no siempre disparamos a ISO 100, o cualquiera que sea el ISO base de la cámara, y luego empujamos la exposición más tarde en la publicación? Porque hacerlo de esa manera tiende a amplificar el "ruido" en la imagen incluso más que disparar a valores ISO más altos. Cuánto más depende de cuánto y dónde se realiza la reducción de ruido a la señal. Pero reducir la influencia del ruido aplicando la reducción de ruido a los voltajes analógicos que salen del sensor también tiene un precio: las fuentes de luz de punto muy tenue a menudo se filtran como "ruido". Es por eso que algunas cámaras con muy buen rendimiento con poca luz / alto ISO, en términos de reducción de ruido, también son conocidas como "comedores de estrellas" por los astrofotógrafos.
¹ Hay una ligera variación en la energía contenida en un fotón en función de la frecuencia a la que oscila. Los fotones que oscilan a frecuencias más bajas liberan un poco menos de energía al golpear el sensor que los fotones que oscilan a frecuencias más altas. Pero para los fotones que oscilan a una frecuencia / longitud de onda específica, la cantidad de energía liberada al golpear el fondo de un pozo de píxeles es la misma hasta que se alcanza la capacidad total del pozo.
² Llamamos a la diferencia entre los elementos más oscuros y más brillantes que puede grabar un sensor (o película) el rango dinámico del medio de grabación. Por cada parada de aumento de la sensibilidad (ISO) con una cámara digital, la diferencia de voltaje lineal entre "cero" y "saturación total" se reduce a la mitad. Cuando se convierte a escalas logarítmicas, como 'Ev', duplicar la sensibilidad da como resultado una reducción de una 'parada' del rango dinámico (todo lo demás es igual, lo que rara vez es).
Además de la excelente respuesta de Michael Clark (que describe el recorte de capacidad de pozo completo y el recorte de ADC), hay varios otros puntos en una tubería de fotografía digital donde puede ocurrir el recorte:
Para imágenes no RAW, durante la corrección de color en el dispositivo / ajuste automático de gamma antes de la compresión, y durante la compresión misma.
Cuando comprime una imagen como JPEG o MPEG, el hardware trunca la profundidad de bits a lo que sea compatible con el medio comprimido, que generalmente es mucho menor que la profundidad de bits de hardware. Debido a ese truncamiento, los valores cercanos a ambos extremos de brillo se pierden.
Antes de la compresión, su cámara aplica corrección de color y ajustes de gamma que pueden afectar el rango dinámico efectivo que se ajusta dentro de la profundidad de bits limitada proporcionada por el compresor. Por ejemplo, cuando se graba video en el modo Canon Log, las partes más oscuras y claras de la escena se tiran matemáticamente hacia el centro para que el rango dinámico efectivo aumente significativamente y se recorten menos partes de la imagen en cada extremo del rango.
Durante el postprocesamiento. Cuando se realiza un procesamiento posterior que altera significativamente el brillo de una imagen, es posible que las primeras etapas del cálculo realmente causen que los valores excedan el rango que puede representarse correctamente por el número de bits utilizados para mantenerlos. Si bien es raro, esto a veces ocurre, y cuando ocurre, puede causar recorte incluso en áreas de la foto que no están recortadas en la imagen original.
Durante la corrección de la gama de colores al imprimir o mostrar la imagen. Al realizar la corrección de color, a veces puede obtener valores que quedan fuera de la gama y que el medio de salida puede reproducir con precisión. En ese punto, el motor de color tiene que decidir qué hacer con esos valores fuera de gama. Esto también resulta efectivamente en recorte, aunque visualmente se ve algo diferente de lo que la mayoría de las personas piensan cuando hablan de recorte, lo que generalmente da como resultado que las cosas se vean del color incorrecto.
La explicación empírica fácil:
Mire una bombilla muy brillante, si la luz es lo suficientemente brillante, no podrá ver el interior de la bombilla porque sus pupilas pueden cerrarse más y todavía hay demasiada luz golpeando su retina, saturándola y la información que llega tu cerebro está recortado (solo ves luz brillante pero no los detalles dentro de la luz). Esa es una de las razones por las que si lo intentas, no deberías hacerlo, para mirar directamente a un cielo despejado al sol del mediodía, no podrás ver el sol sino una luz intensa (Ten en cuenta que tratar de hacerlo sin el la protección adecuada puede dañar de manera permanente sus ojos o su equipo fotográfico, lentes y sensor)
Cualquier sensor se comporta de la misma manera (desde su cámara o de otra manera). Una vez que la señal (en este caso, la luz) es demasiado alta para su capacidad (alcanza el nivel de saturación), recortará cualquier información adicional, no podrá discernir más señal, transmitiendo solo una señal plana alta sin ninguna información valiosa.