¿Cuál es el propósito de la corrección gamma en las pantallas actuales y cómo se relaciona con los gráficos y la fotografía?


15

Me estoy confundiendo bastante con el propósito de la corrección gamma y la relación entre las imágenes con corrección gamma y sin corregir en términos de gráficos y fotografía, así como la gestión del color en general (conversión de espacios RGB lineales a espacios con corrección gamma RGB y luego mostrarlo en el pantalla).

De muchas fuentes, principalmente http://www.guillermoluijk.com/article/gamma/index.htm y la pregunta # 23026151 en StackOverflow (¿Necesito corregir gamma la salida de color final en una computadora / monitor moderno?) , I ' Hemos llegado a la conclusión de que:

La corrección gamma se diseñó originalmente para compensar la respuesta no lineal de los monitores CRT a la señal de entrada. Los CRT no pudieron amplificar la señal de entrada por sí mismos y, por lo tanto, la señal de salida de la PC tuvo que ajustarse para dar lugar (a partir de hoy) a la corrección gamma 2.2 estándar y al espacio de color sRGB.

Sin embargo, las pantallas modernas no sufren la pérdida de señal como lo hicieron los CRT. También pueden mostrar algunas no linealidades, pero dado que la señal de entrada a menudo se transmite solo por 8 bits por canal (256 sombras), deberían ser capaces de compensar algunas no linealidades en su reproducción de color, ya que probablemente sean capaces de reproducir más de 256 sombras en un canal. Esto significaría que la corrección de gamma junto con sRGB y todos los espacios de color con corrección de gamma son solo una herencia de la era CRT y su único propósito era mostrar la señal de entrada linealmente.

También hay artículos que afirman que la corrección gamma está aquí para compensar la no linealidad de la visión humana.(CambridgeInColour.com - Comprensión de la corrección gamma), que debería corresponder aproximadamente a la curva gamma, ya que somos capaces de detectar pequeñas diferencias en tonos más oscuros, pero no lo hacemos bien con los más brillantes (el brillo de un punto debe crecer exponencialmente para que pueda parece más brillante). No es así como los sensores de la cámara graban la escena. Los datos sin procesar de un sensor se obtienen en RGB lineal y se desarrollan en un espacio de color RGB con corrección gamma (sombras elevadas y luces oscurecidas). Sin embargo, la corrección gamma estaba destinada a compensar la pérdida de señal de salida, así que lo que creo que hacen las pantallas modernas es que simplemente simulan el comportamiento de los CRT para cancelar la corrección gamma y mostrar la escena tal como fue capturada por la cámara, más o menos hablando, cartografiando la cámara sombras 1: 1 a las de la pantalla. Bien,

¿Significa entonces que cada sombra en cualquier espacio de color RGB debe tener exactamente los mismos valores RGB en cualquier otro espacio RGB, incluido RGB lineal (por ejemplo, # 010A1F en sRGB se traduce exactamente a # 010A1F en RGB lineal en términos de almacenamiento en un archivo de mapa de bits con 8bpc) y solo depende de la pantalla y el adaptador de gráficos cómo organizan la transferencia de color y si cada lado tiene que realizar cálculos adicionales para convertir la imagen en el espacio de color de destino. En otras palabras, cambiar el espacio de color en un editor de gráficos no tiene nada que ver con los valores RGB en sí mismos, solo toma nota del nuevo espacio de color en los metadatos de la imagen? Creo que este no es el caso porque la administración del color como tal se volvería inútil donde se usa el adaptador de gráficos digitales / interfaz de pantalla: el adaptador de gráficos simplemente podría enviar datos RGB sin importar el espacio de color utilizado, ya que no se obtendría ganancia analógica (gamma) aplicado a los valores que van en una escala lineal de 0 a 255. Además, la gama de diferentes perfiles de color sería la misma si no se introdujeran errores de redondeo, o?

Mi último poco de confusión proviene posiblemente del malentendido de la conversión del perfil de color y la tabla de niveles de exposición (la primera) en el artículo http://www.guillermoluijk.com/article/superhdr/index.htm (se puede traducir usando Traductor de google). ¿Entiendo correctamente que los valores lineales se transforman utilizando una función exponencial (o gamma inversa), reduciendo el rango tonal hacia las sombras y, por lo tanto, oscureciendo la imagen? ¿Es esto lo que sucede si guardamos RGB lineal y lo presentamos como una imagen con corrección gamma en la pantalla de la computadora?

Pido disculpas por hacer una pregunta tan compleja, pero resulta muy difícil encontrar una fuente de información realmente buena que explique todas las incertidumbres que surgen. Gracias de antemano por cualquier respuesta que pueda ayudar a corregir mi malentendido.


44
Es posible que desee intentar condensar esta pregunta. Si bien todavía es posible responderlo solo desde el título, creo que editarlo sería una buena manera de ayudarlo a comprender el tema usted mismo.
JenSCDC

1
Estoy empezando a trabajar en una respuesta, en gran parte porque me di cuenta de que había olvidado mucho, y responder la pregunta de alguien es una buena manera de volver a aprenderla.
JenSCDC

La razón principal es simplemente la compatibilidad con versiones anteriores. Desea poder usar la misma computadora y el mismo software con monitores CRT antiguos y monitores LCD modernos. El software sigue haciendo lo mismo que en los viejos tiempos: crea imágenes en el espacio de color sRGB. Esto, por supuesto, incluye la corrección gamma habitual. Luego, los viejos monitores CRT usarán las imágenes tal cual, mientras que las pantallas modernas básicamente "deshacerán" la conversión de un espacio de color lineal a un espacio de color sRGB.
Jukka Suomela

Y cómo se relaciona con la fotografía: dadas las herramientas adecuadas, no lo hace. La corrección gamma (y, en general, las conversiones entre varios espacios de color) ocurre automáticamente; los usuarios normales no deberían poder verlo en absoluto. Es solo un tecnicismo que los programadores de computadoras tendrán que tener en cuenta, pero los usuarios finales no necesitan saberlo en absoluto. (A menos, por supuesto, que desee ingresar explícitamente algo como valores de color hexadecimales en el espacio de color sRGB, en cuyo caso es muy probable que sepa lo que está haciendo).
Jukka Suomela

Respuestas:


10

de Charles Poynton "La rehabilitación de la gamma" :

Concepto erróneo: la falta de linealidad de un monitor CRT es un defecto que debe corregirse.

Hecho: La no linealidad de un CRT es casi lo contrario de la sensibilidad a la luz de la visión humana. La no linealidad hace que la respuesta de un CRT sea aproximadamente perceptualmente uniforme. Lejos de ser un defecto, esta característica es altamente deseable.

Concepto erróneo: el objetivo principal de la corrección gamma es compensar la no linealidad de la CRT.

Realidad: El objetivo principal de la corrección gamma en video, gráficos de escritorio, preimpresión, JPEG y MPEG es codificar valores de luminancia o triestímulo (proporcionales a la intensidad) en un dominio perceptualmente uniforme, para optimizar el rendimiento perceptual de un número limitado de bits en cada componente RGB (o CMYK).

el resto del artículo también es muy esclarecedor :)


La escena en Nature está en gamma lineal, y debe presentarse en una pantalla o en papel de la misma manera, con un pequeño aumento de gamma para compensar el destello, generalmente gamma 1.1 o 1.2.
Iliah Borg

1
La tesis doctoral del Dr. Poynton está ahora en línea: poynton.ca/PDFs/Poynton-2018-PhD.pdf . Los capítulos 3 y 4 tratan de las curvas clásicas, el capítulo 8 presenta el OETF "Barten Lightness" que tiene la misma forma que la curva Dolby PQ (SMPTE-2084). En el extremo superior de la escala, se transforma sin problemas de una gamma en una curva logarítmica, que es lo que realmente esperábamos. ¡Todo el libro es muy esclarecedor!
Jeroen van Duyn

7

Considere este ejemplo de Cambridge in Color :

ingrese la descripción de la imagen aquí

Al aplicar la codificación gamma, podemos representar la imagen original con mayor precisión, con la misma profundidad de bits (5, en este ejemplo).

Esto se logra mediante el uso de los 32 niveles de una manera que se corresponde más estrechamente con el ojo humano. En otras palabras, es una forma de compresión. Los archivos JPEG, por ejemplo, pueden almacenar alrededor de 11 paradas de rango dinámico a pesar de usar solo 8 bits por canal.

Y como cualquier otra forma de compresión, no importa si no le importa el tamaño del archivo (y la velocidad más baja con la que puede leer o escribir archivos más grandes). En teoría, podría usar un formato similar a JPEG que usara gamma lineal, si estuviera dispuesto a asignar 11 bits a cada canal en lugar de 8.

Entonces, para resumir, la gamma es solo una forma de compresión: reduce el tamaño del archivo necesario para almacenar una cierta cantidad de información a medida que el ojo la percibe. Alternativamente, le permite almacenar gradaciones más sutiles en la misma profundidad de bits.


7

Soy un ex ingeniero de radiodifusión y actualmente trabajo en largometrajes y televisión como editor y supervisor de efectos visuales.

Muchas declaraciones aquí son incorrectas. La gama en la ruta de señal es un beneficio deseado , y una elección de diseño por parte de los primeros ingenieros de video para reducir el ruido percibido en la transmisión.

Todos los tubos de vacío, incluidos los CRT, exhiben varias no linealidades (consulte la ley de Langmuir-Child) Los CRT pueden variar de un "gamma" de 1.5 a más de 3.5 (cuando son impulsados ​​por una señal de voltaje) dependiendo de varias diferencias de diseño. Las no linealidades fueron un problema menor con el monocromo, pero se volvieron más críticas con el color, por lo que el NTSC especificó una señal gamma de 1 / 2.2. El diseño de CRT y los circuitos de soporte ajustan la gamma real de la ley Langmuir-Child (comúnmente entendida como 1.5, pero generalmente es más alta con las CRT debido a una serie de factores) a un nivel en línea con la percepción de la "gamma" humana de ~ 2.5. Para NTSC, se suponía que el televisor tenía un objetivo gamma de ~ 2.4, ** mientras que PAL indicaba ~ 2.8

La gama más alta en los viejos estándares de señal de transmisión analógica es específicamente para reducir el ruido percibido, en base a que la percepción humana es no lineal. En este caso de uso, aprovechando las no linealidades para ocultar el ruido por el efecto "comparativo" de la codificación gamma de la señal. Esto es bastante académico.

Hay algunas formas en que el diseño de TV y monitor CRT podría haberse alterado para lograr linealidad en lugar de una curva de tipo gamma, pero una curva gamma en la transmisión analógica redujo el ruido aparente en 30 dB. Gamma era deseable entonces COMO LO ES AHORA .

Se necesita gamma incluso si se pudiera usar un monitor LCD de forma lineal (gamma 1.0). Las afirmaciones aquí de que ya no se necesita gamma son una litera completa y no entienden el propósito actual de aplicar una curva de pre-énfasis.

Gamma es lo que permite que sRGB (o Rec709) se vea "bien" a pesar de que la profundidad de bits es de solo 8 bits por canal. Aquí hay un ejemplo:

Esta es una imagen en sRGB, 8 bits, con pre-énfasis gamma (es decir, imagen web normal). normal

Así es como se vería esa imagen sin el beneficio de gamma (es decir, si se tratara de valores lineales y visualización lineal, sin pre-énfasis gamma). malo

Gamma proporciona MÁS PUNTOS en las áreas más oscuras para gradientes más suaves y menos ruido.

Si quisieras ser totalmente lineal, toda tu ruta de señal necesitaría al menos 12 bits por canal. 8 bpc NO ES SUFICIENTE. La codificación con una curva y la decodificación en la pantalla permiten el uso de un fragmento de datos más pequeño de un byte por canal de color.

En la película, utilizamos lineal como espacio de trabajo , pero cuando trabajamos con lineal estamos en coma flotante de 32 bits por canal . Cuando intercambiamos archivos de imágenes lineales, usamos EXR Half, que es de 16 bits por canal flotante. (Y si usamos archivos DPX de 10 bits, los datos de la imagen se codifican usando una curva LOG).

PERO

Los monitores de computadora que usamos todavía son de 8 o 10 bits PARA VISUALIZAR, por lo que todas las imágenes lineales aún deben ajustarse a gamma antes de enviarse al monitor. ¿Por qué?

La mayoría de los monitores "buenos" tienen solo 8 bits por canal, y muchos son "internos de 6 bits", lo que significa que toman una imagen de 8 bits por canal y se muestran como 6 bits por canal. ¿Cómo pueden hacer una imagen aceptable?

¡GAMA!

Los monitores de 10 bits por canal son raros y caros (como mi NEX PA271W). Mi NEC puede tomar una señal de 10 bits y utiliza una LUT interna de 14 bits para la creación de perfiles. ¡Pero 10 bits todavía no son suficientes para lineal!

Se requiere gamma o alguna forma de curva de preemph / deemph incluso para 10 bits. 12 bits es el mínimo indispensable para una visualización lineal razonable, e incluso entonces es inaceptable para la industria del largometraje.

Utilizamos proyectores de 12 bits para DCDM (cine digital) y ¿adivina qué? ¡DCDM no solo usa CIE X´Y´Z´, TAMBIÉN usamos un proyector gamma de 2.6 !!!

DCI fue creado para teatros y es su propio ecosistema cerrado, sin depender de tecnologías antiguas como CRT. Si hubiera alguna "ventaja" al usar un espacio lineal (gamma 1.0), se habría usado, pero no lo es.

Lineal NO se usa en cine digital porque la VENTAJA está usando una curva gamma .

Entonces, deje de decir que solo usamos gamma por razones heredadas, porque eso es falso.

Lea a Poynton sobre el tema , ya que aclara estos problemas de una manera fácil de entender.

Gracias por leer.

Nota al pie: ** Si bien el NTSC especificó una señal gamma de 1 / 2.2, se esperaba que los televisores tuvieran una gamma de 2.4 para una ganancia gamma del sistema. Es útil señalar que Rec709 (HDTV) y sRGB son idénticos, excepto por la curva de transferencia. Y curiosamente, Rec709 (a través de BT1886) especifica una "pantalla gamma física" de 2.4 (es decir, la gamma del monitor en sí) y los monitores sRGB generalmente están configurados en 2.4 o más (las encuestas muestran que la mayoría de los usuarios los configuran en 2.5 y superiores). Pero la señal gamma es diferente, aprox. 1 / 2.2 para sRGB y aproximadamente 1 / 2.0 para Rec709. En ambos casos, hay una ganancia gamma del sistema que es intencional en función del entorno de visualización esperado.


Siempre me pregunté por qué la industria del audio no utiliza el mismo enfoque, sino que arroja más de 16 bits por muestra ...
Zeus

Hola @Zeus, hay varias razones (si haces esto como una pregunta, puedo darte una respuesta más profunda). Básicamente, incluso a 16 o 24 bits, las transmisiones de audio tienen un ancho de banda mucho más bajo que el video (en general) y son computacionalmente más fáciles de manejar. Sin embargo, el audio SÍ utiliza estos tipos de pre-énfasis y de-énfasis en muchos casos (particularmente baja tasa de bits). Y, de hecho, la audición también es no lineal (como lo es toda percepción), pero el audio de 8 bits es "algo así" como un video de 4 bits por canal. Recuerde que el video de 8 bits por canal usa un total de 24 bits por píxel, por lo que la comparación con el audio de 16 bits es manzanas / naranjas.
Myndex

Gracias @Myndex, desafortunadamente esto estaría fuera de tema aquí como una pregunta. Tengo curiosidad por saber por qué ese pre-énfasis no se usó para el audio desde el principio, dado que es tan natural para el oído como para la vista. Por cierto, me refería a 16 bits por canal, por supuesto (como en un CD); El audio lineal de 8 bits (que existe formalmente) es posiblemente más horrible que el video lineal de 8 bits de su ejemplo (que ni siquiera existe como estándar). Entiendo que las compensaciones son más bajas, pero los beneficios son altos: perder la mitad de la resolución cada 3 dB se siente loco ...
Zeus

Creo que hay un sitio relacionado con el intercambio de pila que agradecería las preguntas de audio. Independientemente: cada bit en audio de 16 bits equivale a 6 dB (voltaje), por lo que hay un rango dinámico total de 96 dB. 6dB (voltaje) es "dos veces" (o la mitad) tan alto en voltaje, PERO los humanos tienden a percibir 10 dB como una cantidad literal "la mitad de alto". Pre / De emph se ha utilizado en audio desde el principio. Los registros tenían la curva RIAA, la cinta magnética usaba la curva NAB, etc. etc. ¿Qué quiere decir perder la mitad de la resolución cada 3 dB?
Myndex

En la codificación digital lineal, la mitad del voltaje es la mitad del rango digital (por definición), es decir, pérdida de 1 bit de resolución. Esto es mucho para algo que se percibe como 'un poco más suave' (-6dB, esa es la cifra que quise decir, no 3). Si queremos capturar los ~ 35dB requeridos al menos (para voz u orquesta), eso ya es una pérdida de 6 bits para los sonidos más suaves (e incluso entonces, si está correctamente normalizado). Soy consciente de la importancia 'analógica' (que era un poco diferente y dependiente de la frecuencia), pero nunca oído hablar de que se utiliza para la televisión digital, de ahí mis preguntas ...
Zeus

3

Hay muchos artículos confusos sobre la corrección gamma con muchas referencias vagas a la visión gamma y humana. La razón de la gamma es histórica y es el resultado de la curva de respuesta de los viejos monitores tipo CRT (nada que ver con la visión humana). Con las pantallas planas modernas no hay una razón lógica para la codificación gamma y la corrección posterior, pero se ha convertido en un estándar de la industria.

La relación coincidentemente similar entre la curva gamma y la curva de respuesta de la visión humana ofrece cierta ventaja al ayudar a reducir el tamaño del archivo, ya que la profundidad de bits de la imagen puede reducirse sin afectar la calidad de imagen percibida .


1

El OP es casi todo correcto, excepto que la gamma hace que los tonos oscuros sean más brillantes, no más tenues. Esto existe solo en el archivo, no en el ojo. Los datos siempre se vuelven a decodificar al lineal original ANTES de que cualquier ojo lo vea. Cualquier diferencia en el ojo al ver la escena original, y al ver los datos decodificados reproducidos, es simplemente un error de reproducción no deseado.

Gamma se realiza solo para corregir las graves pérdidas de los monitores CRT. CRT es no lineal, muestra tonos brillantes, pero pierde los tonos más oscuros. Por lo tanto, la gamma hace que los tonos oscuros sean demasiado brillantes, para luego parecer nuevamente normales (lineales) después de las pérdidas de CRT. Sin embargo, los monitores LCD son lineales, por lo que ya no necesitan gamma, pero para preservar la compatibilidad con todas las imágenes RGB del mundo, todos los estándares aún incluyen la misma gamma. Es fácil para los monitores LCD simplemente decodificarlo y descartarlo. Y los datos aún funcionan en CRT.

Gamma no está de NINGUNA MANERA sobre el ojo humano ... aparte de que deseamos ver los datos originales lineales corregidos. El ojo tiene una respuesta inversa similar, que es pura coincidencia, pero el ojo humano NUNCA ve datos gamma. Siempre se decodifica primero (ya sea por pérdidas de CRT o un chip LCD), y el ojo humano solo vuelve a ver los datos lineales (con suerte). Al igual que vio la escena original, tampoco se necesitaba gamma en la escena original. El ojo no necesita ayuda. Sal y mira un árbol. No hay gamma allí. ¿Realmente imaginamos que nuestro ojo no puede ver bien el árbol? :) Piensa en eso un poco más. El cerebro decodifica la respuesta de los ojos, y la CRT o LCD decodifica la codificación de datos. Aquellos que afirman que la gamma se trata del ojo simplemente no lo saben, simplemente están repitiendo cosas incorrectas que escucharon. No es difícil escucharlo, pero está muy mal. Estos tipos deberían explicar cuándo y cómo el ojo humano puede ver la gamma que imaginan que es necesaria. No puede, no tiene ninguna posibilidad.

Gamma no se trata de 8 bits. Los datos se codifican y luego se decodifican, y con suerte serán idénticos, para que podamos ver una reproducción precisa de la escena lineal original. Gamma se realizó a principios de NTSC TV (1940), antes de que hubiera bits, pero tuvimos CRT. :) Gamma solo se trata de pérdidas de CRT. Puro y simple. Y en el día de la TRC, la gamma era extremadamente necesaria.

Los datos RGB se normalizan (para ser 0..1 valores porcentuales) antes de agregar gamma, típicamente con exponente 1 / 2.2 (raíz cuadrada aproximada). 18% es (0.18 ^ 1 / 2.2) = 0.46, o 46% en el histograma, o 117 en la escala 0..255. (La imagen de personas 18% también debería ser 50%. :) 18% es 18%, pero vemos casi 50%, solo porque los datos del histograma están codificados en gamma.) Pero tenga en cuenta que 0 para cualquier exponente sigue siendo 0, y 1 para cualquier exponente sigue siendo 1, por lo que no hay aumento del rango dinámico. Y sin recorte tampoco debido a gamma, los puntos finales no pueden moverse. Y, por supuesto, porque los datos se decodifican antes de que nadie los vea. Todo (codificar, luego decodificar) es solo un no-op. No hay cambio en el ojo, con suerte. Pero en los archivos, los datos normalizados (que es una FRACCIÓN) a un exponente se convierten en un número mayor, más brillante, excepto que ningún ojo puede verlos allí.

Gamma SOLO se hace para corregir la respuesta de los monitores CRT.


1

Creo que nuestros ojos tienen esta curva de respuesta, pero esta respuesta a un cambio repentino en la cantidad de luz, especialmente si aumenta, pero al mismo tiempo el cerebro decodifica esa respuesta al estrechar nuestro iris para mantener la misma (percepción lineal) tener mientras está en una condición de visualización estable hasta que la transición a la nueva condición de visualización ocurra sin problemas.

La corrección gamma proviene esencialmente de la no linealidad de la pistola de electrones CRT que necesitaba más codificación (es decir, se aplicó una gamma de .45) para enviar una salida uniforme (salida lineal) porque las características de la pistola de electrones CRT producen la señal como si se decodificara (es decir, una gamma de 2.2 curva aplicada). En los días de CRT, codificaron todos los datos digitales para mantener la uniformidad de visualización e intercambio de datos en Internet, por lo que los formatos de archivos de imagen codificados principalmente con la curva Gamma de sRGB, que es muy similar a la curva Gamma .45455) y que cancelaron el problema de la pistola CRT .

Ahora, después de que todos los datos en Internet se codificaron y debido a ese comportamiento lineal de la tecnología LCD (es decir, señal de entrada = valores de salida), descubrieron que es demasiado tarde para decodificar todos los datos digitales nuevamente después de que se convirtieron en un estándar, por lo que han venido con un solución lógica! y es para imitar nuevamente el defecto de CRT y produjeron LCD con un chip que decodifica la señal (es decir, aplica una curva gamma de 2.2) como un sistema heredado :) de lo contrario, deberían haber decodificado todos los datos en Internet.

Así que no te quedes atascado en esta confusión de la no linealidad del ojo, tendrás un círculo interminable de pensamientos desesperados.

Y aquí está la relación con Gamma y nuestros ojos

Datos de imágenes lineales producidos por los sensores RAW. Archivos RAW que tienen por defecto gamma = 1.00 (naturaleza del sensor de la cámara), es decir (sin decodificación o codificación = sin corrección) cuando los archivos RAW "mostrados" en el monitor se oscurecieron "solo se vieron oscuros" y allí 10 & 12 bits por canal son archivos grandes, pero lamentablemente no estábamos beneficiando esta profundidad en absoluto porque nuestros ojos no son sensibles a los valores brillantes tanto como son demasiado sensibles a los valores oscuros y pueden distinguir cualquier cambio sutil en la oscuridad (y lo haré se explica a continuación).

Debido a que la imagen se "ve oscura" debido a la naturaleza de los Monitores, los niveles de brillo se desperdician en los valores brillantes más que en los medios y los valores oscuros (debido a que el monitor gamma vio los tonos medios desplegados ", por lo que nos beneficiaríamos mucho más si fuera oscuro los valores tuvieron la misma oportunidad.

Así que descubrieron que la aplicación de la corrección Gamma (por ejemplo, codificando datos brutos en algún formato como JPEG con .45455 gamma de sRGB) por suerte, convirtiéndola a 8 bits por canal, lo que significa un tamaño de archivo más bajo además de una visualización o visualización adecuada de los valores de brillo es (que consiste en quemar el .45455 gamma en los píxeles) y volver a oscurecer los tonos medios y medios) es muy coherente con la naturaleza del ojo.

Mi explicación es porque las células de Rod en los ojos tenemos la capacidad de visión nocturna y esa naturaleza demasiado sensible para distinguir los valores oscuros >> tenemos alrededor de 120 millones de células de Rod Vs solo 6 o millones para las células de Conos que es sensible a los colores monocromáticos y longitudes de onda

Creo que no es la curva de respuesta ocular la responsable de eso y no intente vincular entre Eye's Gamma y Monitor Gamma de ninguna otra manera y corríjame si estoy equivocado :). Me he esforzado por comprender los problemas de Gamma, de modo que todo lo que tengo al respecto.

Esta es una de las mejores referencias sobre razones y soluciones gamma.

http://www.w3.org/TR/PNG-GammaAppendix.html


0

Aquí está mi primer borrador de una respuesta: entraré en más detalles a medida que el tiempo lo permita, pero quiero darle al OP algún tipo de respuesta. Los comentarios son más que bienvenidos.

Las cosas sobre los CRT ya no se aplican. Pero hay una muy buena razón práctica para continuar usando imágenes codificadas con gamma. El uso de la codificación gamma hace que las ediciones como curvas se vean "normales" porque el ojo no responde linealmente a la luz. Busque la creación del espacio LAB para obtener más información al respecto.

Por ejemplo, mira esta captura de pantalla:ingrese la descripción de la imagen aquí

La imagen de la izquierda es el original, la imagen del medio es una copia en gamma 2.2 y la imagen de la derecha es una copia en gamma 1.0. Se puede ver la curva aplicada a cada una de las copias. Dada la forma de la curva, ¿la versión 2.2 o 1.0 se parece a lo que esperaría?


0

De hecho, la gamma no es necesaria en estos días, especialmente cuando se trabaja en representaciones de bits de la imagen. Sin embargo, eso significa una reescritura completa del software en demasiados casos, o la transición está lejos de ser perfecta (por ejemplo, las curvas familiares cambian la forma por completo, como acaba de mencionar Blankertz).


-1

Los monitores LCD son "lineales" y no necesitan gamma en la actualidad, pero los monitores CRT son no lineales y aún lo necesitan. Y todos los archivos de imágenes existentes en el mundo tienen gamma para CRT, por lo que es mucho más fácil continuar agregando gamma que cambiar todo el software y obsoleta todas las imágenes existentes.

El ojo humano no tiene absolutamente ningún uso para gamma. El ojo ve bien la escena original sin gamma. Gamma SOLO es para corregir las pérdidas esperadas de los monitores CRT (por lo que vemos una reproducción de la escena original). Los monitores LED saben que solo decodifican gamma y lo descartan, no es gran cosa (porque el ojo humano espera ver una reproducción fiel de los datos de la escena original sin gamma, la reproducción debería verse igual). Sería malo verlo como datos gamma. Afortunadamente, el ojo humano no tiene ninguna oportunidad de ver ningún dato gamma. Los sitios que nos dicen que el ojo necesita gamma simplemente no saben nada sobre gamma.

Sin embargo, nuestros histogramas están codificados en gamma, porque los datos están codificados (por la razón anterior), hasta justo antes de que se muestren al ojo humano. El punto medio de nuestros datos codificados no es el 50%, sino alrededor del 73% en datos gamma (los ajustes de la cámara, como el balance de blancos y el contraste, lo cambian un poco más). Si subexpone una imagen exactamente en una parada, el punto 255 cambia a una escala de aproximadamente 3/4 y NO a una escala del 50%. Una tarjeta gris de 18% es 18% en datos de línea, pero aproximadamente 46% en datos de gamma. Las personas que suponen incorrectamente que debe ser el 50% de alguna manera incluso pueden pensar en calibrar su medidor de luz. :) Pero el ojo nunca ve datos gamma, siempre se decodifica primero, de una forma u otra. El ojo, con suerte, siempre ve una reproducción fiel de la escena original.

Pero FWIW, las impresoras también necesitan la mayor parte del cambio gamma. No tiene el valor 2.2, pero no está muy lejos de él (debido a la ganancia de punto, etc.). Apple observa los estándares mundiales 2.2 ahora, pero todos sabemos que las primeras computadoras Mac solían usar gamma 1.8. Esto NO era para el monitor, usaban los mismos monitores que usaba Windows (los monitores son intercambiables). Pero Apple solía vender impresoras láser en aquel entonces, y la gamma 1.8 era para su impresora. Luego, el hardware de video de Mac agregó un poco más para llevarlo a la 2.2 que necesitaba el CRT. Hoy en día, las impresoras tienen que atenuar un poco los datos 2.2 que reciben, pero aún necesitan gran parte de ellos.

Hoy, el estándar es gamma 2.2, por lo que todos los datos RGB existentes en el mundo siguen siendo compatibles.


1
El LED es de tipo retroiluminado. La razón principal para la corrección gamma NO es la optimización para CRT, incluso si alguna vez lo fue.
Euri Pinhollow
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.