¿Qué sentido tiene que la "nitidez" sea ajustable en un monitor?


91

Los monitores modernos a menudo tienen una configuración de "nitidez".

Pero realmente no entiendo cómo tiene sentido que tal entorno exista.

El software le pide al monitor que muestre un patrón particular de valores RGB de 32 bits, ¿verdad?
es decir, el sistema operativo puede pedirle al monitor cada cuadro que muestre un mapa de bits particular de 1920 × 1080 × 32.

Pero ajustar la "nitidez" significa dejar que los valores de píxeles cercanos se afecten entre sí, lo que parece implicar que la entrada ya no se representa fielmente ... lo que significa que ya no mostrará lo que se le pide que muestre, lo que no hace sentido. Así que simplemente no veo dónde esto deja espacio lógico para el ajuste de nitidez.

¿De dónde viene exactamente el grado de libertad para ajustar la nitidez?


30
Es curioso, la última vez que vi nitidez fue en un CRT. En aquel entonces, le permitía controlar el tiempo entre los pulsos rojo, verde y azul para alinearlos adecuadamente. Si fuera un poco demasiado rápido o demasiado lento, los tres fósforos estarían un poco manchados. Si los alineó correctamente, la imagen era lo más nítida posible. Obviamente, eso no se aplica en absoluto a las pantallas modernas.
Todd Wilcox

8
Estás dando muchas respuestas que no responden a tu pregunta, podría ser útil si dijeras por qué no responden la pregunta. Vale la pena señalar que la ley no requiere que el monitor muestre lo que el software le pide. Podría, por ejemplo, cambiar cada tercer píxel a verde, o invertirlos. Entonces, la razón por la que el monitor puede "difuminar" las imágenes es porque suficientes clientes lo querían, podría estirar la imagen con la misma facilidad pero nadie quería eso, por lo que no lo hacen. Entonces, solo hay 2 tipos de respuesta: ¿cómo se hace esto técnicamente o por qué la gente quiere esto?
Richard Tingle el

3
@ RichardTingle: Supongo que la respuesta a "por qué la gente quiere esto" también podría responder a mi pregunta, sí. Aunque estoy más tratando de entender qué sentido tiene esto desde una perspectiva técnica. Para darle un ejemplo, en realidad tiene sentido para mí tener parámetros de nitidez para mostrar fotos RAW, porque el mapeo de los datos del sensor a los píxeles es inherentemente un problema indeterminado (es decir, no tiene una solución única) con grados de libertad como nitidez, nivel de ruido, etc. Pero los mapas de bits son píxeles, entonces, ¿dónde está el espacio para ajustar cosas como "nitidez"?
Mehrdad

2
@ToddWilcox: Por lo que vale, al menos los monitores HP EliteDisplay (LCD) tienen una configuración de "Nitidez", y funciona incluso con una entrada digital (es decir, no VGA).
sleske

2
Podría agregar que he tenido que ajustar la "Nitidez" para compensar a los usuarios que tienen anteojos o lentes de contacto en algunos casos.
PhasedOut

Respuestas:


81

Según https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ , la "nitidez" en una pantalla LCD es parte del procesamiento posterior.

Incluso omitiendo el reescalado / muestreo ascendente (por ejemplo, si intenta mostrar una señal SD en un monitor HD), y las complejidades de la calibración del color, el monitor no siempre muestra la imagen como se muestra. Este es un desafortunado efecto secundario del marketing.

A los fabricantes de monitores les gusta distinguir su producto de otros productos. Desde su punto de vista, si alimenta la misma señal a su monitor y a un competidor más barato, y se ve idéntico, esto es malo . Quieren que prefiera su monitor. Entonces hay un montón de trucos; Por lo general, fuera de la caja, el brillo y el contraste están más allá de lo que es sensato. La "nitidez" es otro truco. ¿Cómo hace que su imagen se vea más nítida que un competidor que muestra la imagen exactamente como se envió? Engañar.

El filtro de "nitidez" es efectivamente usado en Photoshop y programas similares. Mejora los bordes para que llamen la atención.


77
+1 gracias, ¡creo que te estás acercando bastante a responder el corazón de mi pregunta! Según su respuesta, parece que la respuesta directa sería "no, no tiene ningún sentido científico, pero no les importa y lo hacen de todos modos porque ayuda con el marketing".
Mehrdad

8
La mayoría de los LCD que he visto solo permiten cambiar la nitidez de las señales analógicas, lo que tiene mucho sentido, por supuesto. Conecte la pantalla a través de DVI / HDMI y no obtendrá controles de nitidez (de hecho, perderá la mayoría de los controles de señal, ya que solo tienen sentido para señales no perfectas). También es común en las pantallas LCD que son pantallas híbridas de monitor / televisión, ya que las TV tienen esas características (para bien o para mal), así que estas pantallas solo mantienen la paridad de las funciones. Si cree que es un marketing sin sentido, intente ver un VHS en una pantalla que asume una señal de píxeles perfectos :)
Luaan

3
No es solo marketing. Los "píxeles" no están en líneas rectas, ni son unidades individuales como sugeriría el nombre de píxel.
HackSlash el

26
El monitor nunca puede mostrar la imagen como se muestra, y no se debe a la fabricación. Colores, brillo, negros, resoluciones: todo varía de un monitor a otro. Una señal digital podría decir: 'píxel de luz x con un brillo del 50%'. ¿Qué es el 50% de brillo? ¿O qué es 100 de 200 brillo? Absolutamente depende del hardware del monitor y la programación. Que es azul o amarillo? Es por eso que hay ajustes para empezar. Por lo tanto, un usuario puede hacer que la imagen se vea como cree que debería verse o disfrutar. La idea de que una señal esté representada al 100% con precisión en cualquier monitor es ridícula.
Appleoddity

44
Algunos de los comentarios son técnicamente correctos (como "El monitor nunca puede mostrar la imagen como se muestra"), pero la respuesta es correcta que lo que está sucediendo es el filtrado (y que se hace por engaño). Además, está filtrando con algunos coeficientes negativos, lo que inherentemente introduce artefactos horribles; una vez que te des cuenta de esto, nunca podrás volver a verlo. :-)
R ..

67

Pregunta original: ¿De dónde viene exactamente el grado de libertad para ajustar la nitidez?

La nitidez está directamente relacionada con el tipo de señal y el contenido que está viendo. Las películas generalmente se ven mejor cuando se reduce la nitidez y se permite que los píxeles se desenfoquen un poco. Por otro lado, una pantalla de computadora querría alta nitidez para texto claro e imágenes nítidas. Los videojuegos son otro ejemplo donde una mayor nitidez es mejor. Las señales de TV de baja calidad también se pueden mejorar con controles de nitidez.

Al ser monitores se pueden usar para mostrar una pantalla de computadora, una película o prácticamente cualquier fuente de video, la nitidez sigue siendo una configuración útil.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDITAR: El OP ha indicado en comentarios que esto no responde la pregunta.

OP: ¿En qué parte del problema hay espacio para algún ajuste? Como si te digo x = 1 e y = 2, y luego digo "oh, y quiero x - y = 3". Eso no tiene sentido.

El proceso de convertir una imagen / video en vivo a señales eléctricas analógicas / digitales, transmitir a través de algún medio y recrear esa imagen en un dispositivo de visualización NUNCA es un proceso 1 a 1.

El ruido de la señal, la pérdida de compresión, las variaciones de fabricación y equipo, el tipo de cableado / señal y otros factores entran en juego. Todos los ajustes en un monitor están diseñados para trabajar juntos para brindar al usuario final la experiencia de visualización de la más alta calidad, de acuerdo con el usuario final. La interpretación es completamente subjetiva.

OP: Esta respuesta no responde a la pregunta de por qué el espectador ajusta la nitidez cuando el creador de contenido ya lo ha definido (ya sea Spielberg o Excel).

Si vamos a seguir esta lógica, ¿por qué los monitores necesitan o tienen CUALQUIER ajuste? La respuesta es que lo que vemos en la pantalla no es una representación 100% precisa de los datos originales.


13
Esto no responde a mi pregunta en absoluto ... No estaba preguntando qué es la nitidez.
Mehrdad

55
@Martijn: Esa no era mi pregunta ...
Mehrdad

13
@Mehrdad ¿Puedes reformular tu pregunta, entonces? Parece que múltiples respondedores (y sus votantes) no lo entienden de la manera que usted lo hace. También lo tomé como "¿por qué las pantallas LCD admiten nitidez?" (que es respondido por este), o tal vez "¿cómo admiten las pantallas LCD la nitidez?" (que es respondido por Aganju). Si su pregunta no es ninguna de esas, debe aclararla.
Reinstale a Mónica el

3
@Mehrdad En realidad, lo encontré más cerca de "cómo los LCD soportan la nitidez", lo cual fue explicado por Aganju pero aún rechazado por usted.
Reinstale a Mónica el

3
El cable y la señal en los monitores modernos es digital. Obtiene una transmisión perfecta o datos incorrectos. No hay posible pérdida o degradación de la señal como la que tiene una señal analógica. Dentro del monitor, la señal digital se convierte en algo que el panel entiende y que ahora también es digital. La única parte analógica son los niveles de brillo de cada elemento y estos son controlados por un valor digital.
HackSlash el

36

Tiene razón en que para una reproducción perfecta en la entrada, el monitor simplemente debe presentar cada píxel a medida que se entrega.

Sin embargo, sus ojos (y su cerebro) no ven los píxeles como entidades separadas, ven una imagen formada a partir de píxeles. Dependiendo de lo que represente, una imagen se ve 'mejor' (más atractiva) si los parámetros se 'falsifican' intencionalmente.

La nitidez generalmente aumenta el contraste en los bordes de cambio de color, por ejemplo, una letra en este texto está representada por filas de píxeles, una línea puede verse (simplificada) 2-2-2-2-7-7-7-2-2- 2-2 donde 2 es gris claro y 7 es gris oscuro. El aumento de la 'nitidez' aumenta la disminución del brillo en el borde, por lo que los últimos 2 antes de los primeros 7 se vuelven aún más claros (= 1), y los primeros 7 después de los últimos 2 se vuelven aún más oscuros (= 8). repite para el otro borde, y obtienes 2-2-2-1-8-7-8-1-2-2-2. Esto se verá mucho más nítido para tus ojos.
Esto se hace en ambas dimensiones y es un poco más sofisticado, pero eso debería explicar la idea base.

Editar: pensé que dejé eso claro en mi respuesta, pero el OP afirma que no lo entendió:
OP Pregunta: 'qué sentido tiene' -> Respuesta: parece más agudo para tu cerebro.
Mucha gente quiere eso; Si no te importa, no lo uses.


18
@Mehrdad Entonces, ¿cuál es tu pregunta? Recibió una respuesta de Appleoddity sobre "qué sentido [usabilidad sabia] tiene para que la nitidez sea ajustable en un monitor". Recibió una respuesta a "qué sentido [en cuanto a tecnología] hace que la nitidez sea ajustable en un monitor" de Aganju. Si ninguna de esas es su pregunta prevista, debe volver a escribirla para que la pregunta que haga coincida con la pregunta esperada.
Birjolaxew

66
@Mehrdad Según sus comentarios, su pregunta parece ser "¿por qué se permite que los monitores cambien de nitidez cuando la computadora ya les dice exactamente qué mostrar?", Lo cual responde Appleoddity.
Birjolaxew

Esta respuesta es funcionalmente igual a la respuesta dada por pjc50. Ambos están equivocados.
HackSlash

33

La respuesta es que un píxel no es lo que crees que es. No existe una correlación de 1 a 1 entre píxeles digitales y píxeles físicos debido a la "Representación de subpíxeles". La forma en que se muestran los colores es diferente en cada monitor, pero la mayoría de los monitores LCD tienen distintos elementos ROJO, VERDE y AZUL dispuestos en un triángulo. Algunos además tienen un píxel blanco que forma un quad de elementos por "píxel".

ingrese la descripción de la imagen aquí

Por lo tanto, no todos los diseños se crean de la misma manera. Cada diseño particular puede tener una "resolución visual" diferente, límite de función de transferencia de modulación (MTFL), definido como el mayor número de líneas en blanco y negro que se pueden representar simultáneamente sin alias cromático visible.

Los controladores de monitor permiten a los renderizadores ajustar correctamente sus matrices de transformación de geometría para calcular correctamente los valores de cada plano de color y obtener el mejor beneficio de la representación de subpíxeles con el menor alias cromático.

La "nitidez" en su monitor reduce el algoritmo de fusión natural utilizado para hacer que las líneas parezcan contiguas cuando no lo son. Aumentar la nitidez aumentará el alias cromático mientras produce líneas más limpias. Reducir la nitidez le dará una mejor combinación de colores y suavizará las líneas que se encuentran entre el tono de punto de subpíxeles.

Para obtener información más detallada, consulte este artículo: https://en.wikipedia.org/wiki/Subpixel_rendering


17

Tiene toda la razón en que la definición de la nitidez en su monitor "distorsiona" la imagen de los datos con precisión de píxeles enviados por la computadora (o lo que esté conectado al otro extremo del cable de video). Sin embargo, permite al usuario mejorar su experiencia visual si la nitidez de los datos con precisión de píxeles que se envían no se corresponde con la nitidez deseada en la imagen que está viendo.

Entonces el monitor no está haciendo esto:

  1. Recibir mapa de bits del cable
  2. Renderizar mapa de bits
  3. Ir a 1.

pero esto:

  1. Recibir mapa de bits del cable
  2. Modificar mapa de bits según las preferencias del usuario
  3. Renderizar mapa de bits
  4. Ir a 1.

Por lo tanto, el fabricante del monitor agrega explícitamente el grado de libertad para ajustar la nitidez, con el fin de mejorar la experiencia del usuario.


1
El comentario de slebetman sobre su propia respuesta parece confirmar esto como una demanda del usuario: "Simplemente busqué en Google el ajuste de nitidez de LCD en caso de que hubiera pantallas LCD. Lo que encontré fueron preguntas hilarantes de personas que querían ajustar la nitidez en pantallas LCD cuando se presentaron por primera vez "
LVDV

13

El software le pide al monitor que muestre un patrón particular de valores RGB de 32 bits, ¿verdad? es decir, el sistema operativo puede pedirle al monitor cada cuadro que muestre un mapa de bits particular de 1920 × 1080 × 32.

Así no es como funciona VGA. En el nivel del monitor no hay píxeles en absoluto.

El funcionamiento tradicional de las pantallas antes de la era de la pantalla LCD es el siguiente:

  1. El software le pide al controlador del dispositivo que muestre una imagen de mapa de bits

  2. El controlador de dispositivo divide la imagen en tres formas de onda para R, G y B. Así es, ¡formas de onda! Exactamente como las formas de onda de audio. Ahora, estas formas de onda tienen un formato específico porque mientras el audio es 1d, las imágenes son 2d.

  3. La señal analógica para las líneas en la pantalla se envía al monitor.

El monitor nunca ve un píxel, solo ve líneas.

  1. El monitor escupe electrones que se mueven casi a la velocidad de la luz desde tres cañones de electrones y el haz se desvía al controlar un grupo de electroimanes que los hace pintar toda la pantalla.

Aquí es donde entra el control de nitidez.

Debido a las tolerancias de fabricación, los haces de electrones casi nunca convergen correctamente y producen imágenes borrosas directamente desde la línea de montaje. En los viejos tiempos, depende de usted, la persona que compró el monitor, ajustar la nitidez en el hogar. Más tarde, estas pantallas antiguas más modernas tienen un proceso de ajuste automático en la fábrica, pero el ajuste de nitidez aún debe estar incorporado para que el proceso funcione.

Entonces la respuesta es realmente simple. El ajuste de nitidez está ahí para garantizar que la imagen en las pantallas sea nítida.


44
Acabo de buscar en Google el ajuste de nitidez de LCD en caso de que hubiera alguna pantalla LCD que los tuviera. Lo que encontré fueron preguntas hilarantes de personas que querían ajustar la nitidez en las pantallas LCD cuando se presentaron por primera vez
slebetman el

La pantalla LCD que uso tiene un parámetro de nitidez, que es lo que me hizo hacer esta pregunta. Lo de las pantallas CRT es bueno, pero desafortunadamente no parece relevante.
Mehrdad

@Mehrdad ¿Es una pantalla LCD VGA o DVI / HDMI puro?
slebetman

Yo uso VGA, pero creo que también es compatible con DVI. No me queda claro qué tiene que ver el uso de formas de onda en lugar de señales digitales con dejar que los usuarios ajusten la nitidez. (?)
Mehrdad

3
No hay píxeles en las formas de onda, solo líneas; una cierta cantidad de desenfoque es inevitable a medida que se transmite la señal. Por lo general, no es visible, pero en HD puedo notar la diferencia entre una señal VGA y una señal HDMI / DVI / DP.
pjc50

6

En un televisor (digital), la nitidez controla un filtro de pico que mejora los bordes. Eso no es tan útil en una pantalla si se usa como monitor de computadora.

En el siglo anterior, en un monitor CRT analógico de alta gama, la nitidez puede haber controlado el voltaje de enfoque de la pistola de electrones. Esto afecta el tamaño del punto con el que se dibuja la imagen. Establezca el tamaño del punto demasiado pequeño (demasiado nítido) y la estructura de la línea se vuelve demasiado visible. También puede haber una molesta interferencia "Moiré" con la estructura de la máscara de sombra. La configuración óptima depende de la resolución (frecuencia de muestreo) de la imagen, ya que muchos monitores CRT fueron capaces de múltiples resoluciones sin escala (sincronización múltiple). Ajústelo lo suficientemente afilado.

Los televisores CRT de gama alta tenían modulación de velocidad de escaneo, donde el haz de escaneo se ralentiza alrededor de un borde vertical, y también filtros de pico horizontal y vertical y quizás un circuito de mejora transitoria horizontal. La nitidez puede haber controlado alguno o todos.

El afilado en general mejora los bordes al hacer que el lado oscuro del borde sea más oscuro, el lado brillante más brillante y el centro del borde más empinado. Un filtro de pico típico calcula un diferencial de segundo orden, en el procesamiento digital, por ejemplo (-1,2, -1). Agregue una pequeña cantidad de este pico a la señal de entrada. Si corta los sobreimpulsos, se reduce a "mejora transitoria".

En algunos dispositivos digitales, la nitidez de un escalador puede controlarse, por ejemplo, en mis receptores de TV digital por satélite. Esto establece el ancho de banda de los filtros polifásicos de un escalador, que convierte de una resolución de origen a la resolución de pantalla. El escalado no puede ser perfecto, siempre es un compromiso entre los artefactos y la nitidez. Ajústelo demasiado nítido y molestos contornos y alias son visibles.

Esta puede ser la respuesta más plausible a su pregunta, pero solo si el monitor está escalando. No haría nada para un modo 1: 1 sin escala.

Fuente: 31 años de experiencia en procesamiento de señales para TV.


Esta publicación es 100% correcta para tecnología analógica como CRT. El OP pregunta por la nitidez en una pantalla LCD totalmente digital. Él piensa, como usted, que "no haría nada en un modo 1: 1 sin escala", pero de hecho lo hace. Vea mi respuesta sobre la representación de subpíxeles en pantallas LCD.
HackSlash el

No conozco ningún monitor que aplique la representación de subpíxeles, excepto tal vez una pantalla portátil Pentile. Por lo general, lo realiza el software de representación de fuentes ClearView en la PC.
StessenJ

1
Esta tesis doctoral trata muy bien la representación de subpíxeles, en Ch.3: pure.tue.nl/ws/files/1861238/200612229.pdf . Esencialmente, la representación de subpíxeles trata con un error de convergencia de color de +/- 1/3 píxeles. Los CRT no lo necesitan, lo hace implícitamente la máscara de sombra (muestreo).
StessenJ

En ese documento, el proceso de ensamblar subpíxeles en un "píxel" coherente se llama "reconstrucción espacial". Ellos llaman al "píxel" una "apertura" cuando hablan de los subpíxeles trabajando juntos. Los subpíxeles son fósforos de color y se muestran claramente en la página 28. Estos fósforos no siempre se usan como un conjunto claro. Puede usar el fósforo rojo de un conjunto o de cualquier conjunto adyacente dependiendo de la "nitidez" de las líneas.
HackSlash

5

No tiene sentido O al menos no lo hace en la mayoría de los monitores LCD. Casi siempre querrá que su "nitidez" se establezca en 0, según el monitor o el televisor (algunos desenfocarán la señal en 0, por lo que la configuración real sin filtro podría estar en algún lugar en el medio), de lo contrario, aplicará un filtro de mejora de borde , que oscurece el lado más oscuro de un borde y el lado más claro. Esto es especialmente notable en dibujos animados y texto. Su kilometraje puede variar, pero creo que se ve mal en casi todos los casos.

Este es un filtro con pérdidas e irreversible que probablemente no desee activar. Su computadora está enviando datos con píxeles perfectos, por lo que la "nitidez" y los filtros borrosos generalmente no son deseables.

También tenga en cuenta que el filtro / ajuste de "nitidez" es un nombre inapropiado. Es imposible hacer una imagen más nítida (es decir, tener más detalles), solo que menos detallada. La única forma de obtener una imagen más nítida es usar una imagen fuente de mayor definición.


5

La configuración de nitidez existe en los paneles LCD porque los fabricantes creen que los efectos digitales venderán más monitores y televisores. En lugar de representar fielmente la entrada de la computadora, el fabricante ofrece al usuario opciones para ajustar la imagen para satisfacer los gustos personales, por muy pobres que sean esos gustos.

La "nitidez" es relevante para señales analógicas (como VGA) y para pantallas CRT, donde la señal está representada por formas de onda en algún momento. Debido a que lo analógico tiende a ser impreciso, los ajustes de nitidez permiten la calibración de tolerancias y la compensación de imperfecciones en la salida de pantalla analógica y la transmisión de señal.

La nitidez debería ser irrelevante en los paneles LCD que utilizan DVI, HDMI y otras fuentes de datos "perfectos para píxeles" con una asignación de resolución 1: 1. Sí, la nitidez distorsiona la imagen en este escenario. Las pantallas en las tiendas de cajas a menudo tienen nitidez y otros filtros digitales ajustados al extremo para parecer más dramáticos que las pantallas circundantes. Algunos consumidores pueden desear estos efectos porque se han acostumbrado a los efectos de los filtros o porque están tratando de compensar un panel LCD de baja calidad que se ve mal a la vista en la salida nativa. La nitidez también puede ser relevante cuando se usa una señal digital que debe redimensionarse porque la fuente y la pantalla tienen diferentes resoluciones.

En general, es probable que desee establecer la nitidez en Desactivado o 0 en una pantalla LCD moderna con una señal digital 1: 1.

http://hifi-writer.com/wpblog/?page_id=3517 y https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness -control.2080809 /


4

Muchos monitores pueden aceptar una señal de video que no tiene la misma resolución que el panel e intentar escalarla según corresponda. Si se requiere que un monitor de 1280 píxeles de ancho muestre una imagen de 1024 píxeles de ancho, y el material de origen consiste en franjas en blanco y negro de un píxel de ancho, es probable que la pantalla muestre un patrón repetitivo de 5 píxeles. En una escala de 0-4, el patrón probablemente sería 03214. Si las rayas blancas y negras en el original son "significativas", mostrarlas como se muestra arriba puede ser útil. Por otro lado, el patrón repetitivo de 5 píxeles sería una distracción que no está presente en el original. Agregar algo de desenfoque a la imagen reduciría los efectos de alias de la escala.


-1

Diferentes configuraciones son buenas para diferentes contenidos. Esta configuración también podría cambiarse en la fuente, pero probablemente yo y muchos otros no sepan dónde puede cambiar la configuración de nitidez en una PC.

Por lo tanto, hay un menú de fácil acceso en el monitor, donde se puede cambiar la nitidez.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.