Hay algunas respuestas que indican una señal digital vs. analógica que es correcta. Pero eso no responde al por qué? Algunas capas de traducción mencionadas, esto también es cierto, una conversión A / D convencional puede causar una pérdida de fidelidad, pero tendría que medir esto ya que es difícil ver las diferencias a simple vista. Una conversión barata y todas las apuestas están apagadas.
Entonces, ¿por qué es digital mejor que analógico?
Una señal RGB analógica (como VGA) utiliza la amplitud de la señal (.7 voltios pico a pico en el caso de VGA). Esto, como todas las señales, tiene ruido que, si es lo suficientemente grande, hará que los niveles se traduzcan incorrectamente.
Los reflejos en el cable (desajustes de impedancia) son en realidad la mayor caída de una señal de video analógica. Esto introduce ruido adicional y empeora con cables más largos (o más baratos), cuanto mayor sea la resolución del video, también aumenta la relación señal / ruido. Curiosamente, no debería poder ver ninguna diferencia en una señal de 800x600 a menos que el cable VGA sea demasiado largo.
¿Cómo una señal digital evita esos escollos? Bueno, para uno el nivel ya no es relevante. Además, DVI-D / HDMI utiliza una señal diferencial y una corrección de errores para garantizar que los ceros se transmitan correctamente. También hay un acondicionamiento adicional agregado a una señal digital que no es práctico agregar a una señal de video analógica.
Lo siento por los chicos de la caja de jabón, pero son los hechos.