Existem algumas respostas indicando um sinal digital versus analógico que está correto. Mas isso não responde ao porquê? Algumas camadas de tradução mencionadas, isso também é verdade, uma conversão convencional de A / D pode causar uma perda de fidelidade, mas é necessário medir isso, pois é difícil ver as diferenças a olho nu. Uma conversão barata e todas as apostas estão desativadas.
Então, por que o digital é melhor que o analógico?
Um sinal RGB analógico (como VGA) usa a amplitude do sinal (0,7 Volts pico a pico no caso de VGA). Como todos os sinais, há ruído que, se for grande o suficiente, fará com que os níveis sejam traduzidos incorretamente.
Reflexões no cabo (incompatibilidades de impedância) são na verdade a maior queda de um sinal de vídeo analógico. Isso introduz ruído adicional e piora com cabos mais longos (ou mais baratos), quanto maior a resolução do vídeo também aumenta a relação sinal / ruído. Curiosamente, você não deve ver nenhuma diferença em um sinal de 800x600, a menos que o cabo VGA seja muito longo.
Como um sinal digital evita essas armadilhas? Bem, para um, o nível não é mais relevante. O DVI-D / HDMI também utiliza um sinal diferencial e correção de erros para garantir que os zeros e sejam transmitidos fielmente corretamente. Também há condicionamento adicional adicionado a um sinal digital que não é prático adicionando a um sinal de vídeo analógico.
Desculpe pelos caras da caixa de sabão, mas eles os fatos.