J'ai un moniteur Dell U2312hm connecté à un ordinateur portable Dell Latitude E7440. Quand je les connecte via laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(le moniteur n'a pas de prise HDMI), l'image est beaucoup plus nette qu'avec laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. La différence est difficile à capturer avec une caméra, mais voyez ma tentative dedans en dessous. J'ai essayé de jouer avec des paramètres de luminosité, de contraste et de netteté, mais je ne peux pas obtenir la même qualité d'image. La résolution est 1920x1080, j'utilise Ubuntu 14.04.
VGA:
HDMI:
Pourquoi la qualité est-elle différente? Est-ce intrinsèque à ces normes ou dois-je suspecter un câble VGA défectueux ou un adaptateur MDP-VGA?
VGA est le seul signal analogique des celles mentionnées ci-dessus, donc c'est déjà une explication de la différence. L'utilisation de l'adaptateur peut également aggraver votre situation.
une lecture supplémentaire: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
En supposant que la luminosité, le contrat et la netteté sont les mêmes dans les deux cas, il pourrait y avoir 2 autres raisons pour lesquelles le texte est plus nette avec DVI/HDMI:
Le premier a déjà été indiqué, VGA est analogique, il faut donc passer par une conversion analogique à la conversion numérique à l'intérieur du moniteur, elle dégradra théoriquement la qualité de l'image.
Deuxièmement, en supposant que vous utilisiez Windows, il existe une technique appelée ClearType (développée par Microsoft), ce qui améliore l'apparence de texte en manipulant les sous-pixels d'un moniteur LCD. VGA a été développé avec des moniteurs CRT et la notion d'un sous-pixel n'est pas la même. En raison de l'exigence de ClearType d'utiliser un écran LCD et le fait que la norme VGA ne dise pas à l'hôte les spécifications de l'affichage ClearType seraient désactivées avec une connexion VGA.
Source: Je me souviens d'avoir entendu parler de ClearType d'un de ses créateurs sur un podcast pour cela (). Développeurs (). Life () IIRC, mais http://fr.wikipedia.org/wiki/cleartype aussi soutient ma théorie. Aussi HDMI est en retard compatible avec DVI et DVI prend en charge l'identification d'affichage électronique (EDID)
Les autres font de bons points, mais la raison principale est une horloge évidente et une inadéquation de phase. Le VGA est analogique et est soumis à des interférences et à une inadéquation des côtés d'envoi et de réception analogiques. Normalement, on utiliserait un motif comme celui-ci:
http://www.lagom.nl/lcd-test/clock_phase.php
Et ajustez l'horloge et la phase du moniteur pour obtenir la meilleure correspondance et la plus forte image. Cependant, comme il est analogue, ces ajustements peuvent changer au fil du temps et vous devez donc utiliser parfaitement un signal numérique.
Il y a quelques réponses indiquant un signal numérique vs analogique qui est correct. Mais cela ne répond pas au pourquoi? Quelques couches de traduction mentionnées, c'est aussi vrai que la conversion A/D ordinaire peut entraîner une perte de fidélité, mais vous devez mesurer cela car il est difficile de voir les différences avec l'œil nu. Une conversion bon marché et tous les paris sont éteints.
Alors, pourquoi le numérique est-il meilleur que l'analogique?
Un signal RVB analogique (tel que VGA) utilise l'amplitude du signal (.7 Volts Peak au pic dans le cas de VGA). Ceci comme tous les signaux a du bruit qui, si cela suffit, les niveaux doivent être traduits de manière incorrecte.
Les réflexions dans le câble (inadéquation d'impédance) sont en réalité la plus grande chute d'un signal vidéo analogique. Cela introduit un bruit supplémentaire et s'aggrave avec des câbles plus longs (ou moins cher), plus la résolution de la vidéo augmente également le rapport signal au bruit. Fait intéressant, vous ne devriez peut-être voir aucune différence dans un signal 800x600 à moins que le câble VGA soit trop long.
Comment un signal numérique évite-t-il ces pièges? Eh bien, pour un niveau, le niveau n'est plus pertinent. De plus, DVI-D/HDMI utilise un signal différentiel ainsi que la correction d'erreur pour assurer ceux-ci et les zéros sont fidèlement transmis correctement. Il y a aussi des conditions supplémentaires ajoutées à un signal numérique qui n'est pas pratique en ajoutant à un signal vidéo analogique.
Désolé pour les gars de la boîte aux savon, mais les faits.
Un autre problème est que beaucoup de câbles VGA sont de la malbouffe. Si le câble VGA est de moins de 1/4 "d'épaisseur, vous volonté Vous remarquez probablement que fantôme sur des moniteurs plus grands (plus haut le rez, plus probable fantôme). J'ai même remarqué que le fantôme sur le câble VGA attaché. Quelques montateurs CRT 19 ". Mes câbles VGA ont environ 1/3 "d'épaisseur et cela aide vraiment avec la netteté (fils plus épais, plus de blindage)
HDMI et DVI sont très similaires. Les deux sont numériques; Les principales différences sont que HDMI prend en charge l'audio et le HDCP. Lors de la commutation entre HDMI et DVI, il y a peu de conversion réelle, mais en connectant plutôt les broches correspondantes sur les connecteurs. Le port d'affichage est un protocole numérique, mais VGA est analogique, et le convertisseur introduit probablement de petits défauts et la réduction de la netteté dans le signal. Le moniteur convertit probablement le signal en arrière au numérique, entraînant une autre conversion qui affecte négativement la qualité.
Sur tout, ordinateur-> HDMI-> DVI-> Monitor a moins de conversions réelles que l'ordinateur-> displayport-> vga-> moniteur et ne convertit jamais le signal en analogique, donnant une image plus nette.
HDMI et DVI sont en fait un et le même (au moins dans votre contexte). Les connecteurs DVI ne sont vraiment que des connecteurs HDMI avec une pince différente (les rangées de broches), ainsi que des connecteurs VGA avec une pince différente (les broches disposées autour d'une forme de croix). Si vous regardez votre convertisseur HDMI-TO-DVI, vous remarquerez probablement que la partie en forme de transversale est manquante.
Vous comparez donc une image HDMI avec une image VGA et, comme @Josh a souligné, une conversion réelle.
Il y a en fait une différence entre HDMI et DVI, mais cela n'est pas pertinent pour vous. HDMI peut transporter des signaux supplémentaires, y compris le signal de cryptage pour la protection de contenu, le son, Ethernet, etc.