Die Aussagen der CT sind zwar korrekt, führen aber zur Verwirrung.
Man muß bei DVI zwischen Single Link und Dual Link unterscheiden.
Eine Single Link Verbindung entspricht dem, was wir unter HDMI kennen. Genauer gesagt bis 1.2. Dies gilt für die elektrische Beschaffenheit der Signale. Was man in diese Signale packt ist eine völlig andere Sache.
DVI wurde als TFT Schnittstelle entwickelt und daher wurde dort auch kein Sound vorgesehen. HDMI ist eine Multimediaschnittstelle und basiert auf DVI (warum das Rad neu erfinden). Man hat dort aber das essentielle Feature Sound "nachgerüstet". Dies wird dabei einfach in den Daten mit implementiert. Die Signale und die Rahmen, die die Daten transportieren, sind die Gleichen.
Somit kann man auch diese Signale in einen DVI Stecker packen und die, bei Bedarf, auf HDMI adaptieren und zb an den TFT bringen. Das machen heute alle GPUs. (da es, wie gesagt keinen Unterschied HDMI-DVI gibt)
Bei der Entwicklung von DVI hatte man das Problem, dass die Kabel damals nur begrenzt hohe Frequenzen vertragen hatten. Um aber entsprechend hohe Auflösungen zu bringen, hat man einfach 2x DVI gemacht, wenn man so will.
Das ist Dual Link. Damit kann man 1600p fahren und auch 48Bit. (wahlweise)
HDMI geht da einen anderen Weg, bis einschließlich 1.2 war das, wenn man so will, eine normale Single Link DVI Verbindung. Aber wie auch bei DVI, gibt es auch bei HDMI einen erhöhten Bedarf an Bandbreite. Dies wurde mit 1.3 Rechnung getragen, auf zweierlei Wegen.
Zum einen hat man das wie DVI gemacht (ka warum man HDMI am Anfang nur auf Single Link spezifiziert hat, hätte man also auch einfacher und früher haben können), durch den Einsatz von Dual Link. Dafür gibt es einen extra Stecker, welcher einfach nur der normale Stecker ist, nur breiter, weil er noch 8(glaube ich) Pins mehr hat. Man hat sich da also wieder bei DVI bedient, wenn an so will. (was die Technik an sich betrifft) Der andere Weg und hier hat man "Glück" beim Stecker, man hat einfach die Taktrate verdoppelt.
Im Grunde also Verdopplung der Bandbreite durch Verdopplung der Datenpfade oder Taktrate. (im Extremfall könnte man das auch kombinieren, sprich Vervierfachung)
Problem ist, dass sich der gesamte Bereich(der Endgeräte) auf diese Typ A HMDI Stecker (die "Normalen") eingeschossen hat, daher wird es schwer den neuen Stecker einzuführen, wodurch er bisher wenig Bedeutung hat.
Wir halten also Fest, dass man mit 1.3 doppelte Taktrate (340MHz) gegenüber HDMI 1.2 bzw DVI fährt. DVI wurde dafür nicht ausgelegt und ich denke nicht, dass man hier diese Taktrate fahren kann.
Demnach liefert HDMI mehr, als DVI
Daher ist diese Aussage einfach falsch. DVI und HDMI 1.3 können genau das Selbe. Beide bieten 1600p oder (wahlweise) 48bit Farbraum.
CT hat lediglich das aufgezählt, was 1.3 mehr als 1.2 kann. (DVI konnte es aber schon vorher, damit war DVI HDMI(1.2) überlegen)
Schränk man DVI auf Single Link ein, dann passt das wieder, DVI ist aber mehr als SL.
Nehmen wir also an, man hat eine GPU welche ein HDMI Signal mit 340MHz(HDMI1.3) bringt. Dann könnten man dies auf 2 Wegen rausführen. 1. HDMI Stecker 2. DVI Stecker.
Da der DVI Stecker das nicht schafft (müßte man mal testen), führt das zu einem Problem.
Wenn man, so wie Duskfall, das über HDMI macht und dann auf DVI adaptiert, dann hat man wieder das Problem, dass DVI das nicht packt.
Halten wir also wieder fest:
Bis fullHD nehmen sich HDMI und DVI nicht viel. (60Hz)
>fullHD, >60Hz, >24Bit wirds ein Problem. Entweder DL DVI oder HDMI 1.3.
Problem bei HDMI 1.3 ist, dass die Kabel erstmal die 340MHz packen müssen und das ggf. über längere Stecken, das ist ein Problem. DVI ist da Pflegeleichter. Die Kabel sind 10Jahre alt und haben sich bewährt.
@Duskfall
Es gibt keinen Unterschied zwischen DVI und HDMI Kabel. (wenn wir bei den klassischen Varianten bleiben) Beide Kabel sind genau gleich aufgebaut, lediglich der Stecker ist anders. Was du auf diesen Kabel überträgst ist auch egal, weil das Kabel nicht mitbekommt, was du da machst. Du kannst also HDMI und DVI so adaptieren wir du willst, es wird immer passen, auch was den Ton betrifft.
Problemfall sind in der Regel die Signalquellen und -senken. Diese sind oft nicht in der Lage entsprechende Features bereitzustellen. So ist es zB nicht immer möglich über jeden DVI Port einer GPU ein Soundsignal zu holen, oder man kann auch nicht immer eine HDMI quelle über einen DVI Stecker an einen TV oder TFT anschließen. Hier sind entsprechende erwartete Bildraten der Geräte zu beachten.
@hakosam
Spiegelnd würde ich mir nur antun, wenn du wirklich in einem gänzlich abgedunkelten Zimmer sitzt OHNE andere Lichtquellen und ohne reflektierende Elemente im Hintergrund. (ich habe nen glareTFT hier und sowas ist echt ein graus)