DisplayPort-2.0-Kabel kommen in drei Geschmacksrichtungen

Will es nicht schön reden, aber das Kabelgenerve ist ja nichts neues, war es eigentlich je anders anders? Bei VGA musste man auf die Signalqualität achten, bei DVI fing es schon mit unterschiedlichen Features an, dass man schauen musste ob das Kabel auch Dual Link kann, DVI-I oder nur DVI-D... und HDMI kein Kommentar.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Will es nicht schön reden, aber das Kabelgenerve ist ja nichts neues, war es eigentlich je anders anders? Bei VGA musste man auf die Signalqualität achten, bei DVI fing es schon mit unterschiedlichen Features an, dass man schauen musste ob das Kabel auch Dual Link kann, DVI-I oder nur DVI-D... und HDMI kein Kommentar.
Einiges davon hat sich ja erst später entwickelt, aber in dem Szenario was auf uns zu kommt hätte es vermieden werden können.
Dient halt einzig der Erschaffung eines Marktes welcher bisher nicht vorhanden ist, wie überall wird es dann den low, mid und enthusiasten/ professional Bereich geben.
 
wie überall wird es dann den low, mid und enthusiasten/ professional Bereich geben.

Nur das DP 2.0 in vollem Umfang halt einfach trotzdem nur DP 2.0 bleibt und nicht sonderlich professioneller ist als DP 2.0, da wie schon gesagt, es immer noch DP 2.0 bleibt 🤔 ergo, benötige ich das professionell Kabel um DP2.0 ausreizen zu können
 
Nur das DP 2.0 in vollem Umfang halt einfach trotzdem nur DP 2.0 bleibt und nicht sonderlich professioneller ist als DP 2.0, da wie schon gesagt, es immer noch DP 2.0 bleibt 🤔 ergo, benötige ich das professionell Kabel um DP2.0 ausreizen zu können
Ja klar, das wissen nur eben nicht alle.
Wer die Konnektivität und Datenraten beruflich benötigt, der greift langfristig eh zum besten was es gibt, war ja schon immer so und das hatte bisher seinen Preis.
Enthusiasten okay, aber selbst die reizen wohl nicht das Maximum aus^^
Oder eben Applekrams mit TB.
 
Zuletzt bearbeitet:
ergo, benötige ich das professionell Kabel um DP2.0 ausreizen zu können
Ja, allerdings kommen wir mit DP2.0 allmählich in Regionen, wo Ausrüstung die DP2.0 ausreizen würde von einem normalsterblichem Privatanwender eh nichtmehr benötigt wird.

Mit nur dem DP40-Kabel geht UHD schon bis 144Hz (*) und selbst QUHD noch mit 60Hz. Wenn ich mal davon ausgehe, das 32" für UHD die gängige Größe ist (hat ja auch immernoch 140dpi) würde man für QUHD entsprechend in Displaygrößen Richtung 60-65" gehen. Sowas stellt sich ein Privatanwender nicht auf den Schreibtisch und als TV verwendet sitzt man weiter weg und nimmt QUHD idR erst bei noch größeren Größen.
Der Luxxer für den selbst Officearbeiten mit nur 60Hz schon unerträglich sind, ist eben auch schon ein "Nerd". Der Normalanwender kommt also selbst mit dem DP40-Kabel nicht annähernd an irgendwelche Grenzen.
Und wer auf UHD mit 100fps+ zockt, der hat für seine Grafikkarte schon soviel Geld bezahlt, das er sowieso zum DP80-Kabel greifen wird (obwohl selbst dem das DP40-Kabel reichen würde), weil da fallen die Kosten für das Kabel eh schon nichtmehr auf.

Die ganze Displaytechnologie und damit auch deren Interfaces, hat allmählich einen technischen Stand erreicht, wo man im Normalfall einfach nichtmehr mehr braucht, bzw es einfach nichtmehr sinnvoll ist.

Selbst wenn jetzt jemand kommt und meint zum Zocken mit QUHD auf 32" und damit ~280dpi bräucht man kein Antialiasing mehr... richtig, aber um diese Auflösung zu bedienen brauchst du grundsätzlich so exorbitant viel mehr Leistung, die man durch das weglassen von AA nicht ansatzweise einspart, abgesehen davon das es noch lange keine Hardware geben wird, die das überhaupt hinkriegt.

Das die Anforderungen in diesen Regionen dann auch geradezu explodieren (genaugenommen exponential steigen), sieht man am Ende der Skala. Mit dem DP40-Kabel geht QUHD@60Hz, aber selbst mit einem DP80-Kabel gehen auch nur 85Hz, es reicht schon nichtmal mehr für 100Hz.

(*) Geizhals listet gerade mal 22 Monitore die überhaupt UHD@144Hz haben. Und selbst das geht ja mit DP1.4 schon. Mit DP2.0 und nur dem DP40-Kabel reicht es eigentlich nur gerademal so nicht für 240Hz. Da dürfte wohl so maximal 220-230Hz rum gehen. Also selbst die 160Hz- und vielleicht mal 180 und 200Hz-UHD-Modelle brauchen dann immernoch kein DP80-Kabel.
 
Zuletzt bearbeitet:
, allerdings kommen wir mit DP2.0 allmählich in Regionen, wo Ausrüstung die DP2.0 ausreizen würde von einem normalsterblichem Privatanwender eh nichtmehr benötigt wird.

Geizhals listet gerade mal 22 Monitore die überhaupt UHD@144Hz haben. Und selbst das geht ja mit DP1.4 schon. Mit DP2.0 und nur dem DP40-Kabel reicht es eigentlich nur gerademal so nicht für 240Hz. Da dürfte wohl so maximal 220-230Hz rum gehen. Also selbst die 160Hz- und vielleicht mal 180 und 200Hz-UHD-Modelle brauchen dann immernoch kein DP80-Kabel.

Schöne übersichtliche Auflistung.

Über was werden die Monitore angesteuert? DP 1.4 würde ja UHD nur @120hz machen bei 10bit und HDR?

Irgendwie haben die Kabel ein Beigeschmack das man mit DP40 ein DP 1.5 Standard umgeht
 
Über was werden die Monitore angesteuert? DP 1.4 würde ja UHD nur @120hz machen bei 10bit und HDR?
Mit 10bit durchaus denkbar. 10bit statt 8bit braucht ja auch grob geschätzt 25% mehr Bandbreite.
Bei HDR bin ich mir nicht so sicher. Brauchts dafür nicht sowieso 10bit und der Rest ist eine Frage ob der Monitor das überhaupt darstellen kann?

Irgendwie haben die Kabel ein Beigeschmack das man mit DP40 ein DP 1.5 Standard umgeht
DP40 hat doch überhaupt nichts damit zu tun ob es nun DP1.5 oder DP2.0 heisst. Auch wenn es DP1.5 heißen würde, wären die Kabel ja trotzdem DP40 und DP80.
Ein DP1.4 Kabel wäre ja sogesehen auch schon ein DP35 Kabel oder so in der Richtung (entsprechend dem Marketingnamenbullshit wohl eher ein DP20 Kabel, weil für den Namen nehmen wir lieber die Hälfte, auch wenns mit der Technik nix mehr zu tun hat)

Bei den Namen könnte ich mich eh schon wieder aufregen:
DP2.0 UHBR13,5 -> theoretisch 54Gbit/s = DP40
DP2.0 UHBR20 -> brutto 80Gbit/s = DP80

Das ist ja nichtmal schlecht gerundet.

Da haben wieder irgendwelche Marketingvollidioten zugeschlagen ala "nein, DP54 können wir das nicht nennen, das ist zu krumm".
Und dann kommt wieder so ein Scheißhaufen raus wie bei den Auflösungen ala "4K", "8K"....
 
Zuletzt bearbeitet:
Mit 10bit durchaus denkbar. 10bit statt 8bit braucht ja auch grob geschätzt 25% mehr Bandbreite.
Bei HDR bin ich mir nicht so sicher. Brauchts dafür nicht sowieso 10bit und der Rest ist eine Frage ob der Monitor das überhaupt darstellen kann?

Kann ich nicht sagen, habe nur gerade bei delock die Spezifikation von DP1.4 angeschaut, da steht halt UHD@120 HDR/10bit. Mir ging es eher darum das 144hz nicht unterstützt werden.
DP40 hat doch überhaupt nichts damit zu tun ob es nun DP1.5 oder DP2.0 heisst. Auch wenn es DP1.5 heißen würde, wären die Kabel ja trotzdem DP40 und DP80.

Das ist mir schon klar. Nur ist das DP40 Kabel (2.0) zum DP1.4 Standard kein Quantensprung. Das ist halt in etwa ca. UHD@180hz /HDR 10 Bit. 2.0 mit DP80 ist da halt ein signifikanter Sprung.

Ich wollte darauf hinaus das der DP 2.0 Standard mit den beiden Kabel (40+80) eigentlich in zwei vollwertige DP Spezifikationen geteilt werden könnte. Bin jetzt nicht so tief in der Materie drin inwieweit sich technisch die Kommunikation zu 1.4 geändert hat (ob da signifikant die Daten ganz anders übertragen wird oder nur mehr Bandbreite da ist) Demnach hätte man es auch in DP 2.0 und 2.1 teilen können. Naja... Wie auch immer
 
Mir ging es eher darum das 144hz nicht unterstützt werden.
Ja, wollte ich auch nicht bestreiten.

Das ist mir schon klar. Nur ist das DP40 Kabel (2.0) zum DP1.4 Standard kein Quantensprung.
Ähm, naja, da sind wir eben genau wieder beim Namen. DP1.4 macht theoretisch 40 Gbit/s. Wenn man jetzt DP2.0 DP40 nennt, klingt das nach "gleich viel", es sind aber halt 54Gbits und eben nicht nur 40Gbits. Das sind trotzdem ~30% mehr.
Der "Quantensprung" ist halt DP80, aber wie ich eben oben ausführlich erklärt habe: Die meisten Anwender brauchen das schlicht und einfach nicht.


Das ist halt in etwa ca. UHD@180hz /HDR 10 Bit. 2.0 mit DP80 ist da halt ein signifikanter Sprung.
Ah, jetzt reichen schon wieder mal 144Hz nicht, jetzt müssen es sogar schon 180Hz sein.
Es gibt noch nichtmal Monitore mit UHD die überhaupt 180Hz schaffen! Geizhals hat genau einen Monitor, der kann 10bit (HDR) hat aber "nur" 175Hz und kostet 1300€. :d
Abgesehen davon, das die 54Gbit/s von DP40 (sic!) selbst für UHD@10bit rein rechnerisch für 180Hz reichen (47Gbit/s braucht das, würden also sogar ~190Hz gehen).

Das ist das was ich die ganze Zeit meine:
DP40 reicht für 98% aller Anwender VOLLKOMMEN und hat sogar noch Luft. DP80 braucht fast niemand. Es reicht sogar für dich, du hast nur mal wieder nicht gerechnet.
Jetzt kommt DP40 und DP80 und alle sabbern sofort wieder los, das wenn man doch nur DP40 kaufen würde, ja nicht "das Beste" hätte, ohne 5 Millisekunden mal darüber nachzudenken, ob für das eigene Equipment nicht sogar "nur" DP40 IMMERNOCH ausreicht.


Ich wollte darauf hinaus das der DP 2.0 Standard mit den beiden Kabel (40+80) eigentlich in zwei vollwertige DP Spezifikationen geteilt werden könnte.
Jo, und dann? Dann hätte man andere Namen für die gleiche Technik... Ob du jetzt DP40 und DP80 oder DP2.0 und DP2.1 hast... macht genau was für einen Unterschied?

Der technische Unterschied ist der: DP2.0 ist der Anschluss. DP40 und DP80 sind die Kabel.
Es wird (billigere) DP40-Kabel und teuere DP80-Kabel geben. Es gibt aber nur einen Anschluss, eben DP2.0. Es gibt keinen Anschluss der "nur" DP40 könnte. Entweder du hast eine Graka mit DP2.0, dann kannst du DP40 UND DP80 Kabel verwenden.
Man braucht aber eben nicht DP2.1 damit auch ein DP80-Kabel Sinn machen würde.

Man kanns einfach keinem Recht machen. Demnächst kommt dann DP3.0, ein Kabel kostet 100€ und das Gejammer geht sofort wieder los "wein, ich hab doch nur UHD@200fps, warum muss ich ein 100€ Kabel kaufen, obwohls das 40€ Kabel doch auch täte?"
Jetzt wird die Option geboten und es passt wieder nicht. Oder man nimmt dann eben nur ein DP1.4 Kabel und wundert sich warum der UDH-Monitor nur 120Hz schafft. Aber dazwischen gäbe es dann ja nichts.

Und genau darum gehts: Selbst wenn du jetzt UHD@10bit@240Hz wollen würdest (was sicher nichtmehr "normal" ist), DANN wäre DP40 zu eng, ABER genau dafür gibts dann ja eben DP80-Kabel. Deine Grafikkarte kann das dann so oder so, denn die hat ja DP2.0.
 
Ah, jetzt reichen schon wieder mal 144Hz nicht, jetzt müssen es sogar schon 180Hz sein.
Es gibt noch nichtmal Monitore mit UHD die überhaupt 180Hz schaffen! Geizhals hat genau einen Monitor, der kann 10bit (HDR) hat aber "nur" 175Hz und kostet 1300€. :d
Abgesehen davon, das die 54Gbit/s von DP40 (sic!) selbst für UHD@10bit rein rechnerisch für 180Hz reichen (47Gbit/s braucht das, würden also sogar ~190Hz gehen).

Glaube wir reden aneinander vorbei. Wie ich ja sagte, allein über das DP40 Kabel wäre schon ein eigener ausreichender Standard der für sich Sinn macht ohne den 2.0 Standard durch zwei Kabel zu splitten/beschneiden
Das ist das was ich die ganze Zeit meine:
DP40 reicht für 98% aller Anwender VOLLKOMMEN und hat sogar noch Luft. DP80 braucht fast niemand. Es reicht sogar für dich, du hast nur mal wieder nicht gerechnet.

Für mich reicht stand heute auch 1.4 für 144Hz FHD, wobei UHD@144 sicher schon cool wäre...
Der technische Unterschied ist der: DP2.0 ist der Anschluss. DP40 und DP80 sind die Kabel
Ist mir schon klar
 
Glaube wir reden aneinander vorbei. Wie ich ja sagte, allein über das DP40 Kabel wäre schon ein eigener ausreichender Standard der für sich Sinn macht ohne den 2.0 Standard durch zwei Kabel zu splitten/beschneiden
Glaube nicht, das wir aneinander vorbei reden.
Ob man nun DP2.0 und DP2.1 macht statt DP2.0 mit DP40 oder DP80 ist am Ende doch nur Wortklauberei. Der Laie blickt doch bei den DisplayPort Versionen eh nicht durch, für den ist DisplayPort halt einfach nur DisplayPort. Sieht man doch schon hier im Forum wo auch immer mal wieder Fragen auftreten, warum ein Monitor nicht wie erwartet funktioniert und dann stellt sich raus, das halt ein Uralt-DP1.0 Kabel zum UHD-Monitor verwendet wurde. Das geht halt (oder auch nicht), weil sich der Stecker und auch die Pin-Belegung nicht geändert haben, das DP1.4 Kabel aber höhere Anforderungen an z.B. die Abschirmung stellt, die das billige DP1.0 Kabel halt nicht erfüllt.
Soweit ich das gesehen habe, ändert sich auch mit DP2.0/DP40/DP80 nichts am Stecker selbst. Man kann also so oder so weiterhin das China-Funk-DP1.0 Kabel zwischen den 32K-800"@1600Hz-Monitor und die RTX8950Ti+ stecken und sich dann wundern, warum das jetzt nicht geht.

Obendrein könnte man aus selbem Anlass fragen, warum das jetzt eigentlich gerade 2.0 sein muss und nicht DP1.6 auch ausreichend gewesen wäre. :d

Und aus technischer Sicht habe ich es eben schon erklärt: DP40/80 sind NUR KABEL. DP2.0 ist der Anschluss. Es wird also keine Graka geben die einen Anschluss hat, der "nur" DP40 könnte, sondern sie kann, sobald sie eben DP2.0 hat IMMER DP40 UND DP80. Die Frage ist nur, ob du mehr Geld für ein DP80 Kabel ausgeben willst, das du eigentlich gar nicht brauchst.
 
Der Normalanwender kommt also selbst mit dem DP40-Kabel nicht annähernd an irgendwelche Grenzen.
Und wer auf UHD mit 100fps+ zockt, der hat für seine Grafikkarte schon soviel Geld bezahlt, das er sowieso zum DP80-Kabel greifen wird (obwohl selbst dem das DP40-Kabel reichen würde), weil da fallen die Kosten für das Kabel eh schon nichtmehr auf.
Das trifft es auf den Punkt.

Da Sie DP nun nicht ewig weit entwickewln und "ad ab surdum" führen können, bis wir irgendwann mal HDMI, DPI TB v123 erreicht haben (Kabelqueerschnitt dann 5cm und mit Abschirmung wie eine Nuklearreaktor), wird sicherlich schon weiteres in Arbeit sein.
(*) Geizhals listet gerade mal 22 Monitore die überhaupt UHD@144Hz haben. Und selbst das geht ja mit DP1.4 schon. Mit DP2.0 und nur dem DP40-Kabel reicht es eigentlich nur gerademal so nicht für 240Hz. Da dürfte wohl so maximal 220-230Hz rum gehen. Also selbst die 160Hz- und vielleicht mal 180 und 200Hz-UHD-Modelle brauchen dann immernoch kein DP80-Kabel.
Das habe ich auch gesehen und ich gehe davon aus dass sich an den Geräten selbst etwas ändern wird, weswegen sie den Standard aktualisiert wird. Was ja bereits viel Zeit in Anspruch nimmt, da es International bestimmt wird, keiner macht sich die Arbeit ohne Nutzen davon.
Entscheidend wäre dann eben der Input vom Sender/ Empfänger.
 
Das habe ich auch gesehen und ich gehe davon aus dass sich an den Geräten selbst etwas ändern wird, weswegen sie den Standard aktualisiert wird.
Verstehe nicht ganz was du damit meinst?
Das auch UHD-Monitore in Zukunft mehr als 144Hz erreichen werden und auch Monitore mit höheren Auflösungen wie 5K, QUHD, werden sicherlich auch mehr als 60Hz erreichen. Aber selbst dafür reicht ja weitgehend DP40 aus. Abgesehen davon, das man sich halt einfach mal überlegen sollte, ob man das wirklich braucht, ob es überhaupt noch was bringt.

Entscheidend wäre dann eben der Input vom Sender/ Empfänger.
Verstehe ebenfalls nicht ganz, was du damit sagen willst.
Der Sender ist dann ja ein DP2.0-Anschluss. Die sind ja auch weiterhin abwärtskompatibel. Der Anschluss KANN nach DP2.0 natürlich QUHD@85Hz mit 80Gbit/s rauspumpen, muss er aber ja nicht. Er kann ja auch erkennen können, was für ein Kabel dransteckt und danach eben das Maximum setzen. Ob die Hardware (oder Treiber) so schlau sind und das auch wirklich tun ist natürlich nochmal eine andere Frage.
Aber ich nehme mal an, das DP eh eine Art Handshake vorsieht, weil ich denke mal, das sich Sender und Empfänger sowieso miteinander auf die zu verwendende Bandbreite irgendwie einigen müssen? Und wenn bei dem Handshake eben "nur" 40Gbit/s rauskommen, weil evtl. der Monitor trotzdem nur DP1.4 hat, dann kann ja die Grafikkarte da schlecht 80Gbits nach DP2.0-DP80 raushauen.
 
Das war schon auf kommnnde Neuerungen bezogen, ja etwas verworren hehe.

Die Frage des brauchen und Nutzen sind immer so ne Sache, ich gehe eher davon aus dass es dann auf eien andere Schnittstelle hinaus läuft.
Scart, VGA, DVI+ wie sie nicht alle heissen wurden trotz weiterer Möglichkeiten auch komplett ersetzt da neues schlichtweg um das vielfache besser und eher ausbaubar war.
 
Scart, VGA, DVI+ wie sie nicht alle heissen wurden trotz weiterer Möglichkeiten auch komplett ersetzt da neues schlichtweg um das vielfache besser und eher ausbaubar war.
Ähh, jein. Scart, Video-Cinch und VGA/Composite waren ja noch analog. Und zudem (überwiegend) signalkompatibel. Video (der einzelne meist gelbe Cinch-Stecker) hat halt das ganze Bild über eine Leitung übertragen. VGA und Composite hat dann 3 Leitungen, eine für jede Grundfarbe, benutzt was natürlich eine besser Bildqualität zur Folge hatte. Scart wiederrum war im Prinzip nur ein Kombi-Stecker, vollbeschaltet konnte der nämlich sogar beides.
DVI war dann im Gegensatz dazu der erste Schritt zur digitalen Bildübertragung. Gab ja da auch DVI-A, DVI-D und DVI-I. DVI-A war einfach als Abwärtskompatibiltät analog und zwar genau nach VGA-Standard. DVI-D war rein digital und DVI-I war beides in einem Stecker.
Das wollte man dann aber alles alleine schon wegen der klobigen und unhandlichen Stecker loswerden. Notebooks wurden immer flacher und da hats dann halt massiv gestört, wenn der entsprechende Displayanschluss schon so riesig war.

HDMI und DP sind dann rein digitale Übertragungen... und zudem auch wieder zueinander kompatibel. Aus gleichem Grund wie oben hat man dann aber gemerkt, das selbst HDMI und DP-Buchsen eigentlich immer noch zu "fett" sind, deswegen gibts Mini-HDMI und Mini-DP. :d
USB-C überträgt im DisplayPort-Mode übrigens auch 1:1 das Signal was auch ein DisplayPort-Kabel übertragen würde. Deswegen heisst es DisplayPort-Mode. ;) Ist also exakt das gleiche Signal, nur ein anderer Stecker, der USB-C-Anschluss muss das allerdings natürlich können. Da wird also nicht irgendwie das Displayport-Signal in irgendwas USB-mäßiges konvertiert oder sowas. TB macht das afaik auch so.

HDMI stammt dabei aus dem Unterhaltungssektor und genau darauf war es auch ausgelegt, fixe Auflösungen, eher fixe Wiederholraten, lange Produktzyklen. Da war halt dann FHD@60Hz bei überwiegend TV-Geräten lange der Standard und dafür halt auch kein besserer Standard notwendig.
Am PC sahs anders aus, da gings dann eben schon Richtung WQHD und/oder mehr als 60Hz, was aber HDMI nicht konnte, weil es sowas im Unterhaltungssektor ja eh nicht gab. Deswegen brauchte man DisplayPort.

Man wird evtl einen anderen Stecker brauchen, wenn man DP dahingehend erweitertn will, das man mehr als 4 Lanes verwenden will... und man mit besseren Übertragungskodex, noch höheren Frequenzen, etc. nichtmehr weiterkommt. Aber angesichts dessen was mit DP80 eben schon geht, stellt sich eben wieder die Frage, ob man das überhaupt brauchen wird? Wenn man noch höhere Auflösungen will, besteht ja auch die Möglichkeit, das man das Display dann eben halt mit 2 Kabeln anschließen muss.

Also das man ein gänzlich neues Format braucht, sehe ich aktuell eher nicht so.
 
Video (der einzelne meist gelbe Cinch-Stecker) hat halt das ganze Bild über eine Leitung übertragen. VGA und Composite hat dann 3 Leitungen, eine für jede Grundfarbe, benutzt was natürlich eine besser Bildqualität zur Folge hatte. Scart wiederrum war im Prinzip nur ein Kombi-Stecker, vollbeschaltet konnte der nämlich sogar beides.
Obacht!
Composite ist der einzelne gelbe Stecker und überträgt alle Farben eben über diesen einen Stecker.
Composite steht dabei für zusammengesetzt.
3 getrennte Steckerchen nennt sich Component und heißt so, weil die Komponenten einzeln übertragen werden.
Man kann also schon allein anhand der Bedeutung der Begriffe die Art und Weise der Übertragung erkennen.

Und auch muss man bei den Farben aufpassen. Component heißt nicht, dass die 3 Grundfarben übertragen werden. Das für gilt RGB Component. Es gibt aber noch YUV Component, da werden garkeine (Grund)Farben übertragen, sondern ein Helligkeitswert und dann Deltawerte, die dann, durch geeignete digitale oder analoge Mischung, zu den RGB-Werte rückgerechnet werden.
YUV wird btw. vom analogen Fernsehen verwendet, da man nur so zu s/w kompatibel ist. Daher kann man mit einem s/w-Fernseher auch "Farbfernsehen" empfangen, aber sieht nur s/w.
Beitrag automatisch zusammengeführt:

HDMI und DP sind dann rein digitale Übertragungen... und zudem auch wieder zueinander kompatibel.
Nein, sind sie nicht.
HDMI, wie auch DVI, überträgt seine Bildinformationen über getrennte Farbkanäle, wohingegen DP ein Datenstrom in Form eines Bitstreams ist und quasi mit dem Anzeigegerät "intelligent" spricht. Daher ist DP auch multipoint fähig (siehe MST-Funktion), wohingegen das bei HDMI/DVI nicht gegeben ist.

Ergo: digital != digital
 
Zuletzt bearbeitet:
👍 danke für die ausführliche Erklärung
 
Bis Dato und die nächsten Jahre bin ich mit HDMI 2.1 mit 120Hz bei meinem LG OLED C1 in 65 Zoll als Monitor mehr als zufrieden! Upgrade kommt wenn überhaupt erst frühstens in 5 Jahren oder wenn der plötzlich den Geist aufgibt 👻
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh