Sapphire Radeon R9 Fury Tri-X bestätigt bisherige technische Daten

Nochmal, was ändert das am Problem bitte jetzt?
Und natürlich hat AMD den Anschluss weggespart, denn sonst wäre er dran... :rolleyes:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Artikel steht das 2010 beschlossen wurde bis spätestens 2015 sowohl VGA als auch DVI sterben zu lassen. Wenn man sich dann 2013 oder 2014 noch einen Monitor mit DVI only kauft und sich dann beschwert das die neuen Grafikkarten diesen Steinzeitanschluss nicht mehr bieten ist man eindeutig selbst schuld.

Das HW Luxxforum ist nebenbei nicht Ansatzweise aussagekräftig was an Hardware benötigt wird oder nicht. Hier gibts auch Leute die einen Core i7 4770k als Einstiegsklasse CPU bezeichnen und eine GTX970 als Einstiegsgamerkarte und ähnliches :d

Aber wie auch immer, diese ganze Geschichte wurde 2010 angekündigt

Wenn du zu den paar Hanseln gehörst die das stört wird dir nichts übrig bleiben zu Nvidia zu switchen. Das ist der einzige Grafikchiphersteller der diesen Beschluss nicht mitträgt. (Nicht das es in diesem Markt so viel Konkurrenz gäbe ;) )
 
Schöner Plan... Ist dem Kunden allerdings sowas von Egal, was da entschieden wurde, wenn er vom Problem betroffen ist.
Von daher, muss sich der Hersteller diesen Hut einfach aufsetzen, ob du das nun willst oder nicht... Was das mit meiner Rhetorik zu tun haben soll, ist mir ebenso schleierhaft... Ich hab hier nur erwähnt, dass der Hersteller die Entscheidung selbst tragen muss, wenn man sich zuungusten der Kundenwünsche entscheidet und ebenso sagte ich, dass ein DVI Port samt 3x mini DP die gleiche Anschlussvielfalt und keinerlei Nachteile gebracht hätte -> damit wären alle glücklich gewesen.

Auch hast du deinen eigens verlinkten Artikel irgendwie nichtmal selbst verstanden. Denn es ist explizit die Rede von VGA und DVI-I -> DVI-I einfach deswegen, weil man damit VGA adaptieren kann und entsprechend auch einen analog Ausgang bereitstellen muss. Spart man die Fähigkeiten, analog auszugeben ein, kann folglich auch kein DVI-I Port verbaut werden, denn der Standard setzt dies eben vorraus.
Es ist aber KEINESWEGS die Rede von DVI-D...
 
@fdsonne
hab mir mal mein Mb angeschaut:)
Hab ein ASRock Z87M OCF und rate mal was ich als Moni-Anschlüsse hab.
2 x HDMI und Displayport. Hab das MB seit 2013.
2015 jammerst Du rum, das AMD kein DVI mehr verbaut.
 
Ich denke auf die drei vier Kunden die nun deswegen ein Fass aufmachen können die HErstedller da problemfrei verzichten, deswegen geht nichtmal AMD pleite. ;)

mini DP hätte den Nachteil das die Kunden mit DP mit Adaptern hantieren müssen. Und das wären deutlich mehr Kunden als die paar die noch mit DVI herumkrebsen. Adapter sind NIE gut. Und es hätte ein HDMI Port gefehlt mit dem Bild und Ton ausgegeben werden könnte (wobei die Kunden die das benötigen vermutlich ähnlich zahlreich sind die die Kunden die nur DVI nutzen können.
 
2015 jammerst Du rum, das AMD kein DVI mehr verbaut.

Ich jammer doch nicht... Es geht dabei ums Prinzip. Wenn ein Hersteller, welcher nachweislich deutlich weniger Marktanteil hat, sich dazu entschließt, ihre eigenen Produkte für potentielle Kunden unattraktiv zu machen, weil man Anschlüsse weglässt oder nicht mehr verbauen will -> was aufs selbe drauf hinaus läuft, müssen sie halt mit den Konsequenzen leben. Ist ja nicht so, dass AMD keine Kunden brauchen würde.

Mal ganz davon ab, was interessiert bitte dein Mainboard? Mit deinem Board kannst du ebenso keine 120/144Hz FHD und größer-Monitore mit zwingend benötigtem DualLink DVI Anschluss betreiben -> oder wenn dann eben nicht mit vollen Spezifikationen. Kann man sich natürlich jetzt noch nen neuen Monitor für teuer Geld dazu kaufen, wenn man sich schon 500€+ für ne GPU antut, keine Frage. Da Monitore aber bedeutend länger in den Haushalten bleiben als Grafikkarten oder PC Hardware allgemein, dürfte das Leute, welche DualLink DVI benötigen einfach mal stören -> die greifen dann zu NV (oder zu anderen Modellen mit DVI)

Nochmal, der DVI Port hätte keinem Wehgetan... Nichtmal ansatzweise.

Es geht mir nur darum, dass du AMD unterstellst sie würden den Anschluss "weg sparen", was schlicht falsch ist, denn das wurde so vor einer Ewigkeit von verschiedenen Herstellern beschlossen.

Was ist es denn dann, wenn es kein Wegsparen ist?
Das verstecken hinter irgendwelchen Entscheidungen, welche 2010 mal getroffen wurden, zeitlich aber offenbar für einige potentielle Kunden zu früh eintreffen, bringt einen Hersteller nicht weiter... Vor allem dann nicht, wenn er die letzten Jahre über absteigende Absatzzahlen klagt. Er hat doch das Problem, dass er damit potentielle Kunden verliert. Den Hut muss er sich halt selbst aufsetzen... Da können noch so viele Leute irgendwas mal entschiedenen haben... ;)
Mal ganz davon ab, kam die Kritik am fehlenden Anschluss nicht von mir... Ließ den Thread bitte genau.

Und es hätte ein HDMI Port gefehlt mit dem Bild und Ton ausgegeben werden könnte (wobei die Kunden die das benötigen vermutlich ähnlich zahlreich sind die die Kunden die nur DVI nutzen können.

Nein, da sowohl am DP als auch am DVI Port Ton ausgebbar ist ;)
Das klappt bei AMD/ATI schon seit Jahren... Selbst meine ATI Radeon X1250 auf nem horn alten AM2 (ohne +) Board schafft das -> sogar Surround Sound ist ausgebbar ohne Probleme (was bei NV nach wie vor teils Probleme macht)
Das klappt 1A... Und natürlich brauch es keine Adapter. Es gibt ganz elegant mini DP auf DP Kabel in passender Länge, wie auch DVI auf HDMI Kabel ebenso passend lang. -> auf ein Kabel kann heute da Keiner verzichten. Warum also nicht was passendes kaufen?

Nur eine kurze Frage zum Verständis: DP1.2 kann keine 120Hz übertragen. Kanns nun Hdmi 1.4?

120Hz bei welcher Auflösung?
Mit HDMI 1.4(a) schafft effektiv keine 120Hz in FHD. DP1.2 allerdings schon...
Bei Auflösungen größer FHD wird das allerdings eher interessant. Denn kann dein Monitor kein DP, sondern nur DualLink DVI, dann bekommst du das stand Heute nicht sauber adaptiert -> da passive DP auf DVI Adapter nur SingleLink DVI ausspucken und die Limitation analog HDMI greift. Und aktive DP auf DualLink DVI Adapter ebenso nach diversen Meldungen und Tests nicht voll die Spezifikationen ausfahren können...
 
Zuletzt bearbeitet:
Nur eine kurze Frage zum Verständis: DP1.2 kann keine 120Hz übertragen. Kanns nun Hdmi 1.4?

Für welche Auflösung sollen die 120Hz gelten?

Grundsätzlich dürfte man heute über DP alles problemlos ansteuern können, selbst Monitore mit 120Hz oder höher.

Ein Blick auf die effektive Bandbreite und wir können alles selbst ausrechnen, was theoretisch machbar wäre.

DP1.2 = 17,28GBit/s > HDMI 1.4a = 8,16GBit/s

Beispiel: Funktioniert Full HD über HDMI 1.4a mit 120Hz?

1920h x 1080v x 32Bit x 120Hz = 7962624000 (7,4GBit)

Es steht also genügend Bandbreite zur Verfügung, allerdings muss der Treiber eine solche Auflösung mit gewünschter Hertzzahl auch unterstützen. Ansonsten ist man da auf die Hilfe von Tools angewiesen.
 
Nur eine kurze Frage zum Verständis: DP1.2 kann keine 120Hz übertragen. Kanns nun Hdmi 1.4?

Meines wissens nach gibt es keinen offiziell definierten HDMI Standard der irgendwas über 60hz
übertragen kann. Auch HDMI 2.0 nicht. Dafür brauchst du DP oder bei niedrigeren Auflösungen Dual Link DVI.

IIRC kann HDMI 120hz bei 1080i übertragen. Ist halt ein Standard der für Unterhaltungselektronik gebastelt wurde.
 
@fdsonne
natürlich interessiert es den Leuten, die ein MB H87 aufwärts nutzen.
Nicht jeder hat ne Graka in seinem Rechner.
Es dreht sich doch darum, Hardware kompatibel zu verbinden.
Wenn 1 Standard sich verabschiedet, kommt halt ein neuer:fresse:

Übrigens= Meine kleine H77 Klipsche von ASR nutze ich beim TV auch nur über HDMI.
 
@CBK
worauf willst du hinaus?

Wenn du nur SingleLink DVI benötigst, weil die Bandbreite reicht, dann kannst du das bequem und einfach adaptieren. Sei es von DP, sei es von HDMI, ja selbst mit nem Konverter von USB wäre es technisch möglich...
Aber darum ging es doch überhaupt nicht. Es ging um die Aussagen von oben, dass es Monitore (und das sogar recht gute) am Markt gibt, die DualLink DVI als Anschluss nutzen... Kein DP, kein HDMI, sondern eben DualLink DVI. -> da kannst du mit deinem Board nicht mit. Genau so wenig mit einer Grafikkarte, welches diesen Anschluss nicht mehr hat.
Es gibt keine brauchbaren Adapter, welche sowas von DP adaptieren können. HDMI selbst hat zwar genügend Leistung um das eigentlich zu können, aber es sind keine derartigen Sachen im Standard spezfiziert, weswegen es zu 99% nicht laufen wird, weil die Port Transmitter es teils nicht zulassen und/oder die Software/Firmware einfach die Settings nicht frisst...

Wenn ein Hersteller auf potentielle Kunden verzichten kann, dann kann man sich sowas erlauben. Mir scheint aber AMD nicht primär in der Lage, mit Kusshand auf potentielle Kunden verzichten zu können. Deswegen stellt sich die Frage nach dem Warum?
- Das es Platz spart? -> dem ist nicht so, wie ich oben erwähnte wäre eine andere Aufteilung mit DVI-D (oder -I) * 3x mini DP auch auf einem Slot drin gewesen
- Wie Little Boozer behauptet, dass man überholte Technik abstreift? -> kann man machen, DualLink DVI bleibt dabei ein gängiger Standard und es ändert am Grundproblem, dass man damit potentielle Kunden außen vor lässt, ebenso nix.
- Das man das getan hat, weil irgendwann vor 5 Jahren irgendwelche "fähigen" Leute als Zeitpunkt 2015 festgesetzt haben? -> auch das kann man machen... Muss aber eben mit den Konsequenzen leben.
 
- Das es Platz spart? -> dem ist nicht so, wie ich oben erwähnte wäre eine andere Aufteilung mit DVI-D (oder -I) * 3x mini DP auch auf einem Slot drin gewesen
Es spart aber Platz am PCB, wenn Du Dir ansiehst wie weit das DVI-Anschlussfeld ins PCB hineinragt (z.B bei der 980 Ti) und Dir dann ein Layout von Fury X ansieht, wirst Du bemerken dass bei Fury dort schon andere Chips sitzen.
AMD wollte anscheinend ein ultrakurzes PCB bauen und hat deshalb auf DVI verzichtet.
Genauso wie sie auf HDMI 2.0 verzichtet haben, weil sie nicht mehr genügend Zeit hatten einen anderen HDMI-Chip zu verbauen. (in meinen Augen noch schräger, vor allem die Begründung ;))

Die beiden Details waren sicher so im Lastenheft von Fury drinnen und definitiv so gewollt. Jetzt wird damit halt eine bestimmte Käuferschicht nicht glücklich, "Deal with it" :)
Wer unbedingt DVI braucht und keinen passiven Adapter verwenden kann und auch keinen aktiven bezahlen möchte, für den ist Fury X halt nicht die richtige Karte.
 
Zuletzt bearbeitet:
Wer unbedingt DVI braucht und keinen passiven Adapter verwenden kann und auch keinen aktiven bezahlen möchte, für den ist Fury X halt nicht die richtige Karte.

Ja, das ist dann wohl so. Schade muss man sagen... Das Teil hat potential. Aber AMD hat es trotz sehr guten Vorraussetzungen leider wieder mal geschafft, auch negativ massiv zu punkten... Warum nur schaffen die das immer wieder?
 
HDMI selbst hat zwar genügend Leistung um das eigentlich zu können, aber es sind keine derartigen Sachen im Standard spezfiziert, weswegen es zu 99% nicht laufen wird, weil die Port Transmitter es teils nicht zulassen und/oder die Software/Firmware einfach die Settings nicht frisst...

Dual-Link DVI = 6xTMDS@165MHz | HDMI 1.4a = 3xTMDS@340MHz

HDMI 1.4a hat zwar genügend Bandbreite, arbeitet aber mit 3 statt 6 TMDS-Datenverbindungen bei gleichzeitig höherer maximal Frequenz als Dual-Link DVI. Das ist dann auch der Grund warum HDMI 1.4a zu Dual-Link DVI nicht ohne aktiven Adapter funktioniert. Man muss das TMDS-Signal aktiv wieder in 6xTMDS@165MHz umwandeln um daraus eine Dual-Link DVI Verbindung zu machen.
 
Rein von den Zahlen her müsste es demnach ja gehen. Das Problem ist eher (und das wissen einfach viele überhaupt nicht), dass die HDMI Spezifikationen wohl gerade mal 480p und Zweikanal Audio vorschreiben ;) Selbst 2.0 macht da nicht mehr...
Weswegen mit dem "Standard" auch viel schindluder getrieben wird... Nur weil HDMI 1.4(a) als Logo drauf klebt, heist das lange nicht, dass da auch zwingend 340-360MHz funktionieren müssen... Was eben auch ein Grund ist, warum fast kein Gerät mit veraltetem HDMI 1.4a Standard 120Hz@FHD oder auch FHD 3D überträgt. -> weil es einfach nicht zwingend gehen muss! Selbst bei 2.0 muss es das nicht...

Nachzulesen bspw. hier:
Verwirrung um HDMI 2.0 | heise online
"Dabei hat die HDMI-Organisation am Freitag in Berlin deutlich gemacht, dass die Spezifikation letztlich nur ein absolutes Minimum zwingend vorschreibt – nämlich 480p und zwei Audiokanäle –, alle anderen in der Spezifikation genannten Merkmale sind dagegen optional. Das galt allerdings auch schon für alle bisherigen HDMI-Versionen."
 
Dual-Link DVI = 6xTMDS@165MHz | HDMI 1.4a = 3xTMDS@340MHz

HDMI 1.4a hat zwar genügend Bandbreite, arbeitet aber mit 3 statt 6 TMDS-Datenverbindungen bei gleichzeitig höherer maximal Frequenz als Dual-Link DVI. Das ist dann auch der Grund warum HDMI 1.4a zu Dual-Link DVI nicht ohne aktiven Adapter funktioniert. Man muss das TMDS-Signal aktiv wieder in 6xTMDS@165MHz umwandeln um daraus eine Dual-Link DVI Verbindung zu machen.
Danke, das beantwortet meine Frage von zwei Seiten früher warum ein passiver Adapter versagt. Ich ging bisher davon aus das HDMI und DVI elektrisch identisch wären wegen der Existenz passiver Adapter.
 
Weswegen mit dem "Standard" auch viel schindluder getrieben wird... Nur weil HDMI 1.4(a) als Logo drauf klebt, heist das lange nicht, dass da auch zwingend 340-360MHz funktionieren müssen... Was eben auch ein Grund ist, warum fast kein Gerät mit veraltetem HDMI 1.4a Standard 120Hz@FHD oder auch FHD 3D überträgt. -> weil es einfach nicht zwingend gehen muss! Selbst bei 2.0 muss es das nicht...[/I]"

Naja, bei einer Grafikkarte als Ausgabegerät hat man aber sehr gute Chancen, denn da hängt es wohl vom Treiber ab was übertragen werden kann, wäre sogar per Update nachrüstbar. Bin mir sogar ziemlich sicher, dass AMD und nVidia hier im Control Center benutzerdefinierte Auflösungen ermöglichen, die so nicht üblich sind oder einen bestimmten Standard entsprechen. Wenn aber z.B. HDMI 1.4a, meinetwegen auch HDMI 2.0 in Hardware implementiert wurde, kann man sich innerhalb der vorgegeben Bandbreite mit Frequenzen und Auflösungen im Prinzip austoben wie man will, man muss halt nur die Möglichkeit bekommen an den Knöppen zu drehen. Am PC sollte das wie gesagt im Treibermenü bereits möglich sein.

- - - Updated - - -

Danke, das beantwortet meine Frage von zwei Seiten früher warum ein passiver Adapter versagt. Ich ging bisher davon aus das HDMI und DVI elektrisch identisch wären wegen der Existenz passiver Adapter.

Elektrisch verwenden beide auch die gleiche TMDS-Datenverbindung, aber wie man sieht in unterschiedlicher Art und Weise. Mit einen passiven Adapter ist nur eine Single-Link DVI Verbindung (3xTMDS@165MHz) möglich.
 
Die ASUS STRIX Radeon R9 Fury hat einen DVI-D Anschluss, sehr schön.
Anscheinend finden nicht alle Hersteller das DVI-D veraltet und überflüssig ist. Ich hoffe das irgendein Hersteller dann auch die Nano damit ausrüstet.
 
Naja, bei einer Grafikkarte als Ausgabegerät hat man aber sehr gute Chancen, denn da hängt es wohl vom Treiber ab was übertragen werden kann, wäre sogar per Update nachrüstbar. Bin mir sogar ziemlich sicher, dass AMD und nVidia hier im Control Center benutzerdefinierte Auflösungen ermöglichen, die so nicht üblich sind oder einen bestimmten Standard entsprechen. Wenn aber z.B. HDMI 1.4a, meinetwegen auch HDMI 2.0 in Hardware implementiert wurde, kann man sich innerhalb der vorgegeben Bandbreite mit Frequenzen und Auflösungen im Prinzip austoben wie man will, man muss halt nur die Möglichkeit bekommen an den Knöppen zu drehen. Am PC sollte das wie gesagt im Treibermenü bereits möglich sein.

Neja, kann... Muss aber nicht.
Es gibt nen Thread im PCGH Forum, wo jemand mit ner GTX 580 fragte. Die 580er hat wohl nen HDMI 1.4er Port. Aber die Port Transmitter können scheinbar nur bis 165MHz ausspucken. Da kommt dann halt entsprechend auch die Bandbreite nicht an ;) Und somit ist auch nix mit austoben.

Die Bandbreitenangaben bei HDMI scheinen mir an der Stelle eher ein "up to" Wert zu sein. Da eben kein zwingendes Muss für das Kleben des entsprechenden Logos auf die Verpackung ;) Könnte natürlich auch genau andersrum laufen. Sprich der Hersteller verbaut mehr, als das HDMI Logo eigentlich suggerieren will.

Leider liegt das Problem idR nicht an der Ausgabe der Geräte, sondern eher am Eingang des Monitors. Der beste Monitor nutzt nix, wenn der Eingang einfach restriktiv nur das zulässt, was der Hersteller vorsieht.
Es wäre technisch bspw. wohl auch möglich, 3d in FHD bei 60Hz über HDMI 1.4a zu jagen. Weil es quasi FHD@120Hz wäre... Geht zu 99,999% aber bei keinem Ausgabegerät, weil der Eingang dort bei 720er Auflöung@3D@60Hz dicht macht und die Port Transmitter es nicht verstehen.
Auf der GPU Seite kannst du ja mittlerweile teils sogar die Einheiten "übertakten" und so mehr Leistung aus der Spezifikation zu pressen... Solange das, was rauskommt im Rahmen des Eingangs vom Monitor liegt, wirds natürlich auch funktionieren... Liegt es drüber, verpufft der Vorteil allerdings.
 
Neja, kann... Muss aber nicht.
Es gibt nen Thread im PCGH Forum, wo jemand mit ner GTX 580 fragte. Die 580er hat wohl nen HDMI 1.4er Port. Aber die Port Transmitter können scheinbar nur bis 165MHz ausspucken. Da kommt dann halt entsprechend auch die Bandbreite nicht an ;) Und somit ist auch nix mit austoben.

Naja, man verständigt sich immer auf den größtmöglichen gemeinsamen Nenner. Entweder kann es eine GTX580 nicht, dann wäre es aber kein echter HDMI 1.4 Anschluss oder die Gegenseite (Monitor) ist nicht HDMI 1.4 kompatibel. Vielleicht auch ein qualitativ schlechtes Kabel, dazu vielleicht auch noch zu lang. Gerade Hochfrequenzkabel wie bei HDMI können da sehr empfindlich reagieren. Schwer zu sagen so aus der Ferne...

Die Bandbreitenangaben bei HDMI scheinen mir an der Stelle eher ein "up to" Wert zu sein. Da eben kein zwingendes Muss für das Kleben des entsprechenden Logos auf die Verpackung ;) Könnte natürlich auch genau andersrum laufen. Sprich der Hersteller verbaut mehr, als das HDMI Logo eigentlich suggerieren will.

Das da mit dem Logo Schindluder getrieben wird ist mir bekannt. Aus meiner Sicht ist ein HDMI 1.4a Anschluss, ganz egal ob nun auf der Eingangs,- oder Ausgangsseite, kein echter HDMI 1.4a Anschluss wenn er nicht bis zu 340MHz Bandbreite und somit eine effektive Datenrate von 8,16GBit/s schafft. Optionale Fähigkeiten sind dann eine Frage der Implementation des jeweiligen Herstellers.

Leider liegt das Problem idR nicht an der Ausgabe der Geräte, sondern eher am Eingang des Monitors. Der beste Monitor nutzt nix, wenn der Eingang einfach restriktiv nur das zulässt, was der Hersteller vorsieht.
Es wäre technisch bspw. wohl auch möglich, 3d in FHD bei 60Hz über HDMI 1.4a zu jagen. Weil es quasi FHD@120Hz wäre... Geht zu 99,999% aber bei keinem Ausgabegerät, weil der Eingang dort bei 720er Auflöung@3D@60Hz dicht macht und die Port Transmitter es nicht verstehen.
Auf der GPU Seite kannst du ja mittlerweile teils sogar die Einheiten "übertakten" und so mehr Leistung aus der Spezifikation zu pressen... Solange das, was rauskommt im Rahmen des Eingangs vom Monitor liegt, wirds natürlich auch funktionieren... Liegt es drüber, verpufft der Vorteil allerdings.

Das Problem liegt wohl auch darin begründet, dass HDMI eher für den Video,-/Heimkinobereich gedacht ist, weniger für den PC-Bereich. Man implementiert dann i.d.R nur das was in den meisten Fällen auch benötigt wird - leider, das ist dann aber eine reine Software/Firmware Thematik, denn technisch stünden wie du selbst sagst viele Möglichkeiten offen. 3D mit 60Hz bei 1080p wurde nicht in die HDMI 1.4a Spezifikation aufgenommen, weil es keinen üblichen Videostandard entspricht. Dieses Format trifft man eher im PC-Bereich an, wo man dann einen DisplayPort dafür verwenden würde.

Übrigens muss man bei HDMI 2.0 gerade deswegen auch etwas aufpassen, da die effektive Bandbreite von 14,4 GBit/s eigl. nicht für 2160p@60Hz ausreicht (3840h x 2160v x 32Bit x 60Hz=15925248000Bit/s (14,8GBit/s)), zumindest nicht ohne Farbunterabtastung oder mit dem im PC-Bereich üblichen RGBA-Farbbereich. Die Norm sieht hier lediglich 60Hz mit YCbCr 4:2:0 vor, obwohl einige Implementationen bekannter TV-Hersteller abseits der Spezifikation auch YCbCr 4:4:4 erlauben. Für uns PC-Gamer ist es daher wichtig darauf zu achten, dass beim TV-Kauf auch das gewünschte Format über HDMI 2.0 unterstützt wird.

Korrektur: Über HDMI wird kein Alpha-Kanal übertragen, deshalb ist obige Rechnung falsch! Es werden nur 8Bit pro Farbe übertragen, also insgesamt 24Bit. Folglich lautet die richtige Rechnung 3840h x 2160v x 24Bit x 60Hz = 11943936000Bit/s (11,1GBit/s). Somit reicht die effektive Bandbreite natürlich auch für RGB-Signale mit 8Bit pro Farbe und YCbCr 4:4:4 aus (etwas Spielraum für den Ton und optionalen Kram wie Ethernet muss ja auch noch sein). Da HDMI 2.0 aber auch höhere Farbtiefen als 8Bit unterstützt, würde man hier bei 4K@60Hz aber dennoch nicht ohne reduzierte Farbunterabtastung auskommen. Auf eine saubere Implementation von HDMI 2.0 sollte man aber dennoch achten, nicht alle 4K-TVs unterstützen den vollen RGB/YCbCr-Farbraum bei 4K@60Hz auch wenn mit HDMI 2.0 geworben wird. Im Prinzip handelt es sich hier dann nur um HDMI 1.4(a), wo aber der volle HDMI 2.0 Umfang suggeriert wird. Aber da sieht man mal wie unübersichlich das Ganze ist und wieviel Schindluder mit den Logos und Angaben manchmal getrieben wird.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh