AMD arbeitet mit nur 8 statt 10 Bit für HDR über HDMI 2.0

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.125
<p><img src="/images/stories/galleries/reviews/2016/radeon-rx480/radeon-rx480-reference-logo.jpg" style="margin: 10px; float: left;" />Das Thema HDR wird uns in Zukunft immer wieder beschäftigen und das nicht nur, weil womöglich immer mehr Inhalte auf den größeren Dynamikumfang setzen, sondern auch weil es hier keinen echten Standard gibt und sowohl auf Seiten der Inhalte-Anbieter wie auch auf Seiten der Hardware-Hersteller keine einheitliche Vorgaben gemacht werden. Dies gilt sowohl für die maximale Helligkeit eines Displays, wie auch für den Farbraum, der dargestellt werden kann. Angaben wie P3 Digital Cinema und Rec. 2020 geben bei den Farben zumindest den genauen Farbraum an, ein HDR-Standard sind sie damit aber noch lange nicht.</p>
<p>Wie die Kollegen der <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/41006-amd-arbeitet-mit-nur-8-statt-10-bit-fuer-hdr-ueber-hdmi-2-0.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Fassen wir kurz zusammen. HDMI 2.0 bietet nicht genug Bandbreite um richtiges 10 Bit HDR zu übertragen weshalb AMD sich hier eines Tricks behelfen muss.
Kann also AMD wenig für und wenn ich mir die verlinkten Folien ansehe haben Sie auch nicht davon gesprochen 4:4:4 bei HDMI 2.0 zu supporten.
 
Ich hab beim stöbern noch nicht mal einen gefunden, den man aktuell kaufen kann (der nicht grad >1k kostet)

Nen "normalen" Computermonitor mit HDR Unterstützung gibt es noch gar nicht. (also, <5ms Reaktionszeit, IPS oä Panel, 27-32 Zoll, 2560x1440+, Sync-Tech...)
 
Ich hab beim stöbern noch nicht mal einen gefunden, den man aktuell kaufen kann (der nicht grad >1k kostet)

Nen "normalen" Computermonitor mit HDR Unterstützung gibt es noch gar nicht. (also, <5ms Reaktionszeit, IPS oä Panel, 27-32 Zoll, 2560x1440+, Sync-Tech...)
was für Traumwerte :d
wenns 16:10 wäre, würd ich sogar 800€ hinlegen
 
aber es werden dennoch genug zugreifen und es geil finden
 
Ich hab beim stöbern noch nicht mal einen gefunden, den man aktuell kaufen kann (der nicht grad >1k kostet)

Nen "normalen" Computermonitor mit HDR Unterstützung gibt es noch gar nicht. (also, <5ms Reaktionszeit, IPS oä Panel, 27-32 Zoll, 2560x1440+, Sync-Tech...)

bei fernsehern ist ja HDR afaik nur für 4k spez. und dann kommt noch eine mindesthelligkeit bzw. kontrast dazu wo er liefern muss -> glaub es gibt bisher fast nur oleds wo das packen.
 
Toll, Heise flamt mal wieder gegen AMD und HWL macht mit:\

Mit HDMI geht da halt nur 8bit oder kein HDR.
Bevor man auf HDR über HDMI verzichtet ist es wohl besser wenn man 8bit nutzt!

Hier tut man wieder so, aslo ob es ein "Problem" von AMD wäre, dabei kann NVIDIA da auch nur 8bit oder KEIN HDR anbieten...
 
HDMI2.0 hat doch sowieso kein HDR sondern erst ab HDMI2.0a und auch im Bild ist von HDMI2.0b die Rede.
Der Text liest sich als ginge es nur um HDMI2.0 wo es ja bekanntermaßen halt nicht möglich ist?
 
Zuletzt bearbeitet:
Hab den Originaltitel Mal gelesen
Auch bei HDMI2.0 hat man nur Bandbreite um entwedet 4:4:4 Abtastung bei 8 Bit zu machen was AMD macht
Oder 4:2:2 Abtastung bei 10 Bit was bei Spielen aber suboptimal ist...

Also wird Nvidia entweder das gleiche machen oder eine schlechtere Abtastung haben.

Überrascht mich da ich dachte das HDMI2.0a schon kompromisslos ist....

Am optimalsten wäre es wenn man im Treiber einfach Wechseln könnte.
 
Was verwenden denn die Grafikkarten genau für nen Standard?

Auf der deutschen NV Seite im Produktvergleich für Pascal steht, dass nur die 1050/1050TI HDMI 2.0b nutzen würde! Bei den anderen -> 1060, 1070 und 1080 wird nur 2.0 geschrieben.
Bei AMD auf der Produkt Page steht auch nur 2.0...

Die Frage ist nun, kann es überhaupt gehen? -> so wie mir scheint nicht, wenn 2.0 (ohne a oder b) dafür nicht vorgesehen oder ausreichend dimensioniert ist.
Der Vergleich mit NV bei CT fand wohl mit einer 1080er statt -> also dann wohl klar, warum das auch nicht tut.
 
"In einem optischen Test konnten die Redakteure allerdings keinerlei Unterschiede zwischen einer GeForce- und einer Radeon-RX-Grafikkarte feststellen. Allerdings soll die Leistung bei den NVIDIA-Grafikkarten beim Zuschalten der HDR-Darstellung etwas einbrechen, während die AMD-Grafikkarte stabil bleiben."

Warum dann einen Artikel verfassen, der sich im Titel wie eine AMD Kritik liest?
Das ergibt doch mal wieder keinen Sinn.
Wenigstens ist HWLux integer genug auch im Text ausgewogen zu berichten, anders als so manche anderen.

Noch dazu ist bei Displayport kein Problem vorhanden. Wer nutzt denn bitteschön HDMI 2.0 mit HDR an einem PC? Wenn dann werden da doch eher displayport Monitore dran gehängt. Dass HDMI 2.0 weniger Bandbreite als Displayport 1.3(und 1.2) hat ist doch auch bekannt.
 
HDR über HDMI ist eh eher etwas für die Konsolen.

Gibt es überhaupt einen HDR-Monitor, der kein DP hat?

Gibt es von AMD eine Grafikkarte, die HDR über HDMI kann, aber kein DP bietet?
 
Neja, die Anwendungsfälle (egal ob NV oder AMD) in einem HTPC sind zweifelsfrei vorhanden...
Erschwerend kommt hinzu, dass es ausschließlich ne Hand voll GPUs aktuell gibt, die überhaupt HDMI 2.0 und HDCP 2.2 können und damit potentiell in Frage kommen... APUs im Moment Fehlanzeige, IGPs im Moment Fehlanzeige -> einzig ein paar recht teure Boards sollen wohl HDMI 2.0 + HDCP 2.2 bei Skylake können über irgend so ne externe Lösung.


Für die Masse wird das aber warscheinlich völlig irrelevant sein würde ich behaupten...
 
Zuletzt bearbeitet:
Was auch gute Gründe hat! Deswegen ist mir diese ganze HDR-Geschichte zemlich suspekt. Erscheint mir etwas, was die Branche entschieden hat uns zu verkaufen, und nicht nach etwas, as wir entschieden haben zu wollen...

Die 3D Geschichte von Ende 2010 war etwas was man als aufgehalst bezeichnen könnte doch mit HDR (10Bit für rec.2020 bei einem Kontrast >5000:1) sind das alles traumhafte Werte nicht nur im Fernsehunterhaltungsbereich, sondern vor allem wenn es um Grafikengines, also die Darstellung von Licht und Texturen (Specularmaps sowie tausenderlei lustige Techniken hierzu (PBR)) geht.

Als überzeugter Pessimist sehe ich das erste mal hierin eine Pipeline die Sinn macht und der Konsument auch was davon haben wird, auch wenn man sich hierbei wohl noch bis zum vollen Entfalten bis 2019/20 gedulden darf.

Ich freue mich schonmal drauf :d (vorallem auf HDR Monitore mit IPS Panels...)
 
Zuletzt bearbeitet:
In einem optischen Test konnten die Redakteure allerdings keinerlei Unterschiede zwischen einer GeForce- und einer Radeon-RX-Grafikkarte feststellen.

Also viel heiße Luft um nichts?
 
Zu der Abbildung "HDR drives more colors".
Diese Grafik sieht ja ganz schön aus, aber wieso zum Teufel werden die Achsen nicht beschriftet? Das bekommt man doch schon in der Schule eingetrichtert, dass jegliche Diagramme/Graphen ohne Beschriftung wertlos sind...

Ich persönlich verstehe zumindest die Aussage dahinter nicht ganz, außer allgemein, dass die verschiedenen Technologien im Bezug zum menschlichen Auge verglichen werden und die eine besser ist als die andere (vielleicht auch anders herum? Ohne Beschriftung weiß man ja eigentlich nicht, was nun "0,9" oder "0,4" etc. zu bedeuten haben).
Ausserdem scheinen x- und y-Achse jeweils andere Kennzahlen darzustellen.. aber welche?

Natürlich ist einem die Art der Abbildung irgendwie bekannt und man kommt schnell darauf, dass es sich um eine CIE-Normfarbtafel handelt - das könnte man aber genauso gut in der Grafik irgendwo vermerken ;-)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh