Wegen HDR & Co muss ich aber reingrätschen. HDR ist ein Standard, der fürs Heimkino und damit HDMI 2.0 geschaffen wurde…
Um da ebenfalls mal gleich reinzugrätschen:
HDR kommt aus der Fotografie.
Grundsätzlich ist HDR nur eine Ansammlung von Formeln zur Bestimmung von Farb- und Helligkeitsmerkmalen bei der Datei-Kodierung von digitalen Bildinhalten.
Es sind (Software-)Verfahren, um die Bandbreite in der Leuchtdichte über die Grenzen der 8Bit-Technologie (256Helligkeitsstufen pro Farbkanal) zu erweitern.
HDR hat also mit HDMI nix zu tun.
High Dynamic Range Image – Wikipedia
…und wenn ein Gamer eines nicht gebrauchen kann, dann HDMI.
Dem muss ich ebenfalls widersprechen.
Es sind nämlich ausgerechnet die Gamer, die in ‚HDR‘ durch ihre Spielewelten phantasieren wollen.
Aber derzeit dient das ganze gehypte HDR-Gedöns bei Monitoren/TV-Sets eigentlich nur dazu, die Datenblätter und Umverpackungen mit einem weiteren ‚Phantasie‘-Logo zieren zu können.
Der Endkunde soll es halt nur mit ‚is irgendwie bunter‘ assozieren, um ihm einen Kaufreiz zu bieten seinen Multimedia- oder Gaming-Fuhrpark aufzurüsten.
Was tatsächlich technisch dahintersteckt, und wie die verschiedenen Hersteller ihre HDR-Blendgranaten zusammenmurksen, soll ja garnicht kommuniziert werden.
HDR10 wird fest an UHD/4k gekoppelt, damit es schön in den hochpreisigen TV-Geräten bleibt (und die UHD<->HDR-Connection wird wohl auch bei Monis im Vordergrund stehen). Allerdings geht HDMI2.0 bereits bei ‚4k‘ ziemlich die Puste aus, drum muss HDMI2.1 die Sache richten. Da HDR ordentlich Bandbreite benötigt, bedarf es übertragungsbandbreiten-schonender Verfahren. Und genau da wird für den schmalbrüstigen HDMI-Murks getrickst, dass es quietscht.
In der Folge versuchen mehrere Konzerne (im Verbund mit der Filmindustrie) ihre Eigenentwicklungen zu einen ‚Quasi-Standard‘ zu etablieren (ganz so wie bei der Videokassette, der CD, der DVD und der Blueray).
wer einen UHD Monitor mit HDMI nutzt, der macht was falsch.
Da bin ich ganz bei Dir. Dies gilt übrigens für jeden Moni.
Drum hofft/wartet der PC-User ungeduldig auf die Verbreitung von DisplayPort in der Version 1.4, kurz DP1.4 (die Version DP1.3 wird wohl übersprungen).
Allerdings ist zu vermuten, dass sich die HDR-Standards nach dem erheblich lukrativeren TV-Markt richten werden, wo in der Tat HDMI den Takt angibt.
Der Monitor sollte natürlich trotzdem 10 Bit (oder mehr) haben, es hat nur eben nichts mit den minderwertigen Heimkino-Standards zu tun. Lasst euch davon also nicht blenden.
Eben, ein 10Bit-Moni sagt nix über dessen HDR-Fähigkleiten aus.
Denn es ist das Bildmaterial und die möglichen Ressourcen in der Bildsignalbandbreite, um HDR-Inhalte zu übertragen. Aber wenn die Moni-Elektronik nicht genau für diese ‚HDR-Sprache‘ ausgelegt ist, ist egal wieviel Bit das Panel hat.