hilfe LG 24UD58-B 10 bit farbtiefe kein unterschied zu 8 bit

Mordrac

Enthusiast
Thread Starter
Mitglied seit
17.09.2006
Beiträge
983
hallo,

seit gestern besitze ich einen LG 24UD58-B Monitor.
dieser monitor verfügt über 10 bit farbtiefe und ist über den displayport an einer rtx 2070 angeschlossen.
zur überprüfung verwende ich eine png datei mit 64 bit farbtiefe. gradient.jpg

trotzdem sieht 10 bit genauso aus wir 8 bit.
ich habe auch schon ein farbprofil für den monitor heruntergeladen und weitere windows einstellungen ausprobiert.
es ändert sich nicht.
lg1.jpg
lg2.jpg
lg3.jpg
lg4.jpg

hat jemand ne idee wo das problem liegt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der hat auch kein 10 Bit, sondern nur ein 8 Bit + FRC Panel, welches auch ein 10 Bit Signal benötigt und deshalb im Menü eingestellt werden kann.

Der Unterschied zwischen 8 Bit und 8 Bit + FRC ist kaum sichtbar. Die Übergänge sind marginal weicher.
 
Zuletzt bearbeitet:
statt 16,7 millionen farben sollten 1 milliarde farben dargestellt werden können.
das heisst, bei schwarz zu weiss sollten 1024 statt 256 farbübergänge zu sehen sein. was aber nicht der fall ist. es sind nur 256 farbübergänge.
die grafikkarte, der monitor und der displayport unterstützen alle 10 bit.

laut fachzeitschriften ist selbst einem geübten auge kein unterschied zwischen 10bit und 8bit frc auszumachen.

also irgendwo steckt ein problem. und tut mir leid, aber die behauptung das es am 8bit frc liegen soll ist mir keine hilfe.

edit:
so, ich habe weiter geforscht.
zuerst einmal habe ich den life chat support von lg genutzt und mich mit einem mitarbeiter unterhalten.
er empfahl mir letztendlich den monitor an ein anderes endgerät anzuschließen. sprich eine andere grafikkarte.
ausserdem erstellte ich mir mit gimp selber 8bit und 16bit grau gradienten. mit dem bisherigen ergebnis, dass kein unterschied zwischen 8 bit und 8 bit frc (10 bit) zu sehen ist.
nutze ich ich den dither von gimp sieht die 8 bit darstellung besser aus (kein banding) als 16 bit ohne dither, bzw sieht 8 bit dithered genauso aus wie 16bit dithered.

versucht man nun zu dem verhalten etwas im internet zu finden, stößt man immer wieder darauf, das nvidia gpus trotz der 10bit einstellung nur 8 bit liefern.
zur bildbearbeitung muss man von nvidia eine quattro karte nutzen um wirklich 10 bit zu bekommen. gegenüber amd karten die bei 10 bit einstellung auch 10 bit liefern.

das nvidia hier so trickst ist enttäuschend.
dies könnte auch erklären warum nvidia bei hdr dann deutlich stärker abfällt als amd.

edit2:
nvidiafake10bit.jpg
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh