8bit vs. 10bit

ChckNrrs

Profi
Thread Starter
Mitglied seit
02.12.2021
Beiträge
150
Hi Leute,

nachdem ich wirklich zwei Fachartikel gelesen habe, die aber folgende einfache Frage nicht beantwortet haben, frage ich jetzt mal ganz platt die Community:

ich suche einen guten 1080p 27 Zoll Monitor.
Hauptanwendung zocken, Internetrecherche / YT und textlich Informationsaufnahme, ab und an Filme schauen.

Sieht man den Unterschied zwischen 8 bit und 10 bit Farbtiefe

a) beim Zocken
b) bei der Informationsaufnahme
c) in Filmen?

(d) Macht ein Anschluss per HDMI bzw. DP Port da einen Unterschied?)

Habe gute 8bit Monitore gefunden (hätte gerne einen LG Ultragear), aber keinen 10bit. Bei den 8bit fehlt mir auch die Angabe, dass ein LG Panel verbaut wurde. Bei den günstigen Monitoren verbaut LG ja auch Fremdpanels.

Und ja, es soll unbedingt ein 1080p 27 Zoll sein, der ist genau richtig. WQHD haben wir hier in 27 Zoll und 32 Zoll in bester Quali.

Vielen lieben Dank vorab.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein, es macht keinen Unterschied, kannst beruhigt 8-bit kaufen.

10-bit wird wenn überhaupt bei HDR ein Thema und das ist bei 1080p 27" ja eh nicht existent.
Mal davon abgesehen dass man selbst dann mit 8-bit keinen Nachteil hat, wie man selbst mit der DisplayHDR-Test-App prüfen kann.
 
Supi, lieben Dank. Dann ist alllet jut.
 
1080p 27" ist halt von "gut" so weit entfernt wie der mensch von einer bemannten mars landung^^
 
Ich wusste, dass so ein Kommentar kommt 😂
Nix für ungut.

Für mich ist es bestens. 1080p 27 Zoll für einen Full HD Gaming Build.
 
8 Bit Farbtiefe sind 256 Stufen von entsättigt zu voll gesättigt, also quasi von Schwarz nach Weiß
Bei 10 Bit sind es derer 1024, weil Bits eben so funktionieren.
512, 256, 128, 64, 32, 16, 8, 4, 2, 1
Macht summasummarum 1023, aber die 0 zählt auch, das wäre dann Schwarz.

Wenn das Quellmaterial 10 bit Farbtiefe hat sieht man einen Unterschied, aber dafür braucht man erstmal einen 8bit Monitor daneben als Vergleich.
Man kann halt feiner abstufen. Auffällig ist das bei Schatten und Verläufen. Dinge im Halbdunkel sind besser zu erkennen und Himmel sehen echter aus.

Ich würde dennoch lieber einen guten 8-Bit als einen schlechten 10-Bit Monitor nehmen.
Die zusätzlichen Stufen bringen nichts, wenn der Weißpunkt zu warm oder kalt sitzt und Blau als Violett dargestellt wird (krass ausgedrückt).
Lieber weniger, dafür genauer.
 
Wie bereits erwähnt, besteht der einzige Unterschied in der Anzahl der Farbtöne. In 10-Bit gibt es mehr Blautöne (oder jede andere Farbe) als in 8-Bit. Sie bemerken möglicherweise einen Unterschied bei Dingen 10.0.0.0.1 192.168.1.254 wie dem Himmel, WENN die Quellausgabe 10-Bit ist! Außerdem sind die meisten Monitore 8-Bit + FRC. Das heißt, es „emuliert“ die Schattierungen von 10-Bit und beseitigt grundsätzlich jegliche Streifenbildung, sodass praktisch 10-Bit angezeigt wird.
 
Zuletzt bearbeitet:
Es geht um ihn hier:


Siehe auch die Bewertungen zu


(gleiches der Gerät, anderer Fuß)

Ja, es sollte unbedingt ein 27 Zoll Full HD sein, bitte kein Bashing (okay, haut es raus, Leute; ab 20 negativen Emojis geb ich ein digitales Barbecue für die gesamte Hardwareluxx Community aus).
 
  • Sad
Reaktionen: hwk
Kauf doch was du willst. Ist mir doch egal. 🤷
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh