LG 31MU97-B ---> 4096x2160 @ 60 HZ + 10 Bit -> Grafikkarten

v4nity

Enthusiast
Thread Starter
Mitglied seit
08.04.2013
Beiträge
209
Moin Leute,

bin derzeit am Überlegen mir den o.g. Monitor zu kaufen. Dieser unterstützt wohl eine Auflösung von 4096x2160 bei 60 Hertz und 10 Bit ! im SST-Modus.
Nun dachte ich mir hey geil, tolle Sache.

Nach ewigem recherchieren im Web bin ich zu dem Ergebnis gekommen, dass nur die Nvidia Quadro und Amd FirePro Grafikkarten die Ausgabe von 10 Bit Farbtiefe unterstützen.

Zu allem Überfluss stehen auf der Homepage von LG die Systemvorausetzungen an die Grafikkarte:

Intel HD4600 und höher / AMD HD7800 und höher / Nvidia GTX670 und höher. Screen Split Software (DP/Mini DP/HDMI) WinXP 32bit, WinVista 32bit, Win7 und Win8. Kalibrierungssoftware Tru Color Pro (DP/ MiniDP) Win7 und Win8. USB Treiber TUS3410 Treiber Win7 und Win8. Mac OS: der neue MacPro und 15“ MacBook Pro mit Retina Display (Ende2013) über DisplayPort/ Mini DP 3840x2160 @60Hz, HDMI 3840x2160 @24Hz; MacOS 10.9.3 wird unterstützt. Ab der neuen Version MacOSX wird auch 4096x2160 unterstützt. Verwenden sie das mitgelieferte HDMI-zu-HDMI-Kabel oder das mitgelieferte Mini-DP-zu-DP-Kabel, wenn Sie eine Verbindung zu einem MacProdukt herstellen wollen

Verschwiegen wird, dass der Monitor mit diesen "Mainstream-Gaming-Karten" (Geforce, Radeon) gar nicht in vollem Umfang genutzt werden kann. Schließlich unterstützen nur die Nvidia Quadro und Amd FirePro Grafikkarten die 10 Bit Farbtiefe die der Monitor nun mal unterstützt !!

Zusätzlich sind nicht alle Nvidia Quadro Karten fähig, die Auflösung von 4096x2160 bei 60 Hertz mit 10 Bit Farbtiefe wiederzugeben. Supportanfragen bei LG, welche Grafikkarten den Monitor vollumfänglich unterstützen, führten hierbei zu keinem brauchbaren Ergebnis.

Laut Nvidia Homepage sind lediglich die Nvidia Quadro 6000 und die Nvidia Quadro K 5200 dazu fähig !! Diese sind erst ab ~2000 € aufwärts (neu) erhältlich.
Quadro Grafikkarten für Desktop-PCs, Macs und Workstation-PCs | NVIDIA --> Datenblatt


Ergo viele Rezensionen auf Amazon/cyberport etc. sind falsch! Dort wird von einem überragenden Farbumfang mit einer Farbtiefe von 10 Bit bei einer Auflösung von 4096x2160 und 60 Hertz in Verbindung mit diversen Consumer-Karten oder Nvidias Quadro K4200/K2200/K1200/K620/K420 gesprochen.

De facto sind die Geforce und Radeon gar NICHT in der Lage, die 10 Bit Farbtiefe wiederzugeben und Nvidias Quadro K4200/K2200/K1200/K620/K420 schaffen dies nicht bei 60 Hertz und einer Aufösung von 4096x2160.

Wie es bei AMD FirePro aussieht, bin ich gerade am recherchieren, aber leider ist der Markt was Workstation-Grafikkarten anbelangt sehr undurchsichig! Auf der AMD Seite wird eine max. Auflösung von 4096x2160 angegeben. Jedoch ist fraglich bei welcher Farbtiefe und Bildwiederholfrequenz dies möglich ist.

Im Testbericht von Prad wird der Monitor mit einer EVGA GeForce GTX780 getestet. Ich frage mich wie das funktionieren soll, wenn diese Karte doch gar keine 10 Bit Farbtiefe unterstützt !!
http://www.prad.de/new/monitore/test/2015/test-lg-31mu97-b.html#Einleitung
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du hast schon alles richtig erkannt. Es wird mind. eine Quadro K5200 benötigt um 10bit fahren zu können; bevor ich mir allerdings wegen dieser "Gurke" ein K5200 antun würde, würde ich mir lieber einen gescheiten UHD wie den PA322UHD zulegen, hier ist das Gesamtpacket mehr als erhaben und die HWK ist nicht nur zufriedenstellend wie bei LG ;)

dann kostet die Grafikkarte - nur noch ein Bruchteil... oder wird zwingend die CGI 4k Resolution benötigt?
 
Zuletzt bearbeitet:
Ich hatte den Support von PNY angeschrieben:

"Sehr geehrte Damen und Herren, ich besitze einen LG Electronics 31MU97-B mit einer Auflösung von 4096 x 2160 und Unterstützung für 10 Bit. Nun frage ich mich ob denn die Quadro K2200 diese Auflösung bei 60 HZ und 10 Bit unterstützt. Bzw. welche Karten dies unterstützen und welche dafür am Besten geeignet sind."

Selbstverständlich bin ich noch nicht in Besitz dieses Monitors.

Die prompte Antwort lautete:

"...Die K2200 sollte die 10 Bit in UHD darstellen können.
Laut dieser Beschreibung soll der LG Monitor aber Probleme haben.
Wir haben keinen hier und deshalb können wir auch keine Tests machen.
Ausprobiert : 10 Bit Workflow mit Nvidia Quadro K5200 und LG 31MU97-B:
..."



Nach Aussage des Supports von PNY sollte also sogar die K2200 in der Lage sein, "echtes" 4k bei 60 hz anzuzeigen, wenn der Mitarbeiter meine Frage diesbezüglich richtig verstanden hat.

Nach diesem Test zu urteilen könnte es jedoch sein, dass der LG 31MU97-B gar nicht in der Lage ist, 10 Bit anzueigen.


@mediafrost: Die CGI 4k Resolution hatte ich eher als nettes Gimmick angesehen. Aber nach derzeitigem Stand ist der LG für mich uninteressant.
 
Zuletzt bearbeitet:
NVIDIA Geforce graphics cards have offered 10-bit per color out to a full screen Direct X surface since the Geforce 200 series GPUs. Due to the way most applications use traditional Windows API functions to create the application UI and viewport display, this method is not used for professional applications such as Adobe Premiere Pro and Adobe Photoshop. These programs use OpenGL 10-bit per color buffers which require an NVIDIA Quadro GPU with DisplayPort connector. A small number of monitors support 10-bit per color with Quadro graphics cards over DVI. For more information on NVIDIA professional line of Quadro GPUs, please visit:

quelle
das liest sich eher als würden nur spezielle programme z.b. von adobe, bzw für die ansteuerung des 10bit farbraums über dvi eine quadro benötig, es algemein aber möglich ist, was natürlich auch wieder für 10bit bei der 780 sprechen würde ... wie im prad test ..... :fresse2:
 
Zuletzt bearbeitet:
Geht nur noch per DP, auch ist mir ein solcher Monitor nicht bekannt der 10bit bei DVI zulassen würde
 
Geht nur noch per DP, auch ist mir ein solcher Monitor nicht bekannt der 10bit bei DVI zulassen würde

hat jetzt mit dem thema was zu tun, ich versteh den sinn des postings grade nicht ?!?

die aussage war doch das amd/nvidia consumer grakas 10bit nicht unterstützen würden was sie aber laut nvidia in vielen fällen doch können, solange man standard directx als schnittstelle nutzt und kein open-gl mit 10bit oder irgendwelche properitären dvi monitore (wahrscheinlich eh nur mit fhd) die wahrscheinlich mehr als die entsprechende quadro kosten nutzen will ....
das das bei 4k@60hz eh nur aktuell mit dp von der bandbreite passt weil hdmi2.0 hardware noch nicht so verbreitet ist, ist ne andere geschichte (daisychain krams mal außen vorgelassen)...
 
Zuletzt bearbeitet:
Im Testbericht von Prad wird der Monitor mit einer EVGA GeForce GTX780 getestet. Ich frage mich wie das funktionieren soll, wenn diese Karte doch gar keine 10 Bit Farbtiefe unterstützt !!
Mit einer Zuspielung in 8bit pro Farbkanal (mehr geben die Kontrollmittel auch nicht her). Das ist auch im professionellen Segment noch weit verbeitet (die Farbtiefe der zu bearbeitenden Daten sollte natürlich möglichst darüberliegen) und gemeinhin unproblematisch. Darüber hinaus ist die Möglichkeit, eingangsseitig 10bit pro Farbkanal zu verarbeiten, kein spezielles Alleinstellungsmerkmal dieses Monitors.

Geht nur noch per DP, auch ist mir ein solcher Monitor nicht bekannt der 10bit bei DVI zulassen würde
Ist grundsätzlich möglich (unterstützte z.B. der Eizo CG303), gleiches gilt für HDMI, allerdings mit einfacher DualLink-Anbindung nur bis 1920x1080@60 Hz oder in WQXGA @30 Hz.

das liest sich eher als würden nur spezielle programme z.b. von adobe, bzw für die ansteuerung des 10bit farbraums über dvi eine quadro benötig, es algemein aber möglich ist
Nein. Die Software muss eine entsprechende Farbtiefe explizit nutzen. Der Desktop gehört nicht dazu.
 
Zuletzt bearbeitet:
Somit ist CGI 4k/10 Bit was Nvidia betrifft im Windowsbetrieb nur mit einer Quadro 6000/K 5200 möglich. Da Windows -> 8 Bit und lediglich mithilfe OpenGL 10 Bit z.B. in Photoshop möglich.
Also sind auch in Spielen lediglich 8 Bit möglich.

Jemand ne Ahnung ob sich das mit Windows 10 / DirectX 12 ändert ?
 
Zuletzt bearbeitet:
Warum reitest du bitte so auf den 10bit rum? Für Programme wo es auf 10bit ankommt nutzt man sowieso IO Karten, und da sind 10bit Standard.
 
Weil ich bei der Thematik noch nicht so den Durchblick habe und versuche mich durch den Jungle zu hangeln ;)
 
Wenn du bei der Thematik noch keinen Durchblick hast, ist das definitiv der falsche Monitor für dich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh