[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Und das is genau das Problem in der heutigen Zeit
Irgend eine Seite schreibt was und irgendwelche Leute glauben es
Anstatt selbst aus zu probieren
Bei den Preisen die im mom aufgerufen werden kann man mal zu schlagen bei nicht gefallen nutzt man dann sein 14tage Rückgabe recht und gut is

Na ja, TFT Central ist jetzt nicht irgendeine Seite. Die machen eigentlich relativ gute Test´s. Auch Rtings hat solche Werte gemessen.
Will das dem Händler, (auch dem Postboten 😉), ersparen bei solchen Preisen das Ding dann einfach wieder zurückschicken weil mir der Input-Lag nicht passt, was ich ja noch dazu dann vorher auch noch wusste.
Finde ich gegenüber dem Händler nicht unbedingt fair wenn der TV zudem so auch fehlerfrei sein sollte...

Hatten die dort G-Sync an? Es fühlt sich mit G-Sync aufjedenfall deutlich besser an.
Unterschied zwischen 2160P und 1440P ist für mich nicht spürbar.

Hier bei Rtings mit mehr Werten, nur eben nicht so krass gegenübergestellt gegen die Gamingmonitorfraktion...

Input Lag CX 48.jpg


Bleibt sich also gleich mit VRR (Sync) und ohne VRR. Rtings hat hier 11ms gemessen in 4K bzw UHD. Auch wie bei TFT Central sinkt der Input Lag mit niedrigerer Auflösung mit Sync dann in 1440p nochmals geringfügig besser von 6,9 (ohne Sync) auf 6,2ms mit Sync.

Quelle
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann würde ich empfehlen einfach bei SDR zu bleiben. Da hast du mehr von, als wenn du das HDR Bild so "zerstörst".
Alternativ besorg dir ein Colorimeter und Calman und mess den TV dann entsprechend ein. Ich würde da dann einfach generell die Peak Brightness herunterstellen. Damit kennt der TV dann die neuen Werte und Tone mapped dann einfach darauf.
Das wäre eine Möglichkeit.
Ich spiele in meinem dunklen Raum auch HDR Games setze die Energiesparfunktion auf niedrig. So geht das Oled Licht etwas runter.
Das Tonemapping wäre theoretisch im Ar....
Wenn das Game aber interne Schieberegler hat kann man es auch dort anpassen.
Zudem darf man nicht vergessen, dass 100 Nits auf einem 77er etwas anderes ist als 100 Nits auf nem 55er. Die Fläche macht auch etwas aus.
Deshalb reicht ein Beamer schon ab 50 Nits.
 
Bleibt sich also gleich mit VRR (Sync) und ohne VRR. Rtings hat hier 11ms gemessen in 4K bzw UHD. Auch wie bei TFT Central sinkt der Input Lag mit niedrigerer Auflösung mit Sync dann in 1440p nochmals geringfügig besser von 6,9 (ohne Sync) auf 6,2ms mit Sync.

Quelle
Die Tabelle kenne ich natürlich die ist schon etwas älter.

Wie gesagt beim X34 hat es mich gestört er war mir zu langsam und wenn irgendwas zu langsam ist gewöhne ich mich auch nicht dran. Jetzt am CX finde ich es ideal und ich vermisse die etwas schnellere Reaktion vom X34P gar nicht. Es wird kein LCD Monitor mehr bei mir geben am PC als Gaminganzeige.
Beitrag automatisch zusammengeführt:

Dann würde ich empfehlen einfach bei SDR zu bleiben. Da hast du mehr von, als wenn du das HDR Bild so "zerstörst".
Alternativ besorg dir ein Colorimeter und Calman und mess den TV dann entsprechend ein. Ich würde da dann einfach generell die Peak Brightness herunterstellen. Damit kennt der TV dann die neuen Werte und Tone mapped dann einfach darauf.
Ich sehe keinen Zerstörungseffekt, ich bin zufrieden wie ich es habe😋Tone Mapping habe ich aus.
 
Tone Mapping habe ich aus.


Okay ... du meinst du hast das Dynamische Tone Maping aus .. das is was anderes als das Tone Mapping an sich.
Das Dynamische Tonemapping macht der TV er passt dann das Mapping was die Quelle dir bietet Automatisch
an. Dyn. Tone Mapping hab ich auch aus ... was aber nich heisst das dann eben das Tone Mapping an sich aus is 8-)
Das Tone Mapping bleibt dann so wie es die Quelle dir bietet und wird nich vom TV angepasst durch das Dyn. Tonemapping.
 
Der Input Lag verringert sich je Höher die Hz ausgegeben werden.

In 60Hz kann der Bildschirm gar nicht wirklich unter 10ms kommen da das Bild diese Zeit einfach zum Aufbau benötigt.
Im RTINGS Test bei 1080/1440p mit 120Hz sieht man schön den Unterschied zu den 60Hz.
Rtings hat auch angegeben dass mit 4k 120Hz noch nachgetestet wird.
Derr tft Central Test ist auch schon etwas älter und dürfte in 4k mit 60Hz gemacht worden sein da in 1080/1440p der Bildschirm in Stufe 1 gewertet wird unter der Tabelle.
 
Zuletzt bearbeitet:
Der Input Lag verringert sich je Höher die Hz ausgegeben werden.

In 60Hz kann der Bildschirm gar nicht wirklich unter 10ms kommen da das Bild diese Zeit einfach zum Aufbau benötigt.
Im RTINGS Test bei 1080/1440p mit 120Hz sieht man schön den Unterschied zu den 60Hz.
Rtings hat auch angegeben dass mit 4k 120Hz noch nachgetestet wird.
Derr tft Central Test ist auch schon etwas älter und dürfte in 4k mit 60Hz gemacht worden sein da in 1080/1440p der Bildschirm in Stufe 1 gewertet wird unter der Tabelle.

Und wie erklärst du dann Werte zwischen 0-2 ms bei dem Vergleich mit anderen Monitoren, wenn diese - nach deiner Aussage - die Bildwiederholungsrate mit einbeziehen sollen?
 
Und wie erklärst du dann Werte zwischen 0-2 ms bei dem Vergleich mit anderen Monitoren, wenn diese - nach deiner Aussage - die Bildwiederholungsrate mit einbeziehen sollen?
Verwechselst du zufällig Reaktionszeit und Inputlag?
Nur am Rande: Die Reaktionszeit bei OLEDs ist quasi ungeschlagen, da
deren Pixel direkt schalten. Da stinkt jeder LCD gegen ab. Selbst die besten TN Panels.

Was den Inputlag angeht, kommt es halt immer arauf an, wie viel Hz der Monitor hat und wie viel FPS anliegen. Höhere Hz und mehr FPS => Geringerer Inputlag.

Wenn du also den VRR Inputlag misst und de FPS irgndwo zwischen 70 und 100 FPS rumgurken, fällt der Lag natürlich deutlich höher aus, als würde die FPS zwischen 100 und 120 FPS rumspirngen oder gar locked 120 FPS.

Weswegen ich es auch irgendwe unsinnig finde, dass Seiten wie Rtings den VRR Inputlag angeben.
 
Das wäre z.b. der Acer XF 252Q oder die Samsung G7 Serie, sind beides Geräte mit 240Hz wodurch der Inputlag nochmal sinkt.

Außerdem darf man nicht vergessen dass Werte um oder unter 10ms Traum Werte sind die kein Normalverbraucher jemals bemerken wird.

Weniger macht nur bei E-Sports Titeln Sinn und da dann auch nur mehr im LAN wenn man den Netzwerklag nicht hat, alles andere ist nur Zahlenfuchserei um die aufgerufenen Preise für die Technik rechtfertigen zu können.
 
Zuletzt bearbeitet:
Verwechselst du zufällig Reaktionszeit und Inputlag?
[...]

Nein, ich beziehe mich auf das Bild in Post #5333. Ich verstehe das so:
- Response Time Element => Pixel Response Time
- Signal Processing Lag => Verarbeitungsdauer von Signal Eingang bis die Pixel anfangen umzuschalten
- Response Time Element + Signal Processing Lag = Input Lag

Ich meinte die Signalverarbeitungszeit und die wäre dann beim CX rund 11 ms in 4k@60 bzw. 7 ms bei 1440p@120 (das entspricht in etwa den zu erwartenden 4.166 ms (Durchschnitt) durch die Bildwiederholungsrate). Und dann sollten es doch eigentlich auch 7 ms in 4k@120 Hz sein (wobei Rtings hier auch 11.1 ms angibt... konnten die das zu dem damaligen Zeitpunkt überhaupt richtig testen und wenn nein, warum haben sie dann einfach einen beliebigen Wert dort hingeschrieben?)?
Dennoch bleibt dann immer noch eine gewisse Zeit über, die der CX langsamer ist und diese ist unabhängig von der Bildwiederholungsrate (sonst könnten andere Monitore dort keinen Wert von <0.5 ms erreichen).
 
Zuletzt bearbeitet:
konnten die das zu dem damaligen Zeitpunkt überhaupt richtig testen und wenn nein, warum haben sie dann einfach einen beliebigen Wert dort hingeschrieben?)?
Ich würde mal pauschal behaupten, dass sie da einfach
einen falschen Wert eingetragen haben.
Ansonsten würde ich auch einen Messfehler nicht
ausschließen. Hatten sie beim C9 damals auch.
 
Kommt auch darauf an WO Sie am BIld messen.
Da RTINGS mit dem Leo Bodnar Tool misst, gibts einen Wert Oben/Mitte/Unten am Display und je nach Messpunkt variieren die ermittelten Werte etwas und leider gibt kein Test an WO genau gemessen wurde.
Ist die Frage ob TFT Central auch mit dem Tool misst oder eine eigene Messmethode mit Highspeedcam und bearbeiteter Maus hat wie viele Hardware Seiten (Computerbase z.B.) da variieren die Werte dann nochmal.
Im TV Bereich wird normal mit dem Tool gemessen, im PC Bereich eher weniger, leider.

Unterm Strich kann man nur sagen was auch bei TFT Central steht:


Class 1) Less than 8.33ms - the equivalent to 1 frame lag of a display at 120Hz refresh rate - should be fine for gamers, even at high levels

Class 2) A lag of 8.33 - 16.66ms - the equivalent of one to two frames at a 120Hz refresh rate - moderate lag but should be fine for many gamers. Caution advised for serious gaming


Class1 benötigt fürs normale Gaming fast niemand, Class 2 reicht für normale Gamer absolut aus und die LG OLED liegen in 4k gaaanz knapp über Klasse 1 und in 1440/1080p sowieso in Klasse 1, also sollte es für fast jeden Zocker mehr als schnell genug sein.
Ein E Sport Gamer wird sowieso nicht auf 48" zocken im Normalfall.
 
Die fixt den G-Sync Bug.

Mit der Firmware scheint es aber wohl so zu sein, dass man jetzt beim
Wechseln von SDR zu HDR immer eine No Signal Message bekommt
für eine Sekunde oder so. Normalerweise war immer ein Blackscreen.

Allerdings habe ich das mit der No Signal Message schon länger. Allerdings nur bei
meinen Geräten, die direkt am AVR hängen. Jetzt soll es aber wohl auch so sein,
wenn die Geräte direkt am TV hängen.
 
LG verteilt bei den 2019er Geräten wohl seit gestern Abend schrittweise die neue Firmware.
Auf der Homepage von LG wird allerdings immer noch nur die "alte" Version 04.80.03 angeboten
 
Auf der Homepage von LG wird allerdings immer noch nur die "alte" Version 04.80.03 an geboten
Das dauert immer, bis sie die da aktualisieren.
Die fangen hier eigentlich immer über die Update Funktion an.
Und dann auch nur in Wellen, damit sie ggf. nicht gleich alle TVs zerballern :d
 
Ich kann nur zum Input Lag sagen das er mir selbst bei 4K 60hz absolut ausreichend Gering is.
Bin allerdings auch ein alter Gamer und zocke seit den 80gern und betreibe auch kein E-Sport.
 
bei der manuelle Update-Suche am C9 finde ich allerdings auch noch kein neues Update... aber ich kann noch warten...
 
Ich bin echt gespannt, meiner ist jetzt unterwegs, die 3080 ist seit dem Wochenende ja auch da.

Was gibts denn jetzt zu beachten bei den Einstellungen? Gibts da irgendwo eine zusammengefasste Liste, in der alle wichtigen Optionen in Windows, im Treiber und auf Fernseherseite stehen? :)
 
Ich bin echt gespannt, meiner ist jetzt unterwegs, die 3080 ist seit dem Wochenende ja auch da.

Was gibts denn jetzt zu beachten bei den Einstellungen? Gibts da irgendwo eine zusammengefasste Liste, in der alle wichtigen Optionen in Windows, im Treiber und auf Fernseherseite stehen? :)
HDMI Ultra HD Deep Color sollte am Fernseher aktiviert sein. Unter win selbst solltest entweder die FPS auf 90 begrenzen wenn du mit Gsync, HDR und vollem Farbumfang usw. spielst oder du senkst von RGB und 10 bpc auf 420 und 8 bpc.

Rest ist halt soweit Geschmackssache, ich würde außerdem die Schärfe runterregeln. Standard 25 überschärft das Bild ziemlich stark.
 
Na ja, TFT Central ist jetzt nicht irgendeine Seite. Die machen eigentlich relativ gute Test´s. Auch Rtings hat solche Werte gemessen.
Will das dem Händler, (auch dem Postboten 😉), ersparen bei solchen Preisen das Ding dann einfach wieder zurückschicken weil mir der Input-Lag nicht passt, was ich ja noch dazu dann vorher auch noch wusste.
Finde ich gegenüber dem Händler nicht unbedingt fair wenn der TV zudem so auch fehlerfrei sein sollte...



Hier bei Rtings mit mehr Werten, nur eben nicht so krass gegenübergestellt gegen die Gamingmonitorfraktion...

Anhang anzeigen 542991

Bleibt sich also gleich mit VRR (Sync) und ohne VRR. Rtings hat hier 11ms gemessen in 4K bzw UHD. Auch wie bei TFT Central sinkt der Input Lag mit niedrigerer Auflösung mit Sync dann in 1440p nochmals geringfügig besser von 6,9 (ohne Sync) auf 6,2ms mit Sync.

Quelle

Kann es sein dass die 4K Werte da mit 60Hz entstanden sind? Mit 120Hz sollten die Werte eigentlich genauso wie unter 1080 und 1440p sein.
 
Kann auch Messtoleranz sein. Letztlich ist das ja auch ein wenig von der Grafikkarte und dem Treiber abhängig. zwischen knapp 7 und 11 ms gibt es kaum einen Unterschied. Nichts was man merken kann. Die Schaltzeiten sind viel viel wichtiger.
 
Zuletzt bearbeitet:
Habe heute eine 3080 bekommen und konnte somit den cx48 endlich mal mit HDMI 2.1 laufen lassen. Funktioniert bisher eigentlich alles, 4K HDR 10Bit mit 120Hz und G-Sync.
GPU ist diese
Kabel diese
 
Kann es sein dass die 4K Werte da mit 60Hz entstanden sind? Mit 120Hz sollten die Werte eigentlich genauso wie unter 1080 und 1440p sein.

Glaube ich nicht da es bei Rtings fast identisch ist bzw die auf 11.1 ms kommen bei 4K @120 Hertz.... Siehe Post 5341
Es kommen ja auch oft Firmwareupdates für den TV raus und potente HDMI 2.1 Grafikkarten kann man ja auch erst jetzt allmählich kaufen. Hoffe die testen nochmal mit AMD oder auch Nvidia, wenn es möglich sein sollte, auf aktuellem Stand nach.
 
Zuletzt bearbeitet:
Er nimmt zwar die PS5 ran, gilt aber natürlich genau so für andere Plattformen:


€: Er spricht btw an, dass der Gamma Shift mit VRR beim CX/C9 etc. wohl nie ganz gefixt wird.

As mentioned in this video, it cannot be totally fixed, since changing the refresh rate would alter the native panel gamma response.
 
Zuletzt bearbeitet:
Glaube ich nicht da es bei Rtings fast identisch ist bzw die auf 11.1 ms kommen bei 4K @120 Hertz.... Siehe Post 5341
Es kommen ja auch oft Firmwareupdates für den TV raus und potente HDMI 2.1 Grafikkarten kann man ja auch erst jetzt allmählich kaufen. Hoffe die testen nochmal mit AMD oder auch Nvidia, wenn es möglich sein sollte, auf aktuellem Stand nach.

Wir reden hier von ~4ms zu absoluten Top Werten (wobei 11ms schon Hammer sind, vor 3-4 Jahren waren 30ms+ Standard bei TV´s) und noch immer einem TV, ich denke den Unterschied wird keiner jemals wirklich merken im realen Einsatz.
Viel mehr Unterschied macht die unter 0,5ms Reaktionszeit der Pixel aus im Alltag und die zusätzlich sehr gut integrierte BFI bei der CX Serie.
 
Zuletzt bearbeitet:
Wir reden hier von ~4ms zu absoluten Top Werten (wobei 11ms schon Hammer sind, vor 3-4 Jahren waren 30ms+ Standard bei TV´s) und noch immer einem TV, ich denke den Unterschied wird keiner jemals wirklich merken im realen Einsatz.
Ich hab noch ein TN-Panel (144Hertz), einen alten CRT (120 Hertz), einen UWQHD IPS (100 Hertz) Monitor und schlussendlich meinen Sony 65er TV mit VA Panel. Merke da ehrlich gesagt schon einen Unterschied. Am langsamsten empfinde ich klar den TV (Spielemodus logischer Weise an), am schnellsten den CRT. Die Frage ist aber, ist es eher die Reaktionszeit oder der Input Lag. Mein TV kann allerdings nur 100 Hertz nativ bei 1440p fairerweise gesagt...

Leider muss man ja beides addieren und kann also so nicht sicher sagen ob ich den erhöhten Lag merke oder nicht. Reaktionszeit und Input Lag sind ja 2 paar Schuhe. Eventuell testen Rtings oder auch TFT-Central nochmal mit neuester Firmware und einer Highend HDMI 2.1 Karte nach. So auf den ersten Blick wie sie es darstellen gegenüber PC-Monitore überlegt man dann schon da ich auch gerne sehr schnelle Shooter zocke...Auch viele Onlinespiele... Hier zählt ja dann der Ping auch noch mit dazu,... usw...

Für mich heißt es ja eh noch abwarten. Erstmal sehen was es für eine Karte (AMD oder NVIDIA) mit HDMI 2.1 wird und dann werde ich letztlich entscheiden ob es der OLED, der ja aktuell auch noch viele Bugs zu haben scheint, oder doch wieder ein PC-Monitor wird...
 
Zuletzt bearbeitet:
Wir reden hier von ~4ms zu absoluten Top Werten (wobei 11ms schon Hammer sind, vor 3-4 Jahren waren 30ms+ Standard bei TV´s) und noch immer einem TV, ich denke den Unterschied wird keiner jemals wirklich merken im realen Einsatz.
Viel mehr Unterschied macht die unter 0,5ms Reaktionszeit der Pixel aus im Alltag und die zusätzlich sehr gut integrierte BFI bei der CX Serie.

Ja, gerade durch die fast instantane Pixel-Response-Zeiten fühlt sich das Bild sehr flüssig an. Da schmiert und blurrt nichts.

Mich wundert aber immer noch, woher diese ~4 ms Unterschied in der Verarbeitungszeit zu einer niedrigeren Auflösung kommen. 4 ms sind halt ziemlich verdächtig genau der Steigerungswert der durchschnittlichen Reaktionszeit von 60 auf 120 Hz ( (1/60 - 1/120) / 2 ~= 4.166 ms ). Und wenn überhaupt würde ich einen erhöhten Inputlag eher bei der niedrigeren Auflösung erwarten, falls der TV diese noch selbst upscalen muss. Kann natürlich auch sein, dass das "mehr" an Daten auch länger zum Übertragen braucht, schließlich braucht die Übertragung eines kompletten Frames bei 120 Hz bei Nutzung der vollen 40 GB/s immerhin 8.333 ms. Also müsste man dann auch noch einmal Unterschiede zwischen 8, 10 und 12 Bit sowie RGB, 4:4:4, 4:2:2 und 4:2:0 messen können - vermutlich aber nicht, da HDMI Signale ja über eine fixed rate oder so gesendet werden (also in einem festgelegten, gleichbleibenden Intervall), oder?
 
Ich hab noch ein TN-Panel (144Hertz), einen alten CRT (120 Hertz), einen UWQHD IPS (100 Hertz) Monitor und schlussendlich meinen Sony 65er TV mit VA Panel. Merke da ehrlich gesagt schon einen Unterschied. Am langsamsten empfinde ich klar den TV (Spielemodus logischer Weise an), am schnellsten den CRT. Die Frage ist aber, ist es eher die Reaktionszeit oder der Input Lag. Mein TV kann allerdings nur 100 Hertz nativ bei 1440p fairerweise gesagt...

Leider muss man ja beides addieren und kann also so nicht sicher sagen ob ich den erhöhten Lag merke oder nicht. Reaktionszeit und Input Lag sind ja 2 paar Schuhe. Eventuell testen Rtings oder auch TFT-Central nochmal mit neuester Firmware und einer Highend HDMI 2.1 Karte nach. So auf den ersten Blick wie sie es darstellen gegenüber PC-Monitore überlegt man dann schon da ich auch gerne sehr schnelle Shooter zocke...Auch viele Onlinespiele... Hier zählt ja dann der Ping auch noch mit dazu,... usw...

Bei TFT Central sind ja beide Werte addiert und da sind 11,1ms, wie gesagt, ein Top Wert den kein Otto Normal Verbraucher beim Online zocken merken wird.

Dass dein Sony spürbar langsamer ist glaube ich gerne, ich habe einen C6 OLED aus 2016, die hatten um die 40ms im Gaming Modus (wie die meisten TV) und da merke ich auch einen Unterschied zu meinem aktuellen 35" Monitor, wir reden hier aber von einer Steigerung von über 30ms gegenüber damals und unter 10ms wird die Luft schon sehr dünn.

Mich wundert aber immer noch, woher diese ~4 ms Unterschied in der Verarbeitungszeit zu einer niedrigeren Auflösung kommen. 4 ms sind halt ziemlich verdächtig genau der Steigerungswert der durchschnittlichen Reaktionszeit von 60 auf 120 Hz ( (1/60 - 1/120) / 2 ~= 4.166 ms ).


Genau das vermute ich auch, wobei es auch daran liegen könnte dass alle damals mit dem 4:2:0 Modus des CX gemessen haben den die C9 ja nicht hatten und vielleicht hierbei das Signal langsamer wurde. eine Native 4k 120Hz 10Bit 4:4:4 Messung wäre nochmal Interessant jetzt.

Und nochmal. die 7ms in 1440/1080p sind Wahnsinn für einen TV, auch für einen Monitor Top Werte und wir reden hier von 4ms Differenz in 4k wobei wir alle nicht wissen wie RTINGS auf den Wert kommt.
Beim LG 48CX Monitor Test haben Sie 10,7ms bei Native Resolution angegeben, und 13,6ms bei Native Resolution in 60Hz. Da wird aber nirgends erwähnt ob Oben/Mitte/Unten im Bild gemessen wird mit dem Leo Bodnar Tool.

Man kann die Tests nie untereinander vergleichen weil zuviele Faktoren das Ergebnis verändern, unterm Strich hat der OLED ~10ms egal welche Auflösung zugepsielt wird bei 120Hz und das ist und bleibt ein Top Wert.
Wenn man Online spielt kommen noch im Schnitt 30-40ms dazu, dann noch die Hardware eigene Latenz, da machen die 5ms auf oder ab beim Monitor nicht mehr den Unterschied.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh