[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Bei mir wird der TV auch als LG TV SSCR2 geführt.

Ich habe eben den PC neu gestartet und anschließend mal etwas geprüft. Seit dem Neustart steht in der VRR Infobox immer Gsync. Sowohl Desktop, als auch bei Doom Eternal oder AC Valhalla.

Da ich nach dem ersten Systemstart heute direkt Forza 5 gestartet hatte (Windows Store -> GamePass-Version) und mir dort der Eintrag VRR auffiel, hatte ich schon die Theorie das es mit dem Spiel allgemein bzw. Windows Store/ Xbox App zu tun haben könnte. Aber nein -> Forza 5 anschließend ausprobiert und nun lautet es auch dort Gsync :).

Bislang also kein eindeutiges Muster erkennbar. Ich bin im Nvidia-Treiber aber wieder zurück zu Gsync "Vollbildmodus" und wieder weg von "Fenster- und Vollbildmodus". Vielleicht macht das auch den Unterschied.

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt .. also wenn Berni sich nun diese 48C1 aus Itialen kauft is alles Tutti ... ich glaub der wollte
damit aber was anderes erreichen ... aber das weisst ja sicher schon selber 😁

Nun, da ja in Italien wohne werde ich wohl auch dort einkaufen :-)
Wollte lediglich mitteilen dass es Geräte auch bereits unter 900 Euro gibtNun
bei Höherem Mehrwertssteuersatz.
Dies sollte alles gewesen sein :-)
 
Bei mir wird der TV auch als LG TV SSCR2 geführt.

Was damit zusammenhängen könnte aber nich muss .. haben ja auch einige hier dort SSCR2 stehen und haben dennoch nur VRR in der Info Box stehen.

hatte ich schon die Theorie das es mit dem Spiel allgemein bzw. Windows Store/ Xbox App zu tun haben könnte. Aber nein -> Forza 5 anschließend ausprobiert und nun lautet es auch dort Gsync :).

Dürfte auch nich Spielabhängig sein weil die im AVS ja auch in Windows Gsync stehen haben .. das is irgendwie entweder ne TV Sache oder aber ne Windows Erkennungssache.


Ich bin im Nvidia-Treiber aber wieder zurück zu Gsync "Vollbildmodus" und wieder weg von "Fenster- und Vollbildmodus". Vielleicht macht das auch den Unterschied.

Ne das sollte kein Unterschied machen was die Info Box angeht sondern nur das du im Fenster Modus also auch im Rahmenlosen Fenster Modus dann kein Gsync mehr hast
darum wird auch immer empfohlen VollBild und Fenster Modus zu aktivieren bei den Gsync Stettings damit man eben auch beides abdecken kann.
Hat ja auch keine Nachteile wenn man auf beides stellt sondern nur vorteile.

Is schon komisch das ganze das bei einigen Gsync steht und bei den anderen nur VRR

Fürn 65" C1: Energieverbrauch SDR126: kWh/1000 h vs. Energieverbrauch HDR: 222 kWh/1000 h


Aso .. Kilowatt Pro Stunde ... ja kein plan .. hätte nun gerne den richtigen Verbrauch gehabt ohne nun umrechnen zu müssen .. dat hilft mir dann nun grad 0

Meine GPU verbraucht zb im Idle so 30 - 50 Watt .. aber beim Zocken bis zu 450 Watt ... diesen vergleich wollte ich nun haben bei einem 48" OLED in SDR und HDR
Wenn nun zb HDR so 10 Watt mehr verbraucht als SDR dann Wayne .. sollten es aber so 100 oder 200 Watt mehr sein dann ok.
 
Zuletzt bearbeitet:
Ne das sollte kein Unterschied machen was die Info Box angeht sondern nur das du im Fenster Modus also auch im Rahmenlosen Fenster Modus dann kein Gsync mehr hast
darum wird auch immer empfohlen VollBild und Fenster Modus zu aktivieren bei den Gsync Stettings damit man eben auch beides abdecken kann.
Hat ja auch keine Nachteile wenn man auf beides stellt sondern nur vorteile.

Is schon komisch das ganze das bei einigen Gsync steht und bei den anderen nur VRR
So, ich habe für mein Setup da nun etwas reproduzieren können. Bisheriger Standard bei mir war immer Gsync = Vollbildmodus im Nvidia-Treiber. Damit meldet die VRR Infobox bei mir "Gysnc" @ Desktop oder in Spielen (zumindest für die drei o. g. Spiele).

Stelle ich nun im Nvidia-Treiber auf den anderen Modus um (Fenster + Vollbild) gibt die VRR Infobox ab dann bis zum nächsten Neustart des PC "VRR" wieder, direkt ab Sichern für den Desktopbetrieb + Spiele.

Starte ich den PC nun neu (Gsync bleibt bei "Fenster + Vollbild") lautet es ab dem Hochfahren dann aber wieder überall "Gsync" und nicht mehr "VRR". Dieser Unterschied im Ausweis ist (bei mir) also scheinbar eine Treibergeschichte beim Umschalten der Settings zwischen 2 Neustarts. Damit gebe ich mich mit dem Thema nun auch zufrieden :).
 
So, ich habe für mein Setup da nun etwas reproduzieren können. .

Ich hab nun mal nur auf Vollbild gestellt und hab mein PC neugestartet und den OLED angelassen .. es bleibt VRR stehen ..
mache ich den OLED aus und wieder an steht da auch immernoch VRR ... seltsam

Das is bei mir aber so seit ich Gsync Nutzen kann also seit November 2020 ( hatte davor die GTX 1080 damit ging Gsync nich wegen HDMI 2.0 )
Also der Treiber alleine kann dafür nich verantwortlich sein .. höchstens vielleicht GPU Treiber + Firmware + TV Treiber

Am Ende sind es ja nur Buchstaben die sich ändern in der Info Box aber es is seltsam das bei einigen dort Gsync steht und bei anderen nur VRR
 
Zuletzt bearbeitet:
Aso .. Kilowatt Pro Stunde ... ja kein plan .. hätte nun gerne den richtigen Verbrauch gehabt ohne nun umrechnen zu müssen .. dat hilft mir dann nun grad 0
Ist ganz einfach umzurechnen. KWh/1000h ist einfach gleich W, die Stunden und die 1000 (Kilo) kürzen sich raus. Also verbraucht das Teil in dem Fall 126W in SDR und 222W in HDR. Ist ja auch logisch, dass der Mehrverbrauch deutlich ist, schließlich wird der OLED ja auch mal eben doppelt so hell.

Und bei der Graka würde ich mal Undervolting ausprobieren, 450W sind echt viel.
Ich hab nun mal nur auf Vollbild gestellt und hab mein PC neugestartet und den OLED angelassen .. es bleibt VRR stehen ..
mache ich den OLED aus und wieder an steht da auch immernoch VRR ... seltsam
Ist ja an sich völlig egal, da G-Sync über HDMI doch einfach nur Nvidias Name für HDMI VRR ist. Nur HDMI Freesync ist tatsächlich eine inkompatible und proprietäre Technik. Bei DisplayPort ist es ja genau umgekehrt.
 
Ist ganz einfach umzurechnen. KWh/1000h ist einfach gleich W, die Stunden und die 1000 (Kilo) kürzen sich raus. Also verbraucht das Teil in dem Fall 126W in SDR und 222W in HDR. Ist ja auch logisch, dass der Mehrverbrauch deutlich ist, schließlich wird der OLED ja auch mal eben doppelt so hell.

also doch grob 100 Watt bei einem 65" OLED .... nun müsste man halt wissen wie das bei einem 48" OLED is .. das wird ja dann weniger sein weil weniger Fläche.
Geschätzt auf den 65" Werten würde ich dann mal für den 48" OLED 110 Watt für SDR und 180 Watt für HDR in den raum werfen ... 70 Watt mehr.
Damit könnte ich persönlich noch leben. 70 Watt mehr macht bei meiner Kiste eh kaum nen Unterschied. GPU so 400 Watt CPU so 150 Watt + Rest Gedöns wie Lüfter und RGB kramms und Wasser Pumpe usw
sind auch schon so über 600 Watt nur der PC + dann der OLED mit seinen so geschätzen 180 Watt sind wir bei grob über 800 Watt gesamt bei Gaming Last.

Und laut Gerüchten werden die neuen GPUs die 2022 kommen alleine schon bei so 500 Watt und mehr sein ... wird ne Interessante Zeit werden
Die 2020er GPUs wahren was die Watt angeht schon heftig und 2022 wirds noch schlimmer zumindest wenn diese Gerüchte zutreffen.

Und bei der Graka würde ich mal Undervolting ausprobieren, 450W sind echt viel.

Ne lass mal .. durch Undervolting verliert man den Guten Boost und capt sich dann .. hätte dann anstatt meinen 2130mhz sicher nur noch so 2000mhz oder so.
Undervolting geht ja so ziemlich immer mit Boost Takt verlust einher.

Wenn ich weniger verbrauchen will kann ich auch einfach mit dem Power Target runtergehen ... beim Zocken stell ichs auf 400 Watt ... nur fürs Benchen stell ich dann
auf die Max 450 Watt.


Ist ja an sich völlig egal, da G-Sync über HDMI doch einfach nur Nvidias Name für HDMI VRR ist.


Ja mag ja alles sein .. aber wenn Gsync Aktiv is will ich das da Gsync steht und nich nur VRR.
Und grade das bei einigen dort Gsync steht anstatt nur VRR is eben interessant und würde gerne herrausfinden woran das liegt.
 
Zuletzt bearbeitet:
Ich schalte HDR nur zum testen ab.

Es sei denn der Laptop hängt ohne Stromkabel dran. Dann geht HDR nicht.

Mein TV hängt aber auch nicht am Netz und steht nie auf maximaler Helligkeit. Vor allem Abends drehe ich die Helligkeit in Kombination mit f.lux sehr weit runter, wenn ich nicht grade Dolby Vision fähige Filme schauen.

Die 1080 gibt ein noch schlechteres SDR Bild aus. Da bleibt HDR sowieso die meiste Zeit an.
 
Eine Frage zu GSync / Freesync
Derzeit nutze ich den LG 65 BX9 mit einer RTX 3070 und GSync, was recht unproblematisch funktioniert.
Würde aber gern auf AMD umsteigen (6800 oder 6900), läuft Freesync auch reibungsfrei oder sind da Probleme bekannt?
 
Würde aber gern auf AMD umsteigen (6800 oder 6900), läuft Freesync auch reibungsfrei oder sind da Probleme bekannt?

Also nach meinem Kenntnisstand den ich mir hier in diesem Thread angelesen habe sollte Freesync zumindest bei einem OLED der neueren C Serien
in verbund mit einer 6000er AMD GPU problem los gehen ... ob das nun auch für die abgespeckte BX Serie gilt weiss ich nicht.

Es gibt ja hier so 2 oder 3 Leute mit ner 6000er Karte .. kannst ja selber mal in diesem Thread danach suchen per Suchfunktion dann kannst
du das selber nochmal nachlesen was genau nun funktioniert und was nicht.
Das waren so 2 - 3 Disskussionen verteilt auf ein paar Monate .. dürfte man aber noch gut per Suche finden.

Soweit ich noch weiss muss man halt im AMD Treiber Freeesync aktivieren und im TV auch und dann sollte beim CX sowie C1
zumindest dann Freesync Funktionieren. Ob das aber am BX auch so is kann dir glaub ich nur jemand mit einem BX und ner 6000 AMD Karte sagen
 
Zuletzt bearbeitet:
Hi
Lg c1 48 Zoll da bin ich mal gespannt wie der so ist Kommt morgen ich höre immer wieder dass es neue Panels verbaut werden trifft das dann jetzt auch noch zu.

Lg
 
Für den einen oder anderen mag es (aktuell) interessant sein. Vincent hat gestern ein Video veröffentlicht wonach die neueren C1/ G1 (Fertigung seit September) wohl einen HDCP 2.2 Bug aufweisen. Bei diesen Geräten gibt es in Kombination mit einem externen Zuspieler wie PS5, Xbox oder UHD-BD-Player etc. ein Problem mit 4K HDR (HDCP 1.4 Fallback). Es soll noch ein FW-Update folgen (3.20.80). Hintergrund sind wohl geänderte Bauteile bei der Fertigung seitens LG.

Aktuell wird FW 3.20.65 verteilt, diese adressiert das Problem scheinbar noch nicht.

 
Zuletzt bearbeitet:
Hi
Lg c1 48 Zoll da bin ich mal gespannt wie der so ist Kommt morgen ich höre immer wieder dass es neue Panels verbaut werden trifft das dann jetzt auch noch zu.

Lg
Soweit ich das mitbekommen habe, werden nur noch die neuen EVOs verbaut. 😁
 

Sir Ozelot

werden nur noch die neuen EVOs verbaut. 😁


ist das gut oder Schlecht...?

lg
Beitrag automatisch zusammengeführt:

Für den einen oder anderen mag es (aktuell) interessant sein. Vincent hat gestern ein Video veröffentlicht wonach die neueren C1/ G1 (Fertigung seit September) wohl einen HDCP 2.2 Bug aufweisen. Bei diesen Geräten gibt es in Kombination mit einem externen Zuspieler wie PS5, Xbox oder UHD-BD-Player etc. ein Problem mit 4K HDR (HDCP 1.4 Fallback). Es soll noch ein FW-Update folgen (3.20.80). Hintergrund sind wohl geänderte Bauteile bei der Fertigung seitens LG.

Aktuell wird FW 3.20.65 verteilt, diese adressiert das Problem scheinbar noch nicht.

Also im Pc Betrieb wird das wohl nicht zutreffen...?

Lg
 
ist das gut oder Schlecht...?

Sollte sich das Gerücht bewahrheiten das es wirklich die neuen Panels ( EVO Panel ) sind die im C1 stecken da es bisher nich so
richtig aufgeklärt wurde ob dem Wirklich so sei weil bisher auch noch niemand den OLED aufgeschraubt hat und dann mal die Panels
verglichen hat solltest du mit den neuen Panels so ungefähr 50 - 70 Nits mehr haben. Das is doch was oder ?
Aber sie sind auch etwas besser gegen Burn Out.

Zu 100 % is das aber wie gesagt noch nich geklärt worden ob die C1 wirklich EVOs drinn haben
 
Sollte sich das Gerücht bewahrheiten das es wirklich die neuen Panels ( EVO Panel ) sind die im C1 stecken da es bisher nich so
richtig aufgeklärt wurde ob dem Wirklich so sei weil bisher auch noch niemand den OLED aufgeschraubt hat und dann mal die Panels
verglichen hat solltest du mit den neuen Panels so ungefähr 50 - 70 Nits mehr haben. Das is doch was oder ?
Aber sie sind auch etwas besser gegen Burn Out.

Zu 100 % is das aber wie gesagt noch nich geklärt worden ob die C1 wirklich EVOs drinn haben
Eigentlich ist es mir wichtig ein vernünftiges Panel zu haben ohne Pixelfehler oder sonstigen es wäre natürlich schön wenn es so eins wäre aber erkennen kann man es ja so und so nicht wie du schreibst darum wundere ich mich dass die Leute Das es bei manchen verbaut ist. Aber danke für die Info
Lg
 
Eigentlich ist es mir wichtig ein vernünftiges Panel zu haben ohne Pixelfehler oder sonstigen es wäre natürlich schön wenn es so eins wäre aber erkennen kann man es ja so und so nicht wie du schreibst darum wundere ich mich dass die Leute Das es bei manchen verbaut ist. Aber danke für die Info


"Erkennen" kann man das im Service Menu wenn man das "EVO Panel" hat steht an einer stelle etwas anderes

1.jpg




Es kann aber auch sein dass die Anzeige im Service Menu ein überbleibsel des G1 is was da eigentlich nich hingehört
und das man evenetuell dann sein normales Panel "übertaktet" was dann auf die Lebenszeit des Panels geht wenn
es das normale is und eben kein EVO.

Einzieg halt das WBE und WBC is bekannt und darauf stützen sich alle ... aber wirklich mal den OLED aufgeschraubt und verglichen hat bisher noch keiner
daher is das alles mit vorsicht zu betrachten.

Aber ich bin da auch nich weiter in Thema drinn .... sind nur gedanken die ich dazu habe.
 
Wenn die ISF Expert Modus anzeigt werden würde das ja bedeuten, dass der TV im SDR Modus ist? Dann wäre ja alles in Ordnung und Windows würde dann automatisch zwischen SDR und HDR wechseln.
Deshalb hatte ich das genannt, weil Du fragtest in welchen Modi ich den Strom verglichen habe.
Natürlich ist da der sine SDR und der andere HDR.

Der Stromverbrauch ist im HDR Modus auch grundsätzlich höher. Weswegen es mich verwundert, dass Klampf diesbezüglich das Gegenteil berichtet.
Nein ist es nicht, denn er stellt ja nix helleres da, wenn man das bei Windows richti einpegelt. Darum ging es doch gerade.

DIe Farben sind nicht völlig identisch (nutze sonst nur kalibrierte Systeme).
Aber merklich bunter ist es nicht, das grau hat nen leicht anderen Stich, also das würde man normal gut kalibrieren können und die meisten werden das nicht merken.
Man sieht es auch eher nur gleich nach dem Umschalten, nach kurzer Zeit nicht mehr.
Weil der TV im HDR Modus eben volle Power gibt. Da nützt es auch nur bedingt etwas, wenn du das Signal so modifizierst, dass es dunkler ist. Der TV läuft trotzdem noch auf Anschlag.
Das läuft nix "auf Anschlag". Das ist doch alles nur Software in dem OLED.
Bei einem ollen LCD ohne gutes Local Dimming mag das so sein, weil der das Backlight aufdrehen muss um auf HDR vorbereitet zu sein.
Aber bei einem OLED doch gar kein Thema.
Wäre doch mal toll wenn einer mit Messgerät messen könnte und Bild dann postet ;)
Wird das was ich gesagt habe glaubwürdiger, wenn ein screenshot der App mit den Messwerten mache?
Wüsste jetzt nicht wieso ... ist auch nur da was ich gesagt habe.
Der Screen ist mit HDR Mode und Slider auf 12 bei OLED Licht 30 im SDR vom Bild hergesehen (ca.), und soll aber trtotzdem so viel verbrauchen wie auf OLED Licht 100? Die OLEDs regeln sich doch selber?... aber ich kenne mich da nicht so aus wie ihr ;)
Genau.
Jeder kann ausprobieren, ob das erstmal eine sehr ähnliche Helligkeit oder nicht.
Wenn die Helligkeit gleich ist, dass ist es auch der Stromverbrauch bei einem OLED. Was sollt der denn machen mit dem Extra-Strom?
Da kann doch nur Licht machen damit und dazu passende Abwärme.
 

Diagnose HDMI.


Lg
 
Igor von IgorsLAB hat sich vor ner Weile auch einen LG OLED zugelegt und ein neutralen Bericht über ein paar Macken etc. geschrieben:

https://www.igorslab.de/lg-oled55-g...aergerliche-huerden-und-passende-workarounds/


Der LG OLED ist für das Gaming eigentlich das beste .

Für Filme/Videos natürlich auch , aber da ist der Sony AJ90 aber wohl der beste , wenn man im Wohnzimmer den TV nur für TV schauen Filme/Serien nutzt.
In verbindung mit Konsolen und PC geht dann nichts über den LG.

Denke aber für Leute die halt viel auch auf dem Desktop sind und Office machen sollten man einen guten IPS Monitor dazu stellen .
 
Wie viele der hier anwesenden "OLED-als-Monitor-für-alles" Nutzer haben den ASBL denn im Service Menü abgeschaltet?
 
ich kann auch gut damit leben und es bleibt in Zukunft an.
 
Nein ist es nicht, denn er stellt ja nix helleres da, wenn man das bei Windows richti einpegelt. Darum ging es doch gerade.

Das ist dem TV doch vergleichsweise egal. Der TV selber läuft doch aber trotzdem mit OLED Light und Kontrast auf 100.
Natürlich ist der Stromverbrauch mit Quellmaterial, das mit entsprechend viel Nits gemastert ist, noch etwas höher. Aber du kommst trotzdem nicht an
den SDR Stromverbrauch ran, da der HDR halt trotzdem im HDR Modus arbeitet.

DIe Farben sind nicht völlig identisch (nutze sonst nur kalibrierte Systeme).

Genau das ist doch aber Gülle. Außer man interessiert sich kein Stück für solche Sachen.

Das läuft nix "auf Anschlag". Das ist doch alles nur Software in dem OLED.

Natürlich läuft der TV dann im Anschlag Das sieht man doch auch in den entsprechenden Tests bei Rtings, dass der TV im SDR Modus ganz anders arbeitet und dementsprechend weniger hell wird. Erst mit HDR Flag "löst" du doch quasi diese Fesseln und der TV kann Vollgas geben. Man könnte es hier durchaus mit dem einen oder anderen Sport Modus mancher Autos vergleichen.
 
@Klampf : Wieviel Watt zeigt dein Gerät an, sagen wir mal auf dieser Webseite mit dark mode aktiviert. Vergleich mal bitte SDR (OLED-Licht 25, Kontrast 85, Gamma 2.4) zu HDR mit dem Slider auf "0", also ganz links gesetzt. Das würde mich jetzt mal brennend interessieren.
 
@Klampf : Wieviel Watt zeigt dein Gerät an, sagen wir mal auf dieser Webseite mit dark mode aktiviert. Vergleich mal bitte SDR (OLED-Licht 25, Kontrast 85, Gamma 2.4) zu HDR mit dem Slider auf "0", also ganz links gesetzt. Das würde mich jetzt mal brennend interessieren.

Nunja .. nich jeder setzt sein OLED light auf 25 im SDR Mode
Bei mir isses so zwischen 35 - 45 in SDR und Kontrast auf 90 sowie Gamma 2.2 mit Farbtemp mal mittel mal warm 1

Die etwa selbe Helligkeit erreiche ich auch im HDR Mode mit Windows SDR Slider auf 20

Aber ja .. währ cool wenn jemand das mal vergleichen könnte und das dann mit "Watt" kategoriesieren könnte

Wir kammen ja bei unserer Beispielrechnung auf so geschätzten 70 Watt mehr im HDR Mode beim 48" ... was zwar merkbar is aber auch nich die Welt ist.
Man muss halt auch bedenken das es da unterschiede gibt bei der Größe .. ein 77" verbraucht sicher mehr als 48" im HDR Mode
 
Wir kammen ja bei unserer Beispielrechnung auf so geschätzten 70 Watt mehr im HDR Mode beim 48" ... was zwar merkbar is aber auch nich die Welt ist.
Das war keine Beispiel-'Rechnung'. TV-Hersteller sind verpflichtet, SDR-Stromverbrauch und HDR-Stromverbrauch getrennt auszuführen.
Kuckst Du:
Leistungsaufnahme SDR <-> Leistungsaufnahme HDR

Das ausknobeln der Differenz beider Angaben kann man nicht wirklich als 'Rechnung' bezeichnen.
Kannst Dir den Stromverbrauch ja auch bei den anderen Grössen anschauen:
 
Das war keine Beispiel-'Rechnung'. TV-Hersteller sind verpflichtet, SDR-Stromverbrauch und HDR-Stromverbrauch getrennt auszuführen.
Leistungsaufnahme SDR <-> Leistungsaufnahme HDR

48" OLED

11.jpg




42 Watt Unterschied zwischen SDR und HDR ... fänd ich nun vernachlässigbar für mich Persönlich



65" OLED

65.jpg





96 Watt Unterschied


Also wie ich geschrieben hatte .. je Größer desto mehr Stromverbrauch ... aber auch der unterschied von SDR zu HDR wird Größer.
Bei dem 42" OLED der 2022 kommt wird der Unterschied dann wohl nochmal geringer werden und wohl im 30er Bereich liegen


Und dann muss man eben noch schauen welchen Einfluss der Windows SDR Slider hat ... ob er den verbrauch wieder auf 91 Watt runter drückt
obwohl der TV im HDR Mode is.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh