[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Ja, und das ist halt einfach falsch eingestellt, wenn HDR getriggert wird, obwohl nur ein SDR Signal anliegt?! :d
Nee, es liegt ein HDR Signal an wenn Windows im HDR-Modus ist. Dafür ist der ja da.

Nur läuft der TV dann doch trotzdem noch im HDR Modus. Oder ist Windows 11 mittlerweile so intelligent und kann im Desktopalltag automatisch zwischen SDR und HDR wechseln?
Alles was SDR ist, wird in den SDR Bereich gepackt, also ja es ist besser als eine automatische Umschaltung.
Es geht eben beides glecihzeitig.
Dafür hat es den Mapping Regler in Windows damit man die SDR Helligkeit einpegeln kann, selbst wenn man OLED Light auf 100 haben will in HDR.
Da passt bei mir Brightness Balance auf 12 ganz gut und das hat auch den gleiche Stromverbrauch wie einfach SDR (auf OLED light 35).

Also alles irgendwie digital zusätzlich modifiziert. Trotzdem liegt dann doch ein HDR Signal an, der TV ist weiterhin im BT.2020 Farbraum unterwegs usw.. Ist doch alles gülle.
Wenn Du farbrichtig arbeiten willst, musst Du eh kalibrieren und dafür würde ich auch in SDR gehen.
Es sei denn für Videodingen mit HDR, da kommt halt drauf an.
Ich habe bisher nicht probiert das SDR im HDR zu kalibrieren, profilieren sollte gehen und das ohne Probleme für Photoshop usw.

Ich finde es schon gut, wenn ich Videos in HDR und in einem Fenster sehen kann.
Gerade Youtube ist doch sonst nervig, aber auch sonst.

Auf dem Schreibtisch steht ein hw-kalirbierter Monitor und die Farben in SDR und auch HDR auf dem OLED sind okay würde ich sagen. Perfekt nicht, aber geht schon.


Häng mal einen Stromzähler drann. Spätestens dann sollte man einen Unterschied feststellen.
Ich habe einen Stromzähler dran, daher sagte ich, dass es nicht mehr Strom braucht, ergo auch nicht heller sein kann oder was "Abnutzen".
Windows mit Browser hier schön im Darkmode, <80W auf 77" ... da kann man eh nix sagen. Das ist hammerwenig.
Peak Brightness habe ich immer auf high, falls dei Frage kommt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mitte Oktober wurde bei Doom Eternal in der VRR Infobox auch noch "Gsync" ausgewiesen, ich hatte seinerzeit ein schnelles Foto mit dem Handy gemacht.

Das ist dann zwar komisch. Wäre aber nichts, worüber ich mir Gedanken machen würde.

Alles was SDR ist, wird in den SDR Bereich gepackt, also ja es ist besser als eine automatische Umschaltung.
Es geht eben beides glecihzeitig.

Der TV läuft doch aber trotzdem im HDR Modus, oder wird dort der SDR Modus getriggert? Sollte ja anhand der vorhandenen Bildprofile erkennbar sein.

Peak Brightness habe ich immer auf high, falls dei Frage kommt.

Wäre für SDR tatsächlich falsch, außer du sitzt in einem sehr hellen Raum ^__^

Ich habe einen Stromzähler dran, daher sagte ich, dass es nicht mehr Strom braucht, ergo auch nicht heller sein kann oder was "Abnutzen"

Hast du hiermit auch den Vergleich zu richtigem SDR Modus gemacht?
 
Wäre für SDR tatsächlich falsch, außer du sitzt in einem sehr hellen Raum ^__^
Ich weiß, dass das Deine Meinung ist.
Hast du hiermit auch den Vergleich zu richtigem SDR Modus gemacht?
Expert (dark room) zu Cinema (user). Halt die beiden Modi, die immer genutzt werden für SDR und HDR.
Beide warm2 usw. beides so eingestellt, wie es für Filme genutzt wird.

Für Games stelle ich dann auf Game um am TV und ggf. auch GSynch usw. an.
 
@TZGamer

Alles was SDR ist wird von der Helligkeit per Windows SDR Slider den man selber anpassen kann runtergeregelt
damit eben nich alles zu hell is ( ich hatte das vor einiger Zeit hier auch schonmal leicht angeschnitten )

Auch das unser OLED von Windows mit 1499 Nits Peak erkannt wird kann man ändern damit er
die 800 Nits erkennt ... glaub auch das hatte ich hier schonmal ganz kurz erwähnt.

Sieht bei mir nun so aus : ( bei den anderen die es mit CRU nicht geändert haben steht dann da nich 800 Nits sondern 1499 Nits ( Windows Default Werte da Windows nich auf die in der EDID Hinterlegten Nits Werte zugreifen kann nimmt Windows die Default Werte statt die Richtigen )

5.jpg



Das ganze wird auch schon seit einiger Zeit im AVS Forum im CX Thread besprochen ... und soll zumindest bei HGIG
das Clipping verbessern... ein User hatte da im AVS vor ner Zeit mal ein Test Pattern gestestet mit verschiedenen Nits einstellung
die er mit CRU gemacht hat


Der OLED bleibt im HDR Mode und auch das OLED Light bei 100 ( ausser man verstellt es halt Manuell )
aber da man die Helligkeit von dem Gesamten SDR Bereich mit dem Regler
runterregeln kann bleibt eben dennoch alles was SDR is von der Helligkeit her im SDR Bereich.
Startet man dann ein HDR Game wird das Bild wieder heller weil dann der SDR Slider ignoriert wird.


Den Slider dürftest du ja schon kennen.

6.jpg



All das hatte ich aber schon vor 1 oder 2 wochen hier geschrieben als Albundy auch sagte das man HDR nich 24/7 anlassen solte.

Auch damals verlinkte ich meine ich diesen Thread :




@Iceman021

Kann ich deine beiden Bilder im AVS nutzen ? Da ging es vor ein paar Tagen nämlich genau darum das in der Info Box bei einigen Gsync steht.
 
Zuletzt bearbeitet:
Ich weiß, dass das Deine Meinung ist.

Das ist keine Meinung, sondern eine Tatsache :d

Expert (dark room) zu Cinema (user).

Wenn die ISF Expert Modus anzeigt werden würde das ja bedeuten, dass der TV im SDR Modus ist? Dann wäre ja alles in Ordnung und Windows würde dann automatisch zwischen SDR und HDR wechseln. Wenn Cinema und Cinema Home da wären und die ISF Modi fehlen, dann ist der TV ja im HDR Modus. In diesem Fall will man ja eigentlich kein SDR zuspielen.

Was bitte hälst du von "Grauen" LG Oled so wie sie teilweise zu kaufen aufscheinen ?

Du meinst wegen der Farbe? Ist mir perönlich egal. Ist ja nur die Rückseite und der Standfuß. Bei mir hängt der TV an der Wand. Da sehe ich die Rückseite nicht und den Standfuß ebenfalls nicht. Der TV könnte daher auch rosa sein und es würde mich nicht stören :d

Alles was SDR ist wird von der Helligkeit per Windows SDR Slider den man selber anpassen runtergeregelt
damit eben nich alles zu hell is ( ich hatte das vor einiger Zeit hier auch schonmal leicht angeschnitten )

Ja, das ist mir schon klar, dass Windows das macht. Die HDR Flag wird ja aber weiterhin zum TV gesendet. Ergo läuft der TV halt weiterhin im HDR Modus und auch der falsche Color Space wird halt weiterhin genutzt. Da kannst du auch so viel in Windows einstellen wie du willst. Das Ergebnis wird niemals richtig sein. Der Stromverbrauch ist im HDR Modus auch grundsätzlich höher. Weswegen es mich verwundert, dass Klampf diesbezüglich das Gegenteil berichtet. Vielleicht ist das Delta bei ihm aber auch nicht so groß, weil er so oder so Peak Brightness im reinen SDR Modus nutzt. Selbst dann sollte da aber noch ein messbarer Unterschied feststellbar sein. So war es bisher immer und nicht nur bei OLEDs.
 
Du meinst wegen der Farbe? Ist mir perönlich egal. Ist ja nur die Rückseite und der Standfuß. Bei mir hängt der TV an der Wand. Da sehe ich die Rückseite nicht und den Standfuß ebenfalls nicht. Der TV könnte daher auch rosa sein und es würde mich nicht stören :d

Er meint mit den "Grauen" die Grau Importe .. er wollte wissen was du von Grau Importe hällst.
Da sein Link hier vor kurzem ja zu einem Grauen aus Italien führte für 890 Euro ( 48C1 )

Ja, das ist mir schon klar, dass Windows das macht. Die HDR Flag wird ja aber weiterhin zum TV gesendet. Ergo läuft der TV halt weiterhin im HDR Modus und auch der falsche Color Space wird halt weiterhin genutzt.

Ja läuft bei mir weiterhin im HDR Mode ... beim Color Space is bei mir aber alles Tutti ... der Space is gut Colorig aber nich zu abgespaced. Sprich merke da kein unterschied beim Color Space.


Da kannst du auch so viel in Windows einstellen wie du willst. Das Ergebnis wird niemals richtig sein.

Was richtig is entscheidet jeder für sich selbst ... was das angeht hatten wir beide ja schon öfters unsere differencen 😜

Der Stromverbrauch ist im HDR Modus auch grundsätzlich höher. Weswegen es mich verwundert, dass Klampf diesbezüglich das Gegenteil berichtet.

Dazu kann ich nix sagen .... aber warum sollte er höher sein ? Man dreht mit Windows die SDR Helligkeit ja runter und somit wird das Bild dunkler
und es is dann zb so als wenn man das OLED light auf 40 oder 30 stellt wenn man mit dem SDR Slider auf so 20 runtergeht.
Und da eben alles dunkler is dürfte auch der Stromverbrauch wieder so sein wie vorher.
Beitrag automatisch zusammengeführt:

Ingame war mir das hier und da mal aufgefallen (bei Ladescreens mancher Spiele). Wegen Forza 5 habe ich nun mal mit der Gsync-Einstellung "Fenster- und Vollbildmodus aktivieren" anstelle "Vollbildmodus aktivieren" experimentiert. Kann es sein das sich dadurch das Flackern auch auf die Desktophintergründe ausweitet, wenn man z, B. Browser minimiert auf dem Windows Desktop nutzt? Zumindest habe ich heute erstmals ein Flackern bei dunklen Hintergrundbildern im Idle bemerkt. Dauerhaft würde das schon stören.

Das hatte ich auch vor einiger Zeit schonmal angemerkt das ich beim Surfen im Dark Mode bei Dunkel Grauen Hintergründen ab und an ein Flackern hab.
Ich nutze ( wie eh empfohlen wird ) bei Gsync den Vollbild + Fenster Mode seit anbeging.

In Games is mir seit Juni 2020 bisher aber kein Flackern aufgefallen .. ich hab das nur in Windows ... und es wurde mehr seit dem ... seit der letzten Firmware
isses nun häufiger .. zb bei Reddit oder hier im Luxx Forum.

Es passiert aber mehr so in intervallen ... und dauert dann ein paar Sekunden dann is wieder alles ok ... das is auch nur son dezentes flimmern oder so
Mich persönlich stöhrt es aber 0 ... is mir halt nur aufgefallen und wollte dir mitteilen das auch ich das hab.
 
Zuletzt bearbeitet:
Er meint mit den "Grauen" die Grau Importe .. er wollte wissen was du von Grau Importe hällst.
Da sein Link hier vor kurzem ja zu einem Grauen aus Italien führte für 890 Euro ( 48C1 )

Da er in Italien wohnt, ist ein TV aus Italien für ihn ja kein Grauimport :d
Außer der Händler besorgt sich die TVs dann auch aus Polen.


Sprich merke da kein unterschied beim Color Space.

Du hast dein SDR Bildprofil ja ebenfalls "aufgedreht" was die Farben angeht.


Was richtig is entscheidet jeder für sich selbst

Das ist in diesem Zusammenhang falsch, da du halt messbar belegen kannst, dass das Ergebnis falsch ist. Was du meinst ist eher der eigene Geschmack.


Dazu kann ich nix sagen .... aber warum sollte er höher sein ? Man dreht mit Windows die SDR Helligkeit ja runter und somit wird das Bild dunkler
und es is dann zb so als wenn man das OLED light auf 40 oder 30 stellt wenn man mit dem SDR Slider auf so 20 runtergeht.
Und da eben alles dunkler is dürfte auch der Stromverbrauch wieder so sein wie vorher.

Weil der TV im HDR Modus eben volle Power gibt. Da nützt es auch nur bedingt etwas, wenn du das Signal so modifizierst, dass es dunkler ist. Der TV läuft trotzdem noch auf Anschlag.
 
Ja läuft bei mir weiterhin im HDR Mode ... beim Color Space is bei mir aber alles Tutti ... der Space is gut Colorig aber nich zu abgespaced. Sprich merke da kein unterschied beim Color Space.
m.M. ensteht HDR an unterschiedlichen Stellen ->
1. HDR steckt im Quellmaterial (<- der eigentlichen Heimat von HDR)
2. HDR wird von der SW generiert (bei Spieletiteln wohl gleich Quellmaterial, da ja nix 'Quelle'=Fotomotiv.)
3. HDR wird dem SDR-Material von der GraKa dazugeschummelt (umgangssprachlich Fake-HDR)
4. HDR wird vom Moni/TV-Set generiert (= HW-Spielerei des Devices, also auch Fake-HDR)

Wenn der Stomverbrauch am Bildgeber steigt deutet das m.M. auf Punkt 4.) hin ->HW-Rechenarbeit im Moni/TV-Set.
In HDR strahlt das Pixel ja nicht heller als in SDR. HDR ist eine Dynamiküberhöhung vor der Linse, die per Metadaten zum Bildgeber gelangt.
HDR bedeutet weder mehr, noch hellere Farben. HDR bedeutet schlicht einen höheren Dynamikumfang, für den der Bildgeber halt ausgelegt sein muss, was bei z.B. bei Plasma-TVs -Gott hab sie selig- zum Mehrverbrauch führt, weil Plasmas bei schwarz bauartbedingt am Meisten verbrauchen.
 
Zuletzt bearbeitet:
Wäre doch mal toll wenn einer mit Messgerät messen könnte und Bild dann postet ;)

Verstehe schon was du meinst @TZGamer aber trotzdem seltsames verhalten wenn es so wirklich sein sollte. Der Screen ist mit HDR Mode und Slider auf 12 bei OLED Licht 30 im SDR vom Bild hergesehen (ca.), und soll aber trtotzdem so viel verbrauchen wie auf OLED Licht 100? Die OLEDs regeln sich doch selber?... aber ich kenne mich da nicht so aus wie ihr ;)
 
Zuletzt bearbeitet:
Kann ich deine beiden Bilder im AVS nutzen ? Da ging es vor ein paar Tagen nämlich genau darum das in der Info Box bei einigen Gsync steht.
Jo. Gibt es da Theorien oder nur allg. Beobachtung/ Diskussion?
 
Da er in Italien wohnt, ist ein TV aus Italien für ihn ja kein Grauimport :d
Außer der Händler besorgt sich die TVs dann auch aus Polen.

Stimmt .. also wenn Berni sich nun diese 48C1 aus Itialen kauft is alles Tutti ... ich glaub der wollte
damit aber was anderes erreichen ... aber das weisst ja sicher schon selber 😁

Du hast dein SDR Bildprofil ja ebenfalls "aufgedreht" was die Farben angeht.

Nutze bei beiden Farbtiefe 55 .. manchmal auch 60. Also ich merk da wie gesagt kein Unterschied.

Das ist in diesem Zusammenhang falsch, da du halt messbar belegen kannst, dass das Ergebnis falsch ist. Was du meinst ist eher der eigene Geschmack.

Jepp genau das mein ich .. und der eigene Geschmack is doch auch das was für ein selbst das richtige is oder ?
Wird aber langsam auch zu Pilosophisch ... ich glaub das was ich damit meine is angekommen.

Weil der TV im HDR Modus eben volle Power gibt. Da nützt es auch nur bedingt etwas, wenn du das Signal so modifizierst, dass es dunkler ist. Der TV läuft trotzdem noch auf Anschlag.

OK würde sinn machen ... ich kann da aber leider nix weiter zu sagen da ich so ein Strom Messgerät nicht besitze ... müsst ihr dann unter euch ausmachen.

Um wieviel Watt mehr reden wir hier dann eigentlich wenn der TV im HDR Mode läuft statt SDR ? 10 Watt ? 50 Watt ? 100 Watt ?
Beitrag automatisch zusammengeführt:

m.M. ensteht HDR an unterschiedlichen Stellen ->
1. HDR steckt im Quellmaterial (<- der eigentlichen Heimat von HDR)
2. HDR wird von der SW generiert (bei Spieletiteln wohl gleich Quellmaterial, da ja nix 'Quelle'=Fotomotiv.)
3. HDR wird dem SDR-Material von der GraKa dazugeschummelt (umgangssprachlich Fake-HDR)
4. HDR wird vom Moni/TV-Set generiert (= HW-Spielerei des Devices, also auch Fake-HDR)

Ich check da grad den zusammenhang zu dem was ich da sagte bzw um was es hier grad geht nich aber das is denk ich auch nich weiter Wild.
Du redest da glaub ich grad von was anderem um das es hier grad garnich geht.


Jo. Gibt es da Theorien oder nur allg. Beobachtung/ Diskussion?

Nur ne Beobachtung und Diskussion ... es gibt im AVS auch so 2 Leute bei dennen Gsync steht während die anderen aber nich glauben wollen
das es so is weil bei ihnen nur VRR steht.

Bei mir steht seit Juni 2020 aber auch nur VRR ... finde es aber interessant das da bei einigen Gsync steht.
Hat vielleicht auch was mit der TV erkennung von Windows zu tun aber da vermute ich nun nur .. kann mir das bisher noch nich erklären.
Aber meiner wird ja auch nur mit "Drahtgebundene Anzeige" geführt während bei anderen dort "LG TV SSCR2" steht

5.jpg


Und per Windows Update Suche wird nur mein BenQ gefunden nich aber der 48CX

44.jpg


1.jpg
1.jpg




Gibt ne Menge komische Sachen ... die 1499 Nits Default Werte , die Draht Anzeige , der Fehlende Windows Treiber
 
Zuletzt bearbeitet:
Um wieviel Watt mehr reden wir hier dann eigentlich wenn der TV im HDR Mode läuft statt SDR ? 10 Watt ? 50 Watt ? 100 Watt ?

Fürn 65" C1: Energieverbrauch SDR126: kWh/1000 h vs. Energieverbrauch HDR: 222 kWh/1000 h

Das ganze Spiel kann man auch einfach in den Rtings Tests nachvollziehen anhand der Helligkeit:

Hier einfach mal zur SDR Messung springen. Der Text ist dazu relativ klar:
To get the brightest possible image at the expense of picture quality, you can set the Picture Mode to 'Vivid', set Brightness and Contrast to max, Peak Brightness to 'High', and Auto Dynamic Contrast to 'High'. We hit 489 nits in the 10% window using these settings.

Und nun einfach mal die 10 % Messung im HDR Modus angucken. Das sind bei denen 743 cd/m² im HDR Modus. Jetzt braucht man kein Wissenschaftler zu sein, um hier halt zu sehen, dass der TV noch etwas anders arbeitet, sobald er halt im HDR Modus ist. Ergo: Höherer Stromverbrauch. Soweit alles klar. Ohne viel Fantasie sollte es jetzt aber möglich sein nachzuvollziehen, dass man diesen Mehrverbrauch nicht mal eben ausgleichen kann, indem man in der Software der Quelle die Helligkeit etwas reduziert, während der TV selber noch im HDR Modus ist und dort alle Regler zeitgleich noch auf Anschlag sind (Anmerkung: Selbst wenn man nun auf die Idee kommt und diese Regler herunterzustellen, wird man nicht auf den gleichen Stromverbrauch wie im SDR Modus kommen).

 
Bei mir wird der TV auch als LG TV SSCR2 geführt.

Ich habe eben den PC neu gestartet und anschließend mal etwas geprüft. Seit dem Neustart steht in der VRR Infobox immer Gsync. Sowohl Desktop, als auch bei Doom Eternal oder AC Valhalla.

Da ich nach dem ersten Systemstart heute direkt Forza 5 gestartet hatte (Windows Store -> GamePass-Version) und mir dort der Eintrag VRR auffiel, hatte ich schon die Theorie das es mit dem Spiel allgemein bzw. Windows Store/ Xbox App zu tun haben könnte. Aber nein -> Forza 5 anschließend ausprobiert und nun lautet es auch dort Gsync :).

Bislang also kein eindeutiges Muster erkennbar. Ich bin im Nvidia-Treiber aber wieder zurück zu Gsync "Vollbildmodus" und wieder weg von "Fenster- und Vollbildmodus". Vielleicht macht das auch den Unterschied.

 
Stimmt .. also wenn Berni sich nun diese 48C1 aus Itialen kauft is alles Tutti ... ich glaub der wollte
damit aber was anderes erreichen ... aber das weisst ja sicher schon selber 😁

Nun, da ja in Italien wohne werde ich wohl auch dort einkaufen :-)
Wollte lediglich mitteilen dass es Geräte auch bereits unter 900 Euro gibtNun
bei Höherem Mehrwertssteuersatz.
Dies sollte alles gewesen sein :-)
 
Bei mir wird der TV auch als LG TV SSCR2 geführt.

Was damit zusammenhängen könnte aber nich muss .. haben ja auch einige hier dort SSCR2 stehen und haben dennoch nur VRR in der Info Box stehen.

hatte ich schon die Theorie das es mit dem Spiel allgemein bzw. Windows Store/ Xbox App zu tun haben könnte. Aber nein -> Forza 5 anschließend ausprobiert und nun lautet es auch dort Gsync :).

Dürfte auch nich Spielabhängig sein weil die im AVS ja auch in Windows Gsync stehen haben .. das is irgendwie entweder ne TV Sache oder aber ne Windows Erkennungssache.


Ich bin im Nvidia-Treiber aber wieder zurück zu Gsync "Vollbildmodus" und wieder weg von "Fenster- und Vollbildmodus". Vielleicht macht das auch den Unterschied.

Ne das sollte kein Unterschied machen was die Info Box angeht sondern nur das du im Fenster Modus also auch im Rahmenlosen Fenster Modus dann kein Gsync mehr hast
darum wird auch immer empfohlen VollBild und Fenster Modus zu aktivieren bei den Gsync Stettings damit man eben auch beides abdecken kann.
Hat ja auch keine Nachteile wenn man auf beides stellt sondern nur vorteile.

Is schon komisch das ganze das bei einigen Gsync steht und bei den anderen nur VRR

Fürn 65" C1: Energieverbrauch SDR126: kWh/1000 h vs. Energieverbrauch HDR: 222 kWh/1000 h


Aso .. Kilowatt Pro Stunde ... ja kein plan .. hätte nun gerne den richtigen Verbrauch gehabt ohne nun umrechnen zu müssen .. dat hilft mir dann nun grad 0

Meine GPU verbraucht zb im Idle so 30 - 50 Watt .. aber beim Zocken bis zu 450 Watt ... diesen vergleich wollte ich nun haben bei einem 48" OLED in SDR und HDR
Wenn nun zb HDR so 10 Watt mehr verbraucht als SDR dann Wayne .. sollten es aber so 100 oder 200 Watt mehr sein dann ok.
 
Zuletzt bearbeitet:
Ne das sollte kein Unterschied machen was die Info Box angeht sondern nur das du im Fenster Modus also auch im Rahmenlosen Fenster Modus dann kein Gsync mehr hast
darum wird auch immer empfohlen VollBild und Fenster Modus zu aktivieren bei den Gsync Stettings damit man eben auch beides abdecken kann.
Hat ja auch keine Nachteile wenn man auf beides stellt sondern nur vorteile.

Is schon komisch das ganze das bei einigen Gsync steht und bei den anderen nur VRR
So, ich habe für mein Setup da nun etwas reproduzieren können. Bisheriger Standard bei mir war immer Gsync = Vollbildmodus im Nvidia-Treiber. Damit meldet die VRR Infobox bei mir "Gysnc" @ Desktop oder in Spielen (zumindest für die drei o. g. Spiele).

Stelle ich nun im Nvidia-Treiber auf den anderen Modus um (Fenster + Vollbild) gibt die VRR Infobox ab dann bis zum nächsten Neustart des PC "VRR" wieder, direkt ab Sichern für den Desktopbetrieb + Spiele.

Starte ich den PC nun neu (Gsync bleibt bei "Fenster + Vollbild") lautet es ab dem Hochfahren dann aber wieder überall "Gsync" und nicht mehr "VRR". Dieser Unterschied im Ausweis ist (bei mir) also scheinbar eine Treibergeschichte beim Umschalten der Settings zwischen 2 Neustarts. Damit gebe ich mich mit dem Thema nun auch zufrieden :).
 
So, ich habe für mein Setup da nun etwas reproduzieren können. .

Ich hab nun mal nur auf Vollbild gestellt und hab mein PC neugestartet und den OLED angelassen .. es bleibt VRR stehen ..
mache ich den OLED aus und wieder an steht da auch immernoch VRR ... seltsam

Das is bei mir aber so seit ich Gsync Nutzen kann also seit November 2020 ( hatte davor die GTX 1080 damit ging Gsync nich wegen HDMI 2.0 )
Also der Treiber alleine kann dafür nich verantwortlich sein .. höchstens vielleicht GPU Treiber + Firmware + TV Treiber

Am Ende sind es ja nur Buchstaben die sich ändern in der Info Box aber es is seltsam das bei einigen dort Gsync steht und bei anderen nur VRR
 
Zuletzt bearbeitet:
Aso .. Kilowatt Pro Stunde ... ja kein plan .. hätte nun gerne den richtigen Verbrauch gehabt ohne nun umrechnen zu müssen .. dat hilft mir dann nun grad 0
Ist ganz einfach umzurechnen. KWh/1000h ist einfach gleich W, die Stunden und die 1000 (Kilo) kürzen sich raus. Also verbraucht das Teil in dem Fall 126W in SDR und 222W in HDR. Ist ja auch logisch, dass der Mehrverbrauch deutlich ist, schließlich wird der OLED ja auch mal eben doppelt so hell.

Und bei der Graka würde ich mal Undervolting ausprobieren, 450W sind echt viel.
Ich hab nun mal nur auf Vollbild gestellt und hab mein PC neugestartet und den OLED angelassen .. es bleibt VRR stehen ..
mache ich den OLED aus und wieder an steht da auch immernoch VRR ... seltsam
Ist ja an sich völlig egal, da G-Sync über HDMI doch einfach nur Nvidias Name für HDMI VRR ist. Nur HDMI Freesync ist tatsächlich eine inkompatible und proprietäre Technik. Bei DisplayPort ist es ja genau umgekehrt.
 
Ist ganz einfach umzurechnen. KWh/1000h ist einfach gleich W, die Stunden und die 1000 (Kilo) kürzen sich raus. Also verbraucht das Teil in dem Fall 126W in SDR und 222W in HDR. Ist ja auch logisch, dass der Mehrverbrauch deutlich ist, schließlich wird der OLED ja auch mal eben doppelt so hell.

also doch grob 100 Watt bei einem 65" OLED .... nun müsste man halt wissen wie das bei einem 48" OLED is .. das wird ja dann weniger sein weil weniger Fläche.
Geschätzt auf den 65" Werten würde ich dann mal für den 48" OLED 110 Watt für SDR und 180 Watt für HDR in den raum werfen ... 70 Watt mehr.
Damit könnte ich persönlich noch leben. 70 Watt mehr macht bei meiner Kiste eh kaum nen Unterschied. GPU so 400 Watt CPU so 150 Watt + Rest Gedöns wie Lüfter und RGB kramms und Wasser Pumpe usw
sind auch schon so über 600 Watt nur der PC + dann der OLED mit seinen so geschätzen 180 Watt sind wir bei grob über 800 Watt gesamt bei Gaming Last.

Und laut Gerüchten werden die neuen GPUs die 2022 kommen alleine schon bei so 500 Watt und mehr sein ... wird ne Interessante Zeit werden
Die 2020er GPUs wahren was die Watt angeht schon heftig und 2022 wirds noch schlimmer zumindest wenn diese Gerüchte zutreffen.

Und bei der Graka würde ich mal Undervolting ausprobieren, 450W sind echt viel.

Ne lass mal .. durch Undervolting verliert man den Guten Boost und capt sich dann .. hätte dann anstatt meinen 2130mhz sicher nur noch so 2000mhz oder so.
Undervolting geht ja so ziemlich immer mit Boost Takt verlust einher.

Wenn ich weniger verbrauchen will kann ich auch einfach mit dem Power Target runtergehen ... beim Zocken stell ichs auf 400 Watt ... nur fürs Benchen stell ich dann
auf die Max 450 Watt.


Ist ja an sich völlig egal, da G-Sync über HDMI doch einfach nur Nvidias Name für HDMI VRR ist.


Ja mag ja alles sein .. aber wenn Gsync Aktiv is will ich das da Gsync steht und nich nur VRR.
Und grade das bei einigen dort Gsync steht anstatt nur VRR is eben interessant und würde gerne herrausfinden woran das liegt.
 
Zuletzt bearbeitet:
Ich schalte HDR nur zum testen ab.

Es sei denn der Laptop hängt ohne Stromkabel dran. Dann geht HDR nicht.

Mein TV hängt aber auch nicht am Netz und steht nie auf maximaler Helligkeit. Vor allem Abends drehe ich die Helligkeit in Kombination mit f.lux sehr weit runter, wenn ich nicht grade Dolby Vision fähige Filme schauen.

Die 1080 gibt ein noch schlechteres SDR Bild aus. Da bleibt HDR sowieso die meiste Zeit an.
 
Eine Frage zu GSync / Freesync
Derzeit nutze ich den LG 65 BX9 mit einer RTX 3070 und GSync, was recht unproblematisch funktioniert.
Würde aber gern auf AMD umsteigen (6800 oder 6900), läuft Freesync auch reibungsfrei oder sind da Probleme bekannt?
 
Würde aber gern auf AMD umsteigen (6800 oder 6900), läuft Freesync auch reibungsfrei oder sind da Probleme bekannt?

Also nach meinem Kenntnisstand den ich mir hier in diesem Thread angelesen habe sollte Freesync zumindest bei einem OLED der neueren C Serien
in verbund mit einer 6000er AMD GPU problem los gehen ... ob das nun auch für die abgespeckte BX Serie gilt weiss ich nicht.

Es gibt ja hier so 2 oder 3 Leute mit ner 6000er Karte .. kannst ja selber mal in diesem Thread danach suchen per Suchfunktion dann kannst
du das selber nochmal nachlesen was genau nun funktioniert und was nicht.
Das waren so 2 - 3 Disskussionen verteilt auf ein paar Monate .. dürfte man aber noch gut per Suche finden.

Soweit ich noch weiss muss man halt im AMD Treiber Freeesync aktivieren und im TV auch und dann sollte beim CX sowie C1
zumindest dann Freesync Funktionieren. Ob das aber am BX auch so is kann dir glaub ich nur jemand mit einem BX und ner 6000 AMD Karte sagen
 
Zuletzt bearbeitet:
Hi
Lg c1 48 Zoll da bin ich mal gespannt wie der so ist Kommt morgen ich höre immer wieder dass es neue Panels verbaut werden trifft das dann jetzt auch noch zu.

Lg
 
Für den einen oder anderen mag es (aktuell) interessant sein. Vincent hat gestern ein Video veröffentlicht wonach die neueren C1/ G1 (Fertigung seit September) wohl einen HDCP 2.2 Bug aufweisen. Bei diesen Geräten gibt es in Kombination mit einem externen Zuspieler wie PS5, Xbox oder UHD-BD-Player etc. ein Problem mit 4K HDR (HDCP 1.4 Fallback). Es soll noch ein FW-Update folgen (3.20.80). Hintergrund sind wohl geänderte Bauteile bei der Fertigung seitens LG.

Aktuell wird FW 3.20.65 verteilt, diese adressiert das Problem scheinbar noch nicht.

 
Zuletzt bearbeitet:
Hi
Lg c1 48 Zoll da bin ich mal gespannt wie der so ist Kommt morgen ich höre immer wieder dass es neue Panels verbaut werden trifft das dann jetzt auch noch zu.

Lg
Soweit ich das mitbekommen habe, werden nur noch die neuen EVOs verbaut. 😁
 

Sir Ozelot

werden nur noch die neuen EVOs verbaut. 😁


ist das gut oder Schlecht...?

lg
Beitrag automatisch zusammengeführt:

Für den einen oder anderen mag es (aktuell) interessant sein. Vincent hat gestern ein Video veröffentlicht wonach die neueren C1/ G1 (Fertigung seit September) wohl einen HDCP 2.2 Bug aufweisen. Bei diesen Geräten gibt es in Kombination mit einem externen Zuspieler wie PS5, Xbox oder UHD-BD-Player etc. ein Problem mit 4K HDR (HDCP 1.4 Fallback). Es soll noch ein FW-Update folgen (3.20.80). Hintergrund sind wohl geänderte Bauteile bei der Fertigung seitens LG.

Aktuell wird FW 3.20.65 verteilt, diese adressiert das Problem scheinbar noch nicht.

Also im Pc Betrieb wird das wohl nicht zutreffen...?

Lg
 
ist das gut oder Schlecht...?

Sollte sich das Gerücht bewahrheiten das es wirklich die neuen Panels ( EVO Panel ) sind die im C1 stecken da es bisher nich so
richtig aufgeklärt wurde ob dem Wirklich so sei weil bisher auch noch niemand den OLED aufgeschraubt hat und dann mal die Panels
verglichen hat solltest du mit den neuen Panels so ungefähr 50 - 70 Nits mehr haben. Das is doch was oder ?
Aber sie sind auch etwas besser gegen Burn Out.

Zu 100 % is das aber wie gesagt noch nich geklärt worden ob die C1 wirklich EVOs drinn haben
 
Sollte sich das Gerücht bewahrheiten das es wirklich die neuen Panels ( EVO Panel ) sind die im C1 stecken da es bisher nich so
richtig aufgeklärt wurde ob dem Wirklich so sei weil bisher auch noch niemand den OLED aufgeschraubt hat und dann mal die Panels
verglichen hat solltest du mit den neuen Panels so ungefähr 50 - 70 Nits mehr haben. Das is doch was oder ?
Aber sie sind auch etwas besser gegen Burn Out.

Zu 100 % is das aber wie gesagt noch nich geklärt worden ob die C1 wirklich EVOs drinn haben
Eigentlich ist es mir wichtig ein vernünftiges Panel zu haben ohne Pixelfehler oder sonstigen es wäre natürlich schön wenn es so eins wäre aber erkennen kann man es ja so und so nicht wie du schreibst darum wundere ich mich dass die Leute Das es bei manchen verbaut ist. Aber danke für die Info
Lg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh