[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich muss auch mal kurz hier meine Erlebnisse Schildern. Ich nutze seit paar Monaten Linux, und Linux kann nur HDMI 2.0 mit einer AMD Grafikkarte. Von Color Banding hatte ich schon mal gelesen gehabt aber mich nie so richtig damit beschäftigt. Weil es lief ja alles soweit mit HDMI 2.0. 4k mit 120hz, VRR und HDR. Bis ich mich damit mal richtig beschäftigt hatte vor ein paar Tagen.
Mir viel immer wieder auf das die Farben verwaschen sind. Gerade bei dunklen Szenen oder wenn es Neblig war oder bei Rauch im Gaming. Hatte es aber irgend wie auf den OLED geschoben.
Bis wie gesagt, vor ein paar Tagen. Bis ich dann festgestellt habe das am TV nur YUV 4.4.2 an kam mit 8bit. Bis dann mit der Auflösung im Desktop runter auf 2k. Da kamen dann schon YUV 4.4.4 an. Was schon deutlich besser aussah. Dann mich belesen zu einem DP zu HDMI Adapter. Keine Chance bis nur minimal erfolg mit einem bestimmten Adapter. Das war dann einer von Cable Matters. Reviews dazu waren durchwachsen. Mal funktioniert er, mal nicht. Habe ihn Bestellt und bei mir funktioniert er zum Glück. Jetzt kommt deutlich mehr am TV an. RGB 10bit HDR mit 4k 120hz und VRR sogar. Und das Bild sieht so viel besser aus. Color Banding ist immer noch ein wenig aber das ist jetzt kein vergleich mehr zu vorher.

Habe dazu was im Linux Bereich geschrieben: https://www.hardwareluxx.de/community/threads/radeon-linux.1348349/page-6#post-30659249
 
Führt halt nur zu etwas mehr kosten da man sich den TV Standfuss von LG dann extra dazu kaufen muss ... war ja beim G3 und G2 zb auch so nur bei der 2024er G4 Serie hatte man ja die Wahl
den TV nur mit Standfuss zu kaufen oder nur mit Wandhalterung .. war halt 2024 ne Ausnahme nun hat da halt LG wieder ne Rolle rückwärtz gemacht und is wieder zum üblichen übergangen
und man muss sich den Standfuss nun wieder extra dazu kaufen wie vorher halt auch
Gut zu wissen wusste nicht das davor anders war Hab ja nur G4 davor nur c serie beim dachte man konnte immer schon wählen.
Unverschämte Ständer Preise. Bis 80 Euro wäre okay.
Hast leider bischen recht ist schon sehr viel.
Zur Not hätte ich auch selber was bauen können, so ist auch mein PC-Gehäuse entstanden. Hatte nix Passendes gefunden, hab dann ein eigenes gebaut. Das Problem dabei: 500–1000 Stunden Arbeit/Planung/Zeichnen und sehr viel Geld, und es wiegt halt mit Wasser befüllt 59kilo weil ich einfach nicht die Möglichkeiten hatte, Blech tiefzuziehen , und 2-mm-Stahlblech nehmen musste.

Wenn ich so einen Standfuß bauen würde, wäre der am Ende gefühlt unzerstörbar aber sau schwer, daher wirds einfacher sein, einen zu kaufen.
Beitrag automatisch zusammengeführt:

Gibt ja genug andere Alternativen, man muss ja nicht unbedingt das originale Zeug von LG holen.
hast du grad ein bespiel im kopf oder link nur mal so aus neugier
 
Zuletzt bearbeitet:
Weil es lief ja alles soweit mit HDMI 2.0. 4k mit 120hz, VRR und HDR.

??

Also 4K mit 120hz bei HDMI 2.0 geht ja nur mit 8 Bit und 4:2:0 aber HDR sollte dann nich mehr funktionieren soweit ich noch weiss .. hatte das damals mitte 2020 ja auch so genutzt
bei meiner GTX 1080 die nur HDMI 2.0 hatte.

Bis wie gesagt, vor ein paar Tagen. Bis ich dann festgestellt habe das am TV nur YUV 4.4.2 an kam mit 8bit.

ah okay hast du nun gemerkt das es nich ging.

Dann mich belesen zu einem DP zu HDMI Adapter. Habe ihn Bestellt und bei mir funktioniert er zum Glück. Jetzt kommt deutlich mehr am TV an. RGB 10bit HDR mit 4k 120hz und VRR sogar

VRR mit nem Adapter ??

Also mein letzter Stand war das sofern man ein Adapter nutzt das VRR dann nich mehr funktioniert.

Color Banding ist immer noch ein wenig aber das ist jetzt kein vergleich mehr zu vorher.

Color Banding kann man ja auch zb mit Reshade Fixen sofern es bei Games auftritt


Gut zu wissen wusste nicht das davor anders war Hab ja nur G4


(y)



Und wie gesagt man kann ja auch was anders nehmen ... als Beispiel und wirklich nur als Beispiel zb sowas hier :

Screenshot 2025-01-22 233409.png
 
Der TV hat mir HDR angezeigt, man hat auch einen Unterschied gesehen aber war am Ende vermutlich eher schlechter als eine verbesserung.

Ja, VRR mit einem Adapter. Und das funktioniert auch zu 100%.

Siehe in dem Linux Thread wo ich Bilder gepostet habe.
 
Würde für mich bedeuten, dass er immer mehr verbraucht, da mir die OLED ohne HDR eh zu dunkel sind. Kauf mir ja kein helleres Gerät, dass ich gar nichts davon im Alltag merke.
Solange es gut kühlbar bleibt und damit das Panel nicht schneller altert, muss ich sagen, würde ich sogar mehr Stromverbrauch in Kauf nehemen,wenn dafür noch mehr Helligkeit raushollen.
Gibt aber bestimmt einige Leute, die das anders sehen. Bei mir ist halt der Zug zum Stromsparen schon lange abgefahren. Mit 200 Watt + Idle für meinen PC und ein NAS, das 24/7 läuft, brauch ich mirs’snicht mehr einreden mit Stromverbrauch: 2800-3000 kW , Tendenz steigend.

Bin schon sehr auf Messerwertwert im HDR gespannt, wenn er doch mehr verbraucht, was dabei optisch rumkommt.
 
Würde für mich bedeuten, dass er immer mehr verbraucht, da mir die OLED ohne HDR eh zu dunkel sind. Kauf mir ja kein helleres Gerät, dass ich gar nichts davon im Alltag merke.
Solange es gut kühlbar bleibt und damit das Panel nicht schneller altert, muss ich sagen, würde ich sogar mehr Stromverbrauch in Kauf nehemen,wenn dafür noch mehr Helligkeit raushollen.

Ich finds halt merkwürdig das er in HDR mehr verbraucht als der alte weil :


Screenshot 2025-01-16 022240.png
--
Screenshot 2025-01-16 022319.png




Aber scheinbar trifft das nur auf SDR zu weil dort verbraucht der G5 ja weniger als der G4 aber leider nich auf HDR da isses dann andersrum was ich halt merkwürdig finde
 
Wieso soll das seltsam sein? Auf SDR wird er halt noch stärker eingebremst und auf HDR haben sie halt nochmehr zugelassen. Ist ja erstmal unabhängig von den Panelspecs, was sie an Stromverbrauch zulassen. Ist doch gut, dann kann er auf HDR richtig hell werden.
 
Wieso soll das seltsam sein?

Weils eben nich zu den - 20 % Verbrauch passt die LG Display angekündigt hat ... statt geringer is der verbrauch ja höher geworden und das beist sich eben mit den - 20 % Verbrauch

Das is halt als wenn nun Nvidia sagen würde unsere GPU verbraucht nur noch 200 Watt aber wenn der Kunde die Karte dann zuhause hat und zockt liegt der Verbrauch bei 400 Watt
passt halt nich zusammen die Aussage vom Hersteller zum erlebniss des Kunden.

Aber mal schauen was dann am ende wirklich anliegt .. das sind ja nun die Max Werte die uns EPREL da liefert unter normalem Content wird das wohl weniger sein
 
Weils eben nich zu den - 20 % Verbrauch passt die LG Display angekündigt hat ... statt geringer is der verbrauch ja höher geworden und das beist sich eben mit den - 20 % Verbrauch
20% kann schon sein wenn die bei selber lichtleistung wie beim vor model meinen dann past ist immer hin marketing. Die legens sich wie sie wollen.
 
20% kann schon sein wenn die bei selber lichtleistung wie beim vor model meinen dann past


Ja so könnte das wohl auch gemeint sein

Der G4 kommt ja auf max 1.500 Nits und verbraucht im Max 165 Watt ... wenn nun der G5 bei auf 1.500 gedrosselten Nits 20 % Weniger Watt verbraucht als der G4 könnte das hinkommen

Is wohl ein Fehlgedanke meiner seits gewesen ... ich bin irgendwie davon ausgegangen das sie das halt bei Max Nits meinen also das der G5 trotz 4.000 Nits max eben 20 % weniger verbraucht als der G4 bei Max Nits
aber da hatte ich das einfach wohl falsch in meinem Kopf bedacht diese Aussage von LG die dann wohl die -20 % Verbrauch bei gleichen Nits meinen und nicht jeweils im Max Nits Bereich

Weil grade dieses Bild impliziert das für mich irgendwie : ( mehr Lichtstrahlen also heller und trotzdem 20 % Weniger Verbrauch )

Screenshot 2025-01-16 022240.png
 
Zuletzt bearbeitet:
Das is halt als wenn nun Nvidia sagen würde unsere GPU verbraucht nur noch 200 Watt aber wenn der Kunde die Karte dann zuhause hat und zockt liegt der Verbrauch bei 400 Watt
passt halt nich zusammen die Aussage vom Hersteller zum erlebniss des Kunden.
Ja mit dem Unterschied dass das hier Werte von LG Display sind und nicht von LG Electronics. Du weißt doch selbst am besten, dass das eine nicht mit dem anderen zusammenhängen muss.
Bei Nvidia kommt alles aus einer Hand, das kannst du nicht vergleichen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh