ASUS ROG Swift OLED PG32UCDM im Test: 240-Hz-QD-OLED mit Sonderwegen

Ja, ich denke, dass du da völlig recht haben wirst. Das habe ich auch vermutet. Zwei Monitore mit DP und DSC ist am Ende vielleicht doch etwas zu viel.

Es wird Zeit für DP 2.1

Meine Kabel, die zum Testen verwende sind DP 2.1
Ich denke aus meiner Erfahrung heraus auch, dass 2x DP mit DSC und gleichzeitig hoher Komprimierung in Kombination mit der Implementierung seitens Nvidia das Problem ist. Mein AW3225QF wollte zunächst ebenfalls lediglich mit 120 Hz laufen, nachdem ich meinen AW3423DWF parallel dazu angeschlossen hatte. Ein entsprechendes "Vertauschen" der verwendeten DP-Anschlüsse an der Grafikkarte führte zum Erfolg (RTX 4090 FE). Die Zertifizierung der Kabel spielte hierbei keine Rolle. Als der AW2325QF für die erste Begutachtung als einziger Monitor angeschlossen war, wurden direkt 240 Hz angezeigt bei völlig problemlosem Betrieb.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen, und ich habe da ein paar Fragen an den Tester:

Ich bin der Fritz-Hunter von Igorslab und habe ebenfalls den PG32UCDM getestet. Bei mir waren die DeltaE Werte in SDR noch etwas schlechter als bei euch. Aber grundsätzlich die gleiche Ursache, die RGB Balance driftet zu weit auseinander.

Hattet ihr auch das Problem mit zwei Monitoren an einer NVIDIA GPU? Bei mir lief der UCDM nach einem Kaltstart nur mit 120 Hz und hat bei meinem OLED G8 zu Flickern geführt. Siehe mein Artikel

Des Weiteren habe ich für den Color Space sRGB und DCI-P3 die RGB Balance im OSD korrigiert. Für sRGB war es perfekt bzgl. Gray Scale etc. aber für DCI-P3 wurde plötzlich der Farbraum auf sRGB geklemmt. Und für wide gamut musste ich die RGB Balance nochmal extra anpassen. Das ist ein Firmware Bug!

Interessant ist, dass euch ASUS gesagt hat, dass die nicht mehr anpassbaren HDR Settings im OSD - nach dem Update MCM102 - so gewollt sind. Die Begründung hat durchaus Sinn, da AMD das Ton-Mapping GPU-seitig durchführt.

Da verstehe einer FreeSync Premium Pro…

Grüße an die Redaktion sowie die Community
Hi zusammen!

Also: Im Test laufen bei mir in den meisten Fällen zwei Monitore, primär an einer NVIDIA-Grafikkarte - die Probleme hatte ich mit meinem Sample in allen Firmware-Versionen nicht.

Was ich bestätigen kann: Minimale Anpassungen von R-G-B führen zu einer sehr guten RGB-Balance. Der Farbraum springt bei mir aber nicht um. Dafür muss der Weißpunkt bei mir für jeden Farbraum angepasst werden und nicht nur Wide Gamut - ist auch so im Test vermerkt.

Ich hatte aber zB bei beiden Fimrware-Updates auch nicht das geringste Problem - liefen jeweils 1a durch.
 
Zuletzt bearbeitet:
Hi zusammen!

Also: Im Test laufen bei mir in den meisten Fällen zwei Monitore, primär an einer NVIDIA-Grafikkarte - die Probleme hatte ich mit meinem Sample in allen Firmware-Versionen nicht.

Was ich bestätigen kann: Minimale Anpassungen von R-G-B führen zu einer sehr guten RGB-Balance. Der Farbraum springt bei mir aber nicht um. Dafür muss der Weißpunkt bei mir für jeden Farbraum angepasst werden und nicht nur Wide Gamut - ist auch so im Test vermerkt.

Ich hatte aber zB bei beiden Fimrware-Updates auch nicht das geringste Problem - liefen jeweils 1a durch.

Hi Andi,

das ist interessant. Drei verschiedene RGB Einstellung für die Farbräume. Völlig verrückt, denn heute gilt grundsätzlich Gamma 2.2 oder sRGB und D65. Na ja, bei mit waren es nur zwei Anpassungen, dafür mit falschem Farbraum.

Bei mir wollte das FW Update leider gar nicht. Ich wollte den Monitor tatsächlich zu ASUS schicken, hatte schon die Box parat stehen und dachte mir: last try… und dann ging’s!

Schon komisch, dass sich unsere Monitore so stark von den Samples von Monitors Unboxed und TFTCentral unterscheiden. Zumindest wenn es um die SDR Kalibrierung geht.

Ich hatte beim PG34WCDM auch ein Sample, das war outstanding kalibriert. Vermutlich hatte ich da einfach nur Glück…

Super, dass ihr das i1-pro benutzt, das ist auch gutes Spektro…

Ihr habt da gut aufgerüstet, Hut ab!

Grüße
 
Wichtiger als Dolby Vision wäre HGiG, aber das kann glaube ich keiner dieser Monitore.

Also laut einem offiziellen Q und A seitens Asus, was mir auf reddit begegnet ist. Soll der "Console-Mode" sehr wohl die HGIG "Richtlinien erfüllen.


Zitat:
" **Q: Does the monitor support HGiG mode?**A: Yes, the Console mode meets HGiG requirements.

Könnte evtl. Sogar dies der Grund sein, weshalb das Bild bei Asus vielfach als "dunkler" wahrgenommen wird, als bei der Konkurrenz?
 
Also laut einem offiziellen Q und A seitens Asus, was mir auf reddit begegnet ist. Soll der "Console-Mode" sehr wohl die HGIG "Richtlinien erfüllen.


Zitat:
" **Q: Does the monitor support HGiG mode?**A: Yes, the Console mode meets HGiG requirements.

Könnte evtl. Sogar dies der Grund sein, weshalb das Bild bei Asus vielfach als "dunkler" wahrgenommen wird, als bei der Konkurrenz?


HGiG bedeutet unterm Strich: The creators intend.

Jetzt muss man in erster Linie wissen, ob das jeweilige Spiel diesen Standard unterstützt.

Des Weiteren muss der Monitor im jeweiligen HDR Profil dem EOTF Tracking PQ ST 2084 folgen. Nach Möglichkeit in allen APLs (1, 2, 5, 10, 25 - 100%)

Nehmen wir an, der Monitor A folgt der ST 2084 ziemlich genau in einem Spiel, das HGiG unterstützt. Monitor B folgt der ST 2084 nicht, weil zu hell wird, dann ist das wahrgenommene Bild im direkten Vergleich viel heller. Meist auch übersättigt!

Mit anderen Worten Monitor A wirkt dunkler ist aber eigentlich korrekt und gemäß dem was der Creator sich gedacht hat.
 
Mit anderen Worten Monitor A wirkt dunkler ist aber eigentlich korrekt und gemäß dem was der Creator sich gedacht hat.
Trotzden würden wohl dann wieder viele meinen, dass Monitor A doch einen fehler hätte, weil Monitor B heller ist.

Das problem aktuell... es geistert extrem viel falsch und halbwissen herum bezüglich HDR.

Ich muss ja zugeben, das ich selbst vieles davon nicht verstehe.

Aber anders als viele andere bin grundsätzlich zufrieden mit dem HDR von meinem Pg32ucdm.
 
Trotzden würden wohl dann wieder viele meinen, dass Monitor A doch einen fehler hätte, weil Monitor B heller ist.

Das problem aktuell... es geistert extrem viel falsch und halbwissen herum bezüglich HDR.

Ich muss ja zugeben, das ich selbst vieles davon nicht verstehe.

Aber anders als viele andere bin grundsätzlich zufrieden mit dem HDR von meinem Pg32ucdm.


Du sagst, gefährliches Halbwissen!

HDR ist ein dynamisches Verfahren. Wer keine Messtechnik hat oder einen Referenzmonitor, der weiß gar nicht, wie das Bild wirklich aussehen soll.

Beispielsweise, mein LG C1 im Filmmaker Mode ist mir auch zu dunkel. Ich benutze den Vivid Mode und sage: color accuracy my ass!

Mein Samsung Odyssey OLED G8 ist bzgl. HDR manuell kalibriert. Weißpunkt und RGB Balance sind sehr gut. Ich aktiviere aber den contrast enhancer auf low. Das verschiebt die ST 2084 so, dass das Bild etwas heller wird. Es kickt hat einfach viel geiler

Das ist eben Geschmacksache
 
Beispielsweise, mein LG C1 im Filmmaker Mode ist mir auch zu dunkel. Ich benutze den Vivid Mode und sage: color accuracy my ass!

Warum nich Filmmaker + Dynamisches Tone Mapping ON ? Bringt ja auch schon mehr Helligkeit .... aber Vivid haut natürlich nochmal mehr raus

Ich aktiviere aber den contrast enhancer auf low. Das verschiebt die ST 2084 so, dass das Bild etwas heller wird. Es kickt hat einfach viel geiler

So mache ich es halt mit DTM .. ich schalte lieber DTM an statt HGIG zu nutzen da DTM halt mehr Gesamt Helligkeit pusht bei meinem LG CX .. dadurch wird die EOTF zwar etwas unakurater und es kommt zu
leichtem Highlight Clipping aber das Bild gefällt mir besser da es eben heller is als mit HGIG

Screenshot 2024-04-22 125256.png
--
Screenshot 2024-04-22 125304.png


Screenshot 2024-04-22 125523.png
--
Screenshot 2024-04-22 125431.png
--
Screenshot 2024-04-22 130636.png



Es gibt aber auch eine Handvoll Games wo ich wiederrum HGIG bevorzuge zb bei Horizon Forbidden West aber zu 99,8 % der HDR Games nutz ich eher DTM ON

Und auch bei HDR Filmen und Serien nutze ich nur DTM ON

Denke wenn ich später mal ein OLED / QD-OLED hab der bei 2 - 100 % wesentlich heller is als mein CX werde ich wohl auf DTM On verzichten können da dann die Gesamt Helligkeit passt aber aktuell bei meinem CX
brauch ich DTM On um halt zumindest okayische Helligkeit rauszubekommen

Das ist eben Geschmacksache

Jepp ... es hat glaub ich auch viel damit zu tun wie jemand für sich HDR diffiniert .. bei mir funktioniert HDR über Helligkeit und Kontrast und mehr Helligkeit bedeutet mehr Kontrast und mehr Kontrast bedeutet
Highlights können sich noch besser vom Restlichen Bild abheben daher strebe ich Geräte an mit mehr HDR Helligkeit allerdings nicht nur bei 2-10 % sondern auch auf ganzer Fläche 2 - 100 % Window.
 
Zuletzt bearbeitet:
100% APL full sustained brightness und OLED? Das ist eher was für Mini-LED mit FALD, die können bei 100% über 1000 Nits hell werden. OLED kommt aktuell auf ca 250 bis 260 Nits
 
100% APL full sustained brightness und OLED? Das ist eher was für Mini-LED mit FALD, die können bei 100% über 1000 Nits hell werden.

Also 1000 Nits bei 100 % müssen es nun nicht sein auch wenns cool wäre zufrieden währe ich erstmal mit folgendem :

2 - 10 % = 1000 Nits ( oder halt mehr )
25 % = 800 Nits
50 % = 600 Nits
100 % = 400 Nits

Mein Aktueller 2020er LG 48" CX :

Screenshot 2024-04-22 135347.png


OLED kommt aktuell auf ca 250 bis 260 Nits

320 - 330 Nits bei 100 % beim neuen 2024er Samsung S95D Gen 3 QD-OLED : ( Filmmaker Mode von Classy gemessen ) ... ( mit der ANA Peak MOD sind sogar noch mehr Nits drinn im Peak 3.150 Nits )


Screenshot 2024-03-30 042105.png
--
Screenshot 2024-04-22 141211.png





LG gerät da nun 2024 ins Hintertreffen mit ihrem Flagschiff dem G4 OLED : ( Filmmaker Mode )

3.png
--
Screenshot 2024-04-22 141231.png




Vergleicht man das mit meinen Wunschwerten von oben sind wir so langsam dort wo ich hin möchte und das dann halt noch in einem OLED / QD-OLED im 40" 4K Bereich und ich bin erstmal zufrieden
für die nächsten Jahre .... vielleicht isses 2026 dann entlich soweit.
 
Zuletzt bearbeitet:
Verstehe, aber TV und Monitor ist das nicht das Gleiche.

Die Monitore kommen nicht auf > 280 Nits bei 100% APL
 
Verstehe, aber TV und Monitor ist das nicht das Gleiche.

Sollte es eigentlich sein die Realität sieht aber leider anders aus besonders wenn man mal die QD-OLED Monitore mit den QD-OLED TVs vergleicht bzgl Helligkeit werden die QD-OLED Monitore massiv beschnitten
im vergleich zu den QD-OLED TVs und das schon seit der 2022er Gen 1 .. die 2024er Gen 3 Monitore sind noch genauso hell in allen % Window Bereichen wie die 2022er Gen 1 Monitore während die TVs immer heller werden von Gen zu Gen und trotzdem die Haltbarkeit verbessert wird. Und das ABL Dimmt bei den QD-OLED Monitore da schon bei 10 % auf den 400 Nit Bereich ab statt erst bei 25 % wie es eigentlich üblich is


Monitor :

2022er Gen 1 : -------------------------------- 2024er Gen 3 :

Screenshot 2024-04-22 151811.png
--
Screenshot 2024-04-22 151851.png


TV :

2022er Gen 1 : ( zu Release konnte der noch 1500 nits Peak ) -------- 2024er Gen 3 : ------------------------------------------------------------------------------------- ( mit der ANA Peak MOD is halt nochmals mehr drinn )

Screenshot 2024-04-22 151937.png
----------------
3.png
--
34.png


Die Monitore kommen nicht auf > 280 Nits bei 100% APL

Dat is richtig ... aber OLED bzw QD-OLED Allgemein schafft das schon wie man in meinem vorherigen Post sehen konnte

Ich hab dem Monitor Bereich aber seit 2020 den Rücken gekehrt ich nutze nun die nächsten Jahre nur noch TVs ( 40" 4K Bereich ) als Monitor da bekomm ich mehr für weniger Geld
 
Zuletzt bearbeitet:
Ich denke, dass man die QD-OLED Monitore so in der Helligkeit beschneidet, ist der höheren "Pixeldichte" geschuldet.

Es ist ja schon ein Unterschied ob man 32 Zoll oder 40 zoll hat in der Fläche.

Aber ist nur meine Vermutung, Wissen tu ichs natürlich nicht.

Aber ich denke mal Samsung wird schon seine Gründe haben für diese "Beschneidung".
 
Die Pixeldichte kann damit nichts zu tun haben, da die vorherigen Generationen gleich hell wurden.

Ich denke ehr durch statische Elemente wird ein Puffer gelassen, damit nicht allzu viel Burn in reklamationen rein kommen
 
Ich denke, dass man die QD-OLED Monitore so in der Helligkeit beschneidet, ist der höheren "Pixeldichte" geschuldet.

Es ist ja schon ein Unterschied ob man 32 Zoll oder 40 zoll hat in der Fläche.

Aber ist nur meine Vermutung, Wissen tu ichs natürlich nicht.

Aber ich denke mal Samsung wird schon seine Gründe haben für diese "Beschneidung".

Hat vermutlich auch den Hintergrund, dass man bei einem Monitor mit mehr statistischem Inhalt rechnet. Hinzu kommt, dass der Sitzabstand deutlich geringer ist. (grundsätzlich)

Und ganz ehrlich mehr als 250 Nits braucht man im Desktopbetrieb eigentlich nicht. Ich habe bei meinem OLED 160 Nits
 
Die Pixeldichte kann damit nichts zu tun haben, da die vorherigen Generationen gleich hell wurden.
Welche vorherigen Generationen? Meines Wissens sind die aktuellen 4K QD OLED,s die ersten in dieser grösse und dieser Auflösung.
Die älteren Modelle mit WQHD kannst du ja bezüglich pixeldichte auch nicht vergleichen.
 
Ja aber die kann man doch nicht vergleichen... die kleinsten 4K tv's haben was 40" oder 45" zoll? Und entsprechend eine deutlich geringere Pixeldichte.

Das könnte aber der Grund dafür sein, warum die QD-OLED TVs bei größeren APLs deutlich heller werden als die Monitore.

Höhere PPI = gleich höhere Wärmestromdichte

Da ist was dran, ich muss dem User da ein Stück weit Recht geben.
 
Ich denke, dass man die QD-OLED Monitore so in der Helligkeit beschneidet, ist der höheren "Pixeldichte" geschuldet.

Nich wirklich .. siehe zb den 2023er 49" 32:9 5120 x 1440 QD-OLED mit ner PPI von 109 der so ziemlich gleich hell is wie alle anderen QD-OLED Monitore egal ob nun 27" , 32" , 34" oder 49" alle QD-OLED Monitore
sind gleich bei 2 - 100 % Window seit 2022 egal welche Gen oder welche Größe oder welche PPI oder welche Auflösung alle Werte ( 2 - 100 % ) sind da seit 2022 gleich .. die gehen da halt 100 % auf mehr Haltbarkeit
statt auf ein Mix zwischen mehr Helligkeit + mehr Haltbarkeit wie es eigentlich üblich is und alle QD-OLED Monitore dunkeln schon bei 10 % ab auf den 400 Nit Bereich statt wie üblich erst bei 25 %

2022er Gen 1 34" 21:9 : ------------------------- 2023er Gen 2 49" 32:9 : -------------------------2024er Gen 3 27" 16:9 : ------------------------------- 2024er Gen 3 32"16:9 :

Screenshot 2024-04-22 172729.png
--
Screenshot 2024-04-22 171914.png
--
Screenshot 2024-04-22 172655.png
--
Screenshot 2024-04-22 172828.png



Die 2024er Gen 3 QD-OLED Monitore nutzen im übrigen die selbe Pixel Struktur wie der 2023er 49" Gen 2 Monitor die is also 2024 gleich zu 2023 geblieben .. ah wobei ne leichte änderung
gabs wohl doch

2024 32" : ------------------------------------------------------------ 2023 49" : ------------------------------------------------------------ 2022 34" :

Screenshot 2024-04-22 174039.png
--
Screenshot 2024-04-22 174122.png
--
Screenshot 2024-04-22 174226.png


Gen 2 QD-OLED TV Layout vom S95C : ----------------------- Gen 1 QD-OLED TV Layout vom S95B :

Screenshot 2024-04-22 180608.png
--
Screenshot 2024-04-22 180736.png


Es ist ja schon ein Unterschied ob man 32 Zoll oder 40 zoll hat in der Fläche.

jain .. selbst bei den TVs macht das nich so den großen Unterschied es gibt zwar einen aber der is nich sonderlich groß hatte dazu schon öfters mal im LG Thread was geschrieben und gezeigt
auh bleibt der 10 % Wert dort relativ ähnlich zum 2 % Wert wie halt üblich

2022er 65" LG C2 : ( 68 PPI ) -------------------------------- 2022er 42" LG C2 : ( 106 PPI )

Screenshot 2024-04-22 172229.png
----
Screenshot 2024-04-22 172317.png



Aber ich denke mal Samsung wird schon seine Gründe haben für diese "Beschneidung".

Jepp ... schiss vor dem PC Bereich ( viel statisches ) daher agressiveres ABL verhalten sowie Helligkeitsstagnierung und nur Haltbarkeitsverbesserungen im QD-OLED Monitor Bereich
wobei selbst die 2022er Gen 1 QD-OLEDs schon ganz gut abschneiden beim RTINGs Burn In Test daher wundert es mich sehr das sie die QD-OLED Monitore weiterhin so beschneiden

Und ganz ehrlich mehr als 250 Nits braucht man im Desktopbetrieb eigentlich nicht. Ich habe bei meinem OLED 160 Nits

Für reinen SDR Desktop betrieb also rumsurfen und hier und da mal ein Prog nutzen reicht das auch da fahre ich auch nur so 100 Nits ( OLED Light 25 ) ... aber HDR Gaming mit nur 160 Nits Peak nunja
 
Zuletzt bearbeitet:
Besteht nicht die Möglichkeit, die Oled Monitore/TV's etwas dicker zu machen und dafür die Kühlung zu verbessern. Im Moment sind diese keine 10mm dick und mit ner anständigen Kühlung könnte man dann auch höhere Helligkeiten fahren. So Dick wie ein CRT müssen die doch nicht sein aber 4-5cm sollten doch drin sein.
 
Besteht nicht die Möglichkeit, die Oled Monitore/TV's etwas dicker zu machen und dafür die Kühlung zu verbessern. Im Moment sind diese keine 10mm dick und mit ner anständigen Kühlung könnte man dann auch höhere Helligkeiten fahren. So Dick wie ein CRT müssen die doch nicht sein aber 4-5cm sollten doch drin sein.

Die QD-OLED Monitore nutzen ja schon ein Heatsink Layer aus Graphen ... viele haben sogar 1 oder gar 2 Aktive Lüfter verbaut geändert hat aber auch das alles nix wie man in meinem letzten Post sehen konnte

OLED Monitore sind ausserdem genauso dick wie die QD-OLEDs liefern aber dennoch bessere Werte als die QD-OLED Monitore


OLED : ------------------------------------------------------------ QD-OLED :

Screenshot 2024-04-22 182949.png
--
Screenshot 2024-04-22 183002.png


Auch TVs sind ja nich grade dick und haben obendrein auch noch mehr Fläche die sich erhitzt liefern aber dennoch bessere Werte


HDR Gaming 100% APL geht mit 250 Nits

Ach bei 100 % meintest du ... ja ok ... gehen tut das schon .. für mich is der 100 % Wert im grunde eh egal da man ja kein Game zockt oder Film oder Serie schaut wo man nur ein Weisses Vollbild hat
beim Gaming und beim Film is man meisst im Bereich zwischen 2 - 50 % Unterwegs .. bei ner Schnee Map vielleicht auch mal im Bereich 75 % Window aber wann hat man halt mal 100 % Weiss ??
Daher interessiert mich nun 100 % Weiss eh nich sonderlich sondern eher 2 - 50 % und teils halt noch 75 %
 
Zuletzt bearbeitet:
Die OLEDs haben halt noch einen weißen Subpixel. Der macht zwar heller, aber wäscht dafür die Farben mehr aus. Zumindest mal so meine Vermutung zum Unterschied.
 
Die QD-OLED Monitore nutzen ja schon ein Heatsink Layer aus Graphen ... viele haben sogar 1 oder gar 2 Aktive Lüfter verbaut geändert hat aber auch das alles nix

OLED Monitore sind ausserdem genauso dick wie die QD-OLEDs liefern aber dennoch bessere Werte als die QD-OLED Monitore

Auf den beiden Bildern sehen wir ganz gut, wie Dick die Monitore sind. Die Lüfter kühlen nur die Leistungselektronik und nicht das Panel
Wie FritzHunter schon sagte: "Höhere PPI = gleich höhere Wärmestromdichte"
Kann mir kaum vorstellen, dass die dünne Graphen Schicht schon das Optimum darstellt.
 
Die OLEDs haben halt noch einen weißen Subpixel. Der macht zwar heller, aber wäscht dafür die Farben mehr aus. Zumindest mal so meine Vermutung zum Unterschied.

QD-OLED hat kein weißes Subpixel, das hat nur WOLED (steht ja schon im Namen).

Subpixel QD = Quantum Dots (Rot, Grün, Blau) „dreieckig“ angeordnet.

Und die eigentlichen Pixel sind auch blau.

QD-OLED kann Farben deutlich heller darstellen, z.B. gelb und rot. WOLED verliert hier an vibrance, Volumen etc, weil das zusätzliche weiße Pixel zwar mehr weiß Helligkeit bringt bei weniger Stromverbrauch, aber wenn man rot mit weiß mischt, dann passiert was?

Das habe ich bei mir im Artikel zum PG34WCDM mit beschrieben und auch einen Bildvergleich!

Das sieht man auch sehr gut bzgl. der Spektralen Lichtverteilung!
 
Zuletzt bearbeitet:
Die Lüfter kühlen nur die Leistungselektronik und nicht das Panel

Jepp .. vorwiegend is das sicherlich so dennoch wird die abwärme vom Panel sicherlich auch zu teilen mit diesen Aktiven Lüftern weggekühlt wunder bewirkt das aber natürlich auch nich

Wie FritzHunter schon sagte: "Höhere PPI = gleich höhere Wärmestromdichte"

Siehe mein Vergleich 65" gegen 42" da gibts kaum unterschiede

Screenshot 2024-04-22 190516.png


Kann mir kaum vorstellen, dass die dünne Graphen Schicht schon das Optimum darstellt.

Graphen ist ein sehr guter Wärmeleiter und wird wie ich grad sehe nun auch bei M.2 SSDs verwendet :

Screenshot 2024-04-22 185954.png
--
Screenshot 2024-04-22 190255.png



... ein Optimum kann ja auch nur eine Momentaufnahme sein da es irgendwann immer ein besseres Mittel zur Kühlung gibt . Jedenfalls hilft ein Heatsink Layer auf dem Panel die Abwärme besser runterzukühlen
siehe auch zb den Panasonic MZ2000 mit 3 Heatsink Layern gegen den G3 mit 1 Heatsink Layer und das halt jeweils ohne Aktive Lüfter

Screenshot 2024-04-22 190714.png


Screenshot 2024-04-22 190846.png
--
312.jpg


Screenshot 2024-04-22 190954.png
--
Screenshot 2024-04-22 191106.png


Screenshot 2024-04-22 193245.png


QD-OLED hat kein weißes Subpixel, das hat nur WOLED (steht ja schon im Namen).

Das is schon richtig erklärt aber dennoch nicht warum seit 2022 bei 10 % auf 400 Nits abgedimmt wird bei den QD-OLED Monitoren und warum Gen 1 - 3 gleich hell sind egal welche Größe
was halt daran liegt das Samsung weiterhin schiss inner Bux vor dem PC Bereich hat obwohl selbst schon die Gen 1 ganz gut performte wenn man sich den RTINGS Burn In Test anschaut

Im Übrigen wird LG zukünftig wohl auch richtung RGB gehen also weg von WRGB .. 2025 sollen erste OLED Monitore mit dem RGB Layout kommen

Da gab es ja 2022 schon erste Gerüchte zu :

Screenshot 2024-04-22 191919.png



Und auf der OLED Monitor Roadmap sind ja auch schon erste Geräte zu sehen die dann 2025 kommen :

56.jpg




Ich denke das LG diesen Schritt weg von WRGB und hin zu RGB auch im OLED TV Bereich gehen muss um bzgl Farbhelligkeit mit Samsungs QD-OLED mithalten zu können da hängt LG schon stark hinterher


S95C QD-OLED TV : ------------------------------- LG G3 OLED TV :

Screenshot 2024-04-22 192609.png
--
Screenshot 2024-04-22 192720.png



Und seit 2024 hängt LG nun ja auch bei der Weiss Helligkeit hinterher ( TV Bereich ) .. die nächsten Jahre werden zumindest im TV Bereich in dem ich mich aufhalte spannend


Und die eigentlichen Pixel sind auch blau.

Darum könnte Samsung auch stärker von PhosPhor Blue profitieren als LG .. allerdings siehts für PhoBlue grad nich rosig aus das scheint auch 2025 nix zu werden


Hätte vllt WOLED statt OLED schreiben sollen.

OLED und QD-OLED is sinniger.... dann weiss man immer das mit OLED ein LG Panel gemeint is und mit QD-OLED ein Samsung Panel
 
Zuletzt bearbeitet:
Die Roadmap von LG ist mir bekannt.

Ich trenne die OLEDs immer zwischen W und QD, dann ist es wirklich eindeutig. Zumindest bis LG auf ein klassisches RGB Layout umstellen wird.

Zum Thema QD-OLED und die „niedrigen“ Helligkeiten bei großen APLs. Ein weiteres Thema ist hier der Stromverbrauch.

In der EU gelten ja leider diese irrwitzigen Richtlinien. Siehe Verbrauchsklassen A-G oder so ähnlich.

Samsung verbraucht bei um die 120 Watt bei 100% Window (D65). LG braucht da „nur“ 80 Watt.

Nächstes Thema burn in… da ist - mMn - QD-OLED empfindlicher. Wird sich noch Zeigen Tim (Monitors Unboxed) lässt da gerade ein Versuch laufen (MSI 32“ QD-OLED siehe YouTube), ich lasse meine Samsung Odyssee OLED G8 mal laufen, aber mit den üblichen Schutzmaßnahmen (Bildschirmschoner, Darkmode, Clear desktop usw.) Rtings ist auch an dem Thema dran. Die TVs zeigen hier schon erste Ergebnisse.
 
Die Roadmap von LG ist mir bekannt.
Ich trenne die OLEDs immer zwischen W und QD, dann ist es wirklich eindeutig. Zumindest bis LG auf ein klassisches RGB Layout umstellen wird.

Ich find OLED und QD-OLED besser ( genau wie bei QLED und LED ) .. aber das kann ja jeder halten wie er mag .. schlimm find ich nur wenn Review oder News Seiten beides einfach nur OLED nennen da weiss man nun nich obs OLED oder QD-OLED is

Zum Thema QD-OLED und die „niedrigen“ Helligkeiten bei großen APLs. Ein weiteres Thema ist hier der Stromverbrauch.

nunja scheinbar braucht dann ein QD-OLED Monitor nur bei 10 % mehr Strom als OLED weil der Rest ja dannn wieder ähnlich is 😜

Screenshot 2024-04-22 203947.png



Ich bleib dabei .. Samsung hat einfach weiterhin Schiss vorm PC Bereich und drosselt daher schon bei 10 % obwohl selbst die 2022er Gen 1 schon gut ablieferte

In der EU gelten ja leider diese irrwitzigen Richtlinien. Siehe Verbrauchsklassen A-G oder so ähnlich.
Samsung verbraucht bei um die 120 Watt bei 100% Window (D65). LG braucht da „nur“ 80 Watt.

Möglich das dies ein gewissen einfluss haben mag aber dann wohl auch wieder nur bei 10 % Window 😜

Bei den TVs verbraucht QD-OLED ja auch mehr :

S95C : ------------------------------------- G3 :

Screenshot 2024-04-22 204101.png
--
Screenshot 2024-04-22 204146.png


Nächstes Thema burn in… da ist - mMn - QD-OLED empfindlicher.

Die sind besser als mein 2020er CX den ich seit Juni 2020 als PC Monitor nutzen und der nun fast die 12.000 Betriebsstunden erreicht hat und wo weiterhin alles ok is

Wird sich noch Zeigen Tim (Monitors Unboxed) lässt da gerade ein Versuch laufen (MSI 32“ QD-OLED siehe YouTube), ich lasse meine Samsung Odyssee OLED G8 mal laufen, aber mit den üblichen Schutzmaßnahmen (Bildschirmschoner, Darkmode, Clear desktop usw.) Rtings ist auch an dem Thema dran. Die TVs zeigen hier schon erste Ergebnisse.


Dazu sagte ich ja schon mehrmals Heute was .. jepp RTINGS is da drann ... da is selbst der DWF ( 2022er Gen 1 QD-OLED ) scho gut . der RTINGS Burn In Test läuft von November 2022 - November 2024

Screenshot 2024-04-22 203221.png




QD-OLED TV : ( 2022er S95B Gen 1 und 2023er S95C Gen 2 ) ----------------------------------------------- OLED TV : ( CX von 2020 , C1 von 2021 und C2 von 2022 , G2 von 2022 , G3 vonn 2023 )


Screenshot 2024-04-22 203308.png
--
Screenshot 2024-04-22 203345.png

-----------------------------------------------------------------------------------------------------------------
Screenshot 2024-04-22 205156.png

----------------------------------------------------------------------------------------------------------------
Screenshot 2024-04-22 205500.png




Wie gesagt ich hab ein 2020er LG 48" CX und bei dem is nach nun knapp 12.000 Betriebsstunden und fast 4 Jahren nutzung weiterhin alles super
und vergleich den mal beim RTINGS Test mit nem 2022er S95B oder 2023er S95C sowie dem DWF und dem G8 ... QD-OLED geht da schon klar selbst bei der 2022er Gen 1.

Vergleich auch mal den 2023er S95C mit dem 2023er LG G3 und achte dabei auch auf die Betriebs Stunden

Würde also nich grad sagen das QD-OLED da Burn In anfälliger is als OLED .... ausserdem sitzt der beste Burn In Schutz weiterhin vor dem Gerät und das wird sich auch nie ändern


76.png


 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh