Alienware 34 Curved QD-OLED: Mit 175 Hz, Curved-Panel und G-Sync

Nach 6 Jahren Asus PG279Q mach ich hier auch mal wieder bei der Lotterie mit :d Freu mich sehr auf den Monitor, ich hoffe nur der Lüfter ist nicht weiter hörbar


welche Lotterie? issn OLED
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Pixelfehler und es gab schon ein paar Berichte über Kratzer im Display, produktionsbedingte Fehler kann man nie ganz ausschließen.
Burn in ist halt etwas wo man sehen muss wie es sich im Laufe der Zeit mit QD-OLED verhält falls es ein Faktor sein sollte. Die 3 Jahre Garantie helfen dabei ziemlich ordentlich.

Aber das man nie wieder nen Gedanken an Backlight Bleeding, IPS Glow, VA Schmieren, Dimming Zones etc. verschwenden muss ist schon nice :d
 
Burn in ist halt etwas wo man sehen muss wie es sich im Laufe der Zeit mit QD-OLED verhält falls es ein Faktor sein sollte.
Angeblich soll QD da robuster sein als bisherige Modelle. Es wird nur eine Farbe zur Lichterzeugung genutzt, während die einzelnen Farben über Filter erzeugt werden, weshalb es keinen unterschiedlichen Verschleiß gibt (oder so ähnlich, hab mir vor nem halben Jahr ein Video dazu angeguckt).

Trotzdem schade das OLEDs eine verhältnismäßig begrenzte Lebenszeit haben. Mit TFTs hat man da ja einen riesen Sprung nach vorne gemacht gegenüber Röhren was die Haltbarkeit der Geräte angeht. Mit OLED gehts jetzt wieder einen Schritt zurück.
 
Angeblich soll QD da robuster sein als bisherige Modelle.
Ich weiß, darum auch das "falls es ein Faktor sein sollte"

Wird sicherlich ein paar Tester/Youtuber geben die diesen Monitor und die TVs ordentlich mit statischen Bildern quälen werden, in nem Jahr oder so werden wird dann die Antwort haben.
 
Angeblich soll QD da robuster sein als bisherige Modelle. Es wird nur eine Farbe zur Lichterzeugung genutzt, während die einzelnen Farben über Filter erzeugt werden, weshalb es keinen unterschiedlichen Verschleiß gibt
WOLED wird für die gleiche (Farb-)Helligkeit stärker belastet, weil weiße Emitter mit Farbfilter darüber eingesetzt werden. Dadurch gehen zwei Drittel (geratener Wert) der Helligkeit verloren. Als Ausgleich gibt es das weiße Subpixel (ohne Farbfilter) als Helligkeitsbooster, welches bei hoher Helligkeit allerdings die Farben ausbleicht.

QD OLED hingegen basiert auf blauen Emittern mit Quantom Dots darüber, welche mit minimalem Helligkeitsverlust das blaue in rotes oder grünes Licht umwandeln.

Dieses Bild veranschaulicht das ganz gut:
DrVqVRfVAAA-2t1.jpeg
 
Natürlich ist das korrekt, sonst würde man ja nicht alle Werte messen?

Allgemein sind wir noch soweit entfernt von einem wirklich realitätsgetreuen HDR-Display, ich empfehle zu diesem Thema übrigens dieses Video:
Die Lampe an der Wand ist mal eben 4000Nits hell und die ist ja auch nicht in stockdunkler Umgebung sondern an einer von der Sonne angestrahlten Fassade, d.h. dieser 1% und 5% Wert sind eigentlich ziemlich nutzlos. Ich finde eher 50% bis 100% wirklich wichtig, was bringt mir die halbwegs helle Taschenlampe in stockdunkler Szene wenn dann die nächste Szene in der Mittagssonne die Leuchtintensität einer realen Dämmerung hat, wenn überhaupt?

Der HDR-Standard wurde nicht umsonst auf 10.000Nits ausgelegt und ein wirklich echtes HDR-Display sollte diese Werte auch liefern können. Selbst der hellste QLED ist viel zu dunkel für echtes HDR. Aus dem Grund spiele ich auch lieber in SDR, denn das HDR-Tonemapping (Zumindest bei meinem Fernseher) verschiebt die "normalhellen" Stellen in Spielen (Boden, Wände z.B.) so sehr ins Dunkle, damit die HDR-Highlight mehr zur Geltung kommen, aber mit realistischer Abbildung hat das nichts zu tun. Man merkt wirklich, HDR ist ausgelegt für viel mehr Dynamik als die lächerlichen 1000Nits, dafür reicht auch noch SDR aus.
 
10.000nits, nichtmal einen Meter vorm Gesicht im gedimmten Raum, stell ich mir sehr angehm vor. o_O
 
10.000nits, nichtmal einen Meter vorm Gesicht im gedimmten Raum, stell ich mir sehr angehm vor. o_O

Denke mal das Video hast du nich gesehen was die SynergyCore verlinkt hatte ... hier mal ein paar Bilder davon :

Diese Metal Lampe = 2318 Nits --------------------------------------------------------------------------- Diese Metal Klingel eines Kinderfahrrades = 3325 Nits

1.png
2.png



Diese Lila Blumen = 530 Nits ------------------------------------------------------------------------------------ Das Dunkle Gras = 342 Nits

3.png
5.png



Blenden dich diese Gegenstände im echten Leben auch ? .. Also mich nich.... ausserdem sind diese Gegenstände Highlights ... genau wie zb eine Taschenlampe in einem Spiel wo man den Leuchtkegel sieht.
Dieser sieht im Spiel mit 400 Nits eher Mau aus .. aber mit 1000 Nits und mehr kommt schon ein kleiner Wow Faktor dazu

Hat man nun viel Weiss auf dem Bildschirm drosselt aber das ABL die Helligkeit runter ... somit leuchtet die Taschenlampe ( um bei dem Beispiel zu bleiben )
dann nich mehr mit 1000 Nits sondern nur noch mit zb 300 Nits und schon is das Bild nur noch Mau statt Wow weil auch die Gesamthelligkeit runtergeht.
Die Scene ansich hat dann ne Helligkeit von zb 200 Nits während die Lampe "Das Highlight" bei 300 Nits ist obwohl dein Gerät zb 1000 Nits könnte aber das ABL sorgt dafür das
man auf die 1000 Nits nicht mehr zugreifen kann als Peak sondern nur noch auf einen Peak von 300 Nits da man eben zb 70% Weiss im Bild hat und das ABL dann halt krass runterregelt.

Und aus Genau dem Grund ist es auch Wichtig das alle % Bereiche viele Nits haben und nich nur 10% und 25% ... man hat dann zwar helle Highlights wenn das Restliche Bild relativ dunkel bleibt
aber bei viel Weissfläche im Bild zb einer Schnee Map in Battlefield hat man da auch nix von weil das ABL den Peak Wert derbe nach unten Zieht sodass die Highlghts keine Highlights mehr sind sondern
eher im Gesamtbild fast untergehen da der Peak Wert so niedrig wurde durch das ABL


Allerdings brauch ich nun auch keine 10.000 Nits als Peak Wert für Highlights .. aber 1000 oder 1500 nits reichen mir da schon ... nur sollte das ABL dann nich alles kaputt machen.
Und da bin ich gespannt was da in Zukunft noch so alles auf uns zukommt. Diese QD OLED und OLED EVO Panel und Heatsink Geschichten sind ja schonmal ein Schritt in die Richtige Richtung
Aber was die Helligkeitsstabilität eines HDR 1000 Monitors der letzten Jahre angeht kommen sie da noch nich ran ... da muss noch mehr kommen.
 
Zuletzt bearbeitet:
Genau das ist eben der Punkt! In der Hifi-Welt ist doch auch das ultimative Ziel, das echte Musikinstrument/Konzert nach Möglichkeit in der Dynamik und Lautstärke wie in echt zu wiedergeben, aber am Bildschirm soll das dann plötzlich zu hell sein?

Und ja eben, im echten Leben wird man ja davon auch nicht geblendet, es ist nunmal die Dynamik der realen Welt. Die Augen sind dafür ausgelegt. Mal davon abgesehen sollte man zur Schonung derselben sowieso nicht im abgedunkelten Raum Bildschirme nutzen...

Bei OLED ist es halt nunmal realistisch so, dass die Highlights mit ach und krach die 500-600 Nits erreichen, welche eigentlich die Grundhelligkeit sein sollten (die schwach von der Sonne angeleuchteten Blumen, die übrigens dunkellila sind, also viel Licht schlucken. Das gemessene Gras ist übrigens auch im Schatten...) und eben die Highlights wie die Lampe bei 2000-3000Nits. Stattdessen haben wir eine Grundhelligkeit von etwa 200Nits mit Highlights bei 500-600... Bei FALD-LCD ist es ein gutes Stück besser aber auch da reicht die Peak-Helligkeit bei Weitem nicht aus, oft beträgt sie nur etwas mehr als 1000Nits. Immerhin reicht ihre Flächenhelligkeit aus, um die Grundhelligkeit der realen Welt abzubilden, aber für die Highlights fehlen noch viele Reserven.

Im Idealfall sollte es so sein, dass der Zuschauer z.B. bereits an der Helligkeit sieht, dass es ein sonniger Tag ist. Bei den aktuell viel zu dunklen Displays (für eine realistische Wiedergabe), braucht man erst zusätzliche Informationen (sind harte Schatten zu sehen, wie ist die Lichtfarbe?), die man in echt nicht braucht, jeder weiß sofort anhand der Helligkeit, dass die Sonne scheint. Sieht man übrigens auch super an den Screenshots von @Stagefire das Problem. Ich sehe, es ist in seinem Video sonnig (nur anhand der Schattewürfe), aber WIE sonnig kann ich leider nicht erkennen. Ist es eine strahlende Mittagssonne oder nur leichter Schein durch die Wolken?

Fazit -> Für mich ist der hier besprochene QD-OLED sicher ein großartiges SDR-Display, welches als erstes überhaupt zurecht das Erbe der legendären Trinitron-Bildröhren (Farbdarstellung, Schaltzeiten, Schwarzwert) antreten kann, aber es ist einfach kein HDR-Display. Das gibt es auch meines Erachtens noch gar nicht.

Und das ist der Grund, warum ich soviel Wert auf Helligkeit lege, das ist der Punkt, an dem Displaytechnologie noch am meisten Aufholbedarf hat (ja, auch mehr als bei der Bewegungsschärfe durch Sample&Hold)
 
Naja dann wird es für euch beide halt nicht dieser monitor hier sondern eher der Odyssey Neo G9 Oder G8 falls einer kommt, ist zwar kein oled, aber 2000 Nits sollen ja möglich sein.
 
Natürlich ist das korrekt, sonst würde man ja nicht alle Werte messen?
Warum sollte man nicht alle werte messen? Nun schauen wir uns doch mal folgendes theoretisches Beispiel an.
Ein OLED welcher bei vollflächiger Helligkeit 800 Nits erreicht, aber bei einem 5% Window nur 500 Nits peak HDR Brightness: Wie stark fällt die gute vollflächige Helligkeit ins Gewicht bei HDR Gaming und Filmen, im Vergleich zu einem OLED der eine peak HDR Brightness von 800 nits und vollflächig nur 500 nits erreicht?

Könnte es sein, dass die HDR Highlights der dominierende Faktor sind bei dem Konsum von HDR Material und man die vollflächige Helligkeit deutlich geringer gewichtet?
Daher ist nicht jede Helligkeitsmessung gleich wichtig um abschätzen zu können, wie gut der HDR Effekt ist.
 
Zuletzt bearbeitet:
 
Naja dann wird es für euch beide halt nicht dieser monitor hier sondern eher der Odyssey Neo G9 Oder G8 falls einer kommt, ist zwar kein oled, aber 2000 Nits sollen ja möglich sein.

Ne ... eher ein 42" 4K QD OLED mit 1000 - 1500 Nits Peak und krass Abgeschwächtem ABL + Gaming Features ... ich sagte ja das ich auf 2023 warte.
Ich schreibe nur hier weil mich die QD OLED Technik ansich interessiert nicht aber der Alienware 34" QD OLED.

Nun schauen wir uns doch mal folgendes theoretisches Beispiel an.
Ein OLED welcher bei vollflächiger Helligkeit 800 Nits erreicht, aber bei einem 5% Window nur 500 Nits peak HDR Brightness: Wie stark fällt die gute vollflächige Helligkeit ins Gewicht bei HDR Gaming und Filmen,

Nun das Highlight währe fast so "hell" wie es momentan der Fall is bei den aktuellen so 600 Nits ... aber das restliche Bild dunkler vielleicht so 200 - 400 nits weil da eben noch ein Tone Mapping stattfindet.

im Vergleich zu einem OLED der eine peak HDR Brightness von 800 nits und vollflächig nur 500 nits erreicht?

Das Highlight hätte dann so 700 Nits während das restliche Bild auf 400 Nits abfällt durch das Tone Mapping damit das Highlight ein Highlight bleibt.

Ergebniss :

Beides is scheisse.

Besser währe :

Peak 1000 - 1500 Nits ... Highlight Leuchtet mit 1500 Nits das restliche Bild bleibt bei 1000 Nits. ( Ohne ABL aber eben mit Tone Mapping )
Alternativ ... Highlight 1000 Nits das Restliche Bild bleibt bei 700 Nits.( Ohne ABL aber eben mit Tone Mapping )

Aber momentan haben wir das halt leider so :

Highlight 600 - 750 Nits und das Restliche Bild sackt auf 400 - 500 Nits ab... und ab und an auch mal auf 250 Nits wegen dem ABL und das Highlight leuchtet dann nur noch mit 400 Nits
und dann is man in dem Bereich den man auch mit nem Anfänger HDR 400 Monitor erreichen kann

Ihr dürft halt das Tone Mapping nich vergessen !!! .. und das ABL is halt ein Highlight sowie Gesamthelligkeits Killer


Für manche mag das ja alles ok sein und die kommen damit wunderbar klar das ihre Gesamthelligkeit nur noch 200- 400 Nits beträgt .. aber es gibt halt auch welche dennen das zu wenig is.

Könnte es sein, dass die HDR Highlights der dominierende Faktor sind bei dem Konsum von HDR Material und man die vollflächige Helligkeit deutlich geringer gewichtet?
Daher ist nicht jede Helligkeitsmessung gleich wichtig um abschätzen zu können, wie gut der HDR Effekt ist.


Was bringt dir aber eine Taschenlampe die mit 1000 Nits brennt wenn das Restliche Bild auf 200 Nits absackt ? ( Dunkle Höhlen mal ausgenommen )
Und schaut man in die Sonne sinds nur noch 140 Nits gesamtbild und es bleibt nix mehr übrig für das Highlight.
 
Zuletzt bearbeitet:
Und noch ein Review.

 
Gibts eigentlich schon was neues zum Thema Schwarz-Aufhellung bei HDR 1000?
Denn mir fällt auf, wie gräulich CoD: Cold War bei diesem Reviewer aussieht, gerade die dunklen Bereiche, sieht ja aus wie ein schlechtes TN. Bei mir sieht das Spiel nicht so aus...
Gerade bei 3:02.

Könnte es wirklich daran liegen, dass er bei HDR1000 kein "True Black" mehr kann?
 
@SynergyCore

(bei 4:27)

"Settings for the Videos on this Video: Standard Preset 100 Brightness 90 Contrast HDR Peak 1000 Ambient Light Sensor Off Eco Mode Off"

Gibt aber wohl anderweitig schlechte Nachrichten:

it does seem to produce a faint flicker effect in dark areas. It can be seen in 175hz 8bit and 144hz 10bit. Gsync off, looks fine."
 
Zuletzt bearbeitet:
Und schaut man in die Sonne sinds nur noch 140 Nits gesamtbild und es bleibt nix mehr übrig für das Highlight.
Ich verstehe schon was du meinst, aber wenn man direkt in die Sonne schaut dann ist das kein Highlight mehr für mich, sondern eine helle vollflächige Darstellung. Mein Punkt ist einfach, dass dies kein realistisches Szenario ist. Kaum jemand spielt einen Shooter und schaut dann einfach mal 10 Sekunden direkt in das Sonnenlicht, um sich davon blenden zu lassen und darüber happy zu sein, wie hell das gesammte Display leuchten kann. Hoffe du kannst meine Argumentation nachvollziehen, ich meine es ja nicht böse.

Gibts eigentlich schon was neues zum Thema Schwarz-Aufhellung bei HDR 1000?
Denn mir fällt auf, wie gräulich CoD: Cold War bei diesem Reviewer aussieht, gerade die dunklen Bereiche, sieht ja aus wie ein schlechtes TN. Bei mir sieht das Spiel nicht so aus...
Gerade bei 3:02.

Könnte es wirklich daran liegen, dass er bei HDR1000 kein "True Black" mehr kann?
Das frage ich mich auch, daher hoffe ich darauf, dass Vincent usw. bald dazu etwas sagen können.
 
Ich verstehe schon was du meinst, aber wenn man direkt in die Sonne schaut dann ist das kein Highlight mehr für mich, sondern eine helle vollflächige Darstellung. Mein Punkt ist einfach, dass dies kein realistisches Szenario ist.

Sollte verdeutlichen was das ABL mit deinen Nits macht .. die sind dann halt nich mehr existent und somit auch keine Highlights mehr.
Und das daher die Helligkeit auch ausserhalb von 10 % oder 25 % eine Rolle spielt.

Die 10 oder 25 % Helligkeit is halt nur interessant wenn man grad in einem zb Wald unterwegs is im Spiel und da dann eine Laterne Leuchten sieht.
Aber der 50 % oder 75 % Wert is eben zb für eine Schnee Map wichtig oder wenn man drausen auf ner Hellen Map im Sonnenschein unterwegs ist.

Kaum jemand spielt einen Shooter und schaut dann einfach mal 10 Sekunden direkt in das Sonnenlicht, um sich davon blenden zu lassen und darüber happy zu sein, wie hell das gesammte Display leuchten kann. Hoffe du kannst meine Argumentation nachvollziehen, ich meine es ja nicht böse.

Alles gut

Das mit der Sonne bezog sich nun auch wie gesagt mehr auf das Agressive ABL.

Nehmen wir eine Schnee Map in Battlefield 5 ... dort liegt viel schnee .. es ist Tags über und die Sonne scheint etwas.
Es gibt Häuser und Bäume und Steine und andere Objekte auf der Map... somit nicht 100 % Weiss sondern sagen wir mal 50 %

Da soviel schnee rumliegt . droppt das ABL schonmal dein Peak Wert auf nur noch so 400 Nits von ehemals 1000 Nits .. also ein Highlight kann dann nur noch mit Maximal 400 Nits leuchten
während der Rest der Scene dann nur noch mit ssagen wir 200 Nits leuchten kann damit man das Highlight noch als solches wahrnehmen kann da ja noch ein Tone Mapping statt findet
und schon ist man in dem Bereich den man auch schon seit Jahren mit nem ollen HDR 400 PC Monitor abdecken kann.
Das is dann halt kein gutes HDR mehr weil nur noch 400 Nits max.

Ich will halt damit nur sagen das auch die anderen Prozent Bereiche wichtig sind bezogen auf die Nits und nicht nur der 10 % und der 25 % Bereich... und dass das Agressive ABL halt das HDR Erlebniss ziemlich
kaputt machen kann... aber natürlich kommt das auch darauf an was man Persönlich von HDR erwartet... gibt ja auch einige dennen ein HDR 400 Monitor schön völlig ausreicht und die von 400 Nits
schon geblendet werden.

Jedenfalls hab ich mit meinen eigenen Augen schon das hier erlebt : ( Linke Tabelle ) und das war um einiges Geiler als das hier : ( Mittlere Tabelle )

gi.png
---------
cx.png
---
1.png


Was daran liegt das es beim Gigabyte FV43U bzw beim Asus PG43UQ den ich damals hatte der aber auch HDR 1000 hat eben kein ABL gibt .. ABL gibts halt nur bei QD OLED und OLED
.. und ABL kann viel kaputt machen wenn es zu Agressiv is was es leider immernoch ist das sieht man ja da auf den Tabellen ganz gut wenn man die 3 Tabellen mal vergleicht )


Wird spannend wie das ABL bei den Sony QD OLED TVs wird .. wir wissen zumindest das sie bei 10 % die 900- 1000 Nits packen... und Sony sprach und Zeigte eine Grafik auf der CES 2022 von 1500 Nits Peak.
Mir ist allerdings 55" sowie 65" zu viel des Guten .. .. ich bevorzuge 42" oder 43" 4K..... also warte ich gespannt auf 2023... vielleicht kommt da ja dann was nettes von Samsung oder vielleicht schafft LG
ja bis dahin einen guten Konter auf Samsungs QD OLED Panels... auch sind LGs G2 TVs interessant weil sie das EVO Panel + Heatsink haben was dann 2023 sicher auch in ihrer C Serie zu finden sein wird
was auch nochmal für ein weniger Agressives ABL sorgen sollte.

11.png
 
Zuletzt bearbeitet:
Das wäre halt ein Reinfall, wenn man schon das G-Sync-Ultimate-Modul unnötigerweise dabei hat, dann sollte es auch wenigstens komplett Flickerfreies G-Sync beherrschen wie der PG27UQ es auch konnte.

Allerdings muss ich auch ehrlich sagen, dass mich G-Sync-Flickering eigentlich gar nicht stört, man sieht es doch sowieso lediglich in Ladebildschirmen, wenn die Frametimes stark schwanken bzw. stärkere Hänger gibt.

Aber die Schwarzwerte sehen in dem Video tatsächlich normal aus, trotz HDR1000, das ist beruhigend.
 
tritt nur auf bei stark schwankenden frames? das hat man ja eh nicht. settings werden so eingestellt dass ich meine gecappten fast immer halte.
 
Jemand anderes hat das nochmal relativiert:
so I ran it and there's a VERY faint flicker in the darker right side of the gradient but you really have to be looking for it to notice it. Honestly this is something that wouldn't bother me at all but maybe someone that is super sensitive to this might notice it.

So sieht der Test aus:

VRR_Flicker_Test_OpenGL_2022_03_14_17_49_15_059.jpg

https://github.com/MattTS01/VRR_Flicker_Test_OpenGL/releases (unterer Link)

Auf meinem IPS ist das stabil, obwohl die FPS immer den LFC-Bereich durchkreuzen.

Schätze auf meinem TN mit echtem g-sync würde es vollflächig auch leicht flimmern, auf dem AW nur in den dunkelsten Bereichen. VA sollte hier schrecklich sein(vor allem ohne g-sync modul, wenn LFC durchkreuzt wird).

Kann es vllt. sein, dass das g-sync modul im AW gebraucht wird, um anders als bei den LG OLEDs die gamma-kurve an die FPS / Hz anzupassen, und damit das near black g-sync geflackere zu minimieren?

Lese von einem Besitzer, dass er die LG OLEDs diesbezüglich hart kritisiert, und es wahrscheinlich garnicht gemerkt hat, dass es auch beim AW noch leich flimmert bei near black.
 
Zuletzt bearbeitet:
Eigendlich wollte ich ja den

AOC Agon Pro AG274UXP - 27 Zoll UHD​

kaufen, aber nun bin ich doch dem AW3423DW verfallen.... Auf der USA Seite kann man den wieder kaufen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh