Alienware 34 Curved QD-OLED: Mit 175 Hz, Curved-Panel und G-Sync

Kennt sich jemand mit den Farbprofilen aus? Wenn man den Monitor Treiber installiert (ist ja nichts anderes als ein Farbprofil), dann wird das Profil in SDR korrekt hinterlegt. Bei aktiviertem HDR ist das Farbprofil aber wieder weg. Ich weiß man kann das unter Farbprofile so hinterlegen, dass auch HDR mit einbezogen wird (man muss das Häkchen in der Windows Farbverwaltung bei "Als erweitertes Farbprofil hinzufügen" setzen. Die Frage die ich mir also jetzt stelle: Sollte man das denn in diesem Fall auch tun oder macht das bei HDR keinen Sinn und ist vielleicht sogar kontraproduktiv? Warum wurde das von Dell nicht schon von Haus aus gemacht?

Das Farbprofil würde ich ansonsten jedem raten zu installieren, denn damit ist man näher am D65 Weißpunkt dran.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
G-Sync Ultimate steht ja auch für ein perfekt ab Werk aus kalibriertes Panel. SDR hat meistens eigene Farprofile, bei HDR werden diese deaktiviert um die Farben nicht zu verfälschen.
 
Naja Gsync Ultimate für den Monitor war aber an sich die schlechteste Entscheidung die sie treffen konnten, mit dem Lüfter Theater.
 
ne. einfach einen ordentlichen lüfter verbauen von mir aus auch nen 92er slim den man von hinten "sieht". solange das ding einfach leise ist
 
Wozu braucht man Gsync Ultimate? ... Seit es Gsync Compatible und Freesync in Variationen gibt ist es ja wohl total unnötig... in den OLED TVs geht auch ohne Modul.
 
Wie geschrieben, G-Syn Ultimate ist eine Zertifizierung von Nvidia, Gsync Compatible hat die geringste Zertifizierung.

G-Sync Compatible hat auch Probleme das ab ein Drop von rund 24/30 FPS das Bild für gefühlt ne Sekunde Schwarz wird. Weil Free-Sync nicht so weit runter kann wie G-Sync mit Modul.
 
Okay die größere Range ist ein Argument. Dass es ne "Zertifizierung" ist ist mir schon klar die geht aber afaik noch Hand in Hand mit einem Modul mit Lüfter? Das lässt sich doch sicher auch passiv kühlen irgendwie. Vielleicht sollte man den Chip mal ersetzen :d
 
Manche haben in ihren Asus/Acer usw die Lüfter getauscht. Geht beim Alienware sicher auch, denke das genau das gleiche Modul verbaut ist was es schon Jahre lang gibt.
Problem ist nur das man seine Garantie verliert und den Monitor beschädigen könnte. Aber umgebaut haben schon so einige Ultimate Monitore auf sehr leise Lüfter.
 
Zuletzt bearbeitet:
Naja Gsync Ultimate für den Monitor war aber an sich die schlechteste Entscheidung die sie treffen konnten, mit dem Lüfter Theater.
Da wäre ich mir nicht so sicher.
Wie VRR ohne G-sync Modul mit dem Panel läuft, wissen wir noch nicht.

Nicht das die Version von Samsung dann wieder auf ein "VRR-control" Gepfusche im OSD angewiesen ist, damit es nicht Flackert(wie beim G7 / G9).
 
Was bedeutet eigentlich Lautstärke? Im OSD lässt sich diese Regeln und Windows erkennt wohl auch Lautsprecher. Aber das DIng hat doch gar keine oder? Zumindest kriegt meiner keinen Ton raus.
 
Für den Klinken-Ausgang.
 
G-Sync Compatible hat auch Probleme das ab ein Drop von rund 24/30 FPS das Bild für gefühlt ne Sekunde Schwarz wird. Weil Free-Sync nicht so weit runter kann wie G-Sync mit Modul.
Ist bei mir nie passiert. Der Treiber hat lange vorher die Frequenz verdoppelt und für 30 FPS sogar verdreifacht.
 
G-Sync Compatible hat auch Probleme das ab ein Drop von rund 24/30 FPS das Bild für gefühlt ne Sekunde Schwarz wird. Weil Free-Sync nicht so weit runter kann wie G-Sync mit Modul.
Was soll "nicht so weit runter" heißen? LFC gibt's schon ewig und das funktioniert einwandfrei.

Heutzutage noch Monitore mit diesem dämlichen G-Sync-Modul rauszubringen, ist einfach unverständlich, weil es Nachteile mit sich bringt und beim Alienware hier ja deswegen auch schon Leute den Monitor wieder zurückgeben/umtauschen. Hätte man sich einfach sparen können und sollen. Sparen im wahrsten Sinne des Wortes und hier wäre es sogar mal sinnvoll gewesen.
 
Heutzutage noch Monitore mit diesem dämlichen G-Sync-Modul rauszubringen, ist einfach unverständlich, weil es Nachteile mit sich bringt und beim Alienware hier ja deswegen auch schon Leute den Monitor wieder zurückgeben/umtauschen. Hätte man sich einfach sparen können und sollen. Sparen im wahrsten Sinne des Wortes und hier wäre es sogar mal sinnvoll gewesen.

Heul leise, dann kauf dir halt nen anderen Monitor/TV wenn es dir nicht passt oder warte noch bissel auf weitere OLED Monitore. Kannst dir ja auch nen LG OLED kaufen ohne G-Sync.
Mich selber stört der Lüfter im G-Sync Ultimate Monitoren Null und bin froh ein richtiges G-Sync Modul zu haben.

Was soll "nicht so weit runter" heißen? LFC gibt's schon ewig und das funktioniert einwandfrei.

Eben nicht, manche machen keine Probleme, viele aber schon.
 
Zuletzt bearbeitet:
Darf ich fragen, warum man sRGB und nicht P3 wählen sollte? :)
Fast jeder SDR-Inhalt ist in sRGB gemastert, darunter auch alle Spiele. Dadurch hast du nur bei sRGB die richtige Farbsättigung.

Sieht aber aus wie TN, Farbtreu hin oder her, ich nutze auch DCI-P3, auch wenns streng genommen falsch ist. Sonst würde ich den erweiterten Farbraum bei meinen Spielen ja nie zu Gesicht bekommen und dann hätte man sich das QD-OLED-Panel auch sparen können...
 
 
Wusste gar nicht, dass sogar Game in sRGB gemastert werden. Bzw, dass sowas überhaupt stattfindest. Aber logisch ist es ja.

Danke dafür :)
 
Naja Gsync Ultimate für den Monitor war aber an sich die schlechteste Entscheidung die sie treffen konnten, mit dem Lüfter Theater.
Ich finde der Lüfter wäre gar nicht soooo das Problem, wenn sie ( jetzt mal eine völlig absurde Idee) einen normalen 92/120mm Lüfter verbaut hätten mit Wartungsklappe wie beim Laptop, dann könnte man im Ernstfall einfach den Lüfter wechseln ohne die Garantie zu verlieren 🤔 Ich sehe das natürlich auch so das gar keiner besser wäre, aber wenn man die Pest schon am Hals hat….

Aber Neeee das machen die nicht, das wäre ja zu Kundenfreundlich….. Hab letztens die Wärmeleitpaste bei einen Area51 Laptop gewechselt, keine Ahnung was Dell sein Problem ist und warum man es seinen Kunden so schwer machen muss…
 

Bei 7:30 erwähnt er, dass 10-Bit selbst auf einem dedizierten Testbild scheinbar nix bringt. Das bestätigt mich in der Einstellung, die 175Hz für reduziertes Motion Blur sowie Input Lag zu bevorzugen, was er ja auch so sieht.

Ansonsten bin ganz bei ihm, das ist der mit Abstand beste Bildschirm zum Spielen, insbesondere schnelle Shooter.
Ich habe auch mal getestet, wie es wäre auf einem C2 zu spielen mit 120Hz und ich muss sagen, der Unterschied ist schon deutlich spürbar. Nicht nur dass der Input Lag doch um ein gutes Stück steigt, vorallem ist das Motion Blur deutlich stärker und etwa "nur noch" auf dem Level des Fast-IPS mit 360Hz.

Lüfterprobleme sowie Pixelfehler habe ich keine, die im Betrieb unsichtbaren Kratzer sind ärgerlich, aber das wirklich perfekte Bild macht es mehr als wett, wirklich ein Traummonitor.
An die niedrigere Helligkeit habe ich mich nach wenigen Tagen gewöhnt.
 
Bei 7:30 erwähnt er, dass 10-Bit selbst auf einem dedizierten Testbild scheinbar nix bringt.

Was an dem Dithering liegt was dann anspringt wenn man HDR aktiviert wenn man nur 8 Bit ausgewählt hat.
Denke mal du weisst was Dithering ist.... er erwähnt ja das Nvidia Dithering im Video.
Das Windows eigene Dithering geht nur bei HDR da hat man dann in SDR nur 8 Bit ohne Dithering.
Und ich glaub die Testbilder hat er sich nur in SDR angeschaut oder ? .. Wobei da bei ihm bei MaxCLL 1060 Nits steht ..
dürfte also doch der HDR Mode sein in dem er sich befindet bei seinem Test und dann is bei 8 Bit auch das Dithering an.

111.jpg



8 Bit + Dithering ( Fake 10 Bit ) sieht auch beim Zocken gleich zu 10 Bit Nativ aus... so zumindest meine Wahrnehmung.
Auch kann Dithering ja gegen Color Banding helfen.

1.jpg
 
Zuletzt bearbeitet:
Ja sind die gut eingestiegen mit dem Monitor.

Vielleicht kommt noch was bezüglich 4K 32 Zoll mit der Zeit .

Dann sollte es auch wieder mit der PPI passen und auf dem Desktop einen guten eindruck machen .

Was ich gut finde , dass der Monitor schonmal nicht so stark auf Image Retention reagiert und das könnte ein
Indikator dafür sein ,dass QDOLED etwas mehr aushält .

Denke für den Anfang hat Samsung Display erstmal solide Arbeit geleistet für das erste Panel dieser Art.
 
@Stagefire Ja ich weiß wie Dithering funktioniert, steht bei mir auch das "8-Bit mit Dithering". Auch wenn ich in HDR-Warzone explizit mir den Himmel anschaue, kann ich kein Color Banding erkennen, also bestätigt es ja nur, dass das Dithering wirklich gut arbeitet. Und wenn Experte Vincent das auch bestätigt... Aber da er ja das Dithering erwähnt, dass ja nur bei HDR aktiv ist, kann er das Testbild ja nur in HDR geprüft haben.
Wie gesagt, bei den großartigen Schaltzeiten will ich ungerne Sample&Hold-Bildschärfe sowie Input Lag verschenken nur fürs "gute Gefühl" in 10-Bit nativ zu spielen. Bin ja eh der Meinung, OLED allgemein wird durch die noch recht niedrigen Refresh-Rates ziemlich aufgehalten, Blurbusters hat ja auch mal genau geschrieben, dass man gar keine BFI mehr braucht, wenn die Schaltzeiten sehr niedrig sowie die Bildfrequenz hoch genug sind. BFI habe ich bisher nie genutzt, da es ja nicht mit VRR zusammen nutzbar ist sowie die native Helligkeit nochmal halbiert.
Ein nächste Schritt wäre ja ein 240Hz oder gar 360Hz QD-OLED. Samsung hat ja sogar schon ein 4k-240Hz-LCD vorgestellt, also ist das kein Bereich mehr ausschließlich für niedrige Auflösung.
Bei den gemessenen 2ms Reaktionszeit wären satte 500Hz drin...
Deshalb ist TV-WOLED für mich zumindest solange eine Sackgasse, wie sie die Refreshrate massiv erhöhen. Die 175Hz waren ein großer Kaufgrund.


Aber unabhängig davon finde ich es trotzdem lächerlich, dass das G-Sync-Modul immer noch kein DSC kann, obwohl es doch ein FPGA ist.
 
Zuletzt bearbeitet:
Vincent berichtet auch von Flickering trotz G-Sync Modul. Ich weiß echt nicht, für was 2022 noch ein überteuertes G-Sync Modul da rein musste. Wenn VRR mit LFC genau das gleiche tut. Dann kein DSC.....und daher bei 175HZ ein Downgrade auf 8 Bit. Mein G7 1440p kann mit 240HZ und DSC z.B. auch nativ "10 Bit" wiedergebeben (Ist wohl 8 Bit + FRC)
 
Ja ich weiß wie Dithering funktioniert, steht bei mir auch das "8-Bit mit Dithering". Auch wenn ich in HDR-Warzone explizit mir den Himmel anschaue, kann ich kein Color Banding erkennen, also bestätigt es ja nur, dass das Dithering wirklich gut arbeitet. Und wenn Experte Vincent das auch bestätigt... Aber da er ja das Dithering erwähnt, dass ja nur bei HDR aktiv ist, kann er das Testbild ja nur in HDR geprüft haben.

Jup (y)... wollte nur aufzeigen das es weniger am Monitor liegt dass das 8 Bit Bild nich schlechter als das 10 Bit Bild aussieht sondern das da eher das Dithering für verantwortlich ist was Geräte übergreifend gleich is.

Aber auch fernab von HDR erkenn ich selbst keinen unterschied von 8 Bit Nativ Vs 10 Bit Nativ beim Zocken.
Denke mal das liegt daran das die meisten Games wenn nich gar alle eher auf 8 Bit ausgelegt sind was auch das Color Banding im Himmel
bei einiges Games ( zb. Battlefield 5 sowie 2042 , Alan Wake Remaster , Elden Ring wenns Nebelig is , Red Dead 2 in der Nacht ) erklärt.

Bin ja eh der Meinung, OLED allgemein wird durch die noch recht niedrigen Refresh-Rates ziemlich aufgehalten

Ja da geht QD OLED ne leicht andere Richtung .. beim Monitor mit 175hz und beim TV mit 144hz.

Blurbusters hat ja auch mal genau geschrieben, dass man gar keine BFI mehr braucht, wenn die Schaltzeiten sehr niedrig sowie die Bildfrequenz hoch genug sind. BFI habe ich bisher nie genutzt, da es ja nicht mit VRR zusammen nutzbar ist sowie die native Helligkeit nochmal halbiert.

Jup wegen der Helligkeitsreduzierung hab ich das bisher auch nie genutzt bis auf Tests .. zumal in den höheren BFI Stufen wo es dann wirklich mal was bringt das Flackern beginnt.

Ein nächste Schritt wäre ja ein 240Hz oder gar 360Hz QD-OLED. Samsung hat ja sogar schon ein 4k-240Hz-LCD vorgestellt, also ist das kein Bereich mehr ausschließlich für niedrige Auflösung.

Für die Hz Jäger sicher ne Feine Sache .. mir reichen aber 120hz .. bin in 4K meist eh eher im Bereich 60 - 90 FPS unterwegs da reichen mir die 120hz.
Dafür lege ich bekanntlich halt mehr Wert auf HDR Helligkeit als andere.
Beitrag automatisch zusammengeführt:

Mein G7 1440p kann mit 240HZ und DSC z.B. auch nativ "10 Bit" wiedergebeben (Ist wohl 8 Bit + FRC)

Und somit auch nur 8 Bit + 2 Bit FRC Dithering ( Fake 10 Bit ) .. wie gut 90 % aller "neueren" PC Gaming Monitore... aber wie gesagt is Dithering was gutes wenn es um Color Banding geht.
 
das könnte einI ndikator dafür sein ,dass QDOLED etwas mehr aushält .
War eigentlich abzusehen, weil bei WOLED ein Großteil des Lichts durch die Farbfilter verloren geht.
 
Meiner wurde um einen Monat nach hinten verschoben. Möglicherweise gar ned so schlecht.

Wie gut sein Review (Bester Gaming Monitor ever - Period! ) wirklich ist, keine Ahnung
hdtvtest review
 
Zuletzt bearbeitet:
Nach dem guten Vincent Video bin ich noch mal auf Recherche gegangen und musste da doch feststellen, dass viele Spiele 21:9 nicht nativ unterstützen und dann mit Mods nachgeholfen werden muss, was dann aber nicht immer klappt/gut aussieht.

Hier zb ein Statement von den Expedition Rome Entwicklern:
„Hi :) unfortunately there is no good solution that we know of for displaying a top-down game on that wide of a resolution - it creates massive fish-eye distortion which is quite unpleasant to look at.
In first-person games, this is solvable in Unreal by using a different type of projection, but that is unsuitable for games like ours.“

Und Ruined King zb sieht dann so aus:

Es ist eine Welt der Kompromisse die man man dann betritt, oft Modding, oft schwarze Balken (manchmal gar 4 davon), oft gefummel in den Ini Dateien des Games.

Selbst AAA Spiele wie Elden Ring kommen immer noch ohne native 21:9 Unterstützung raus in 2022 (Mods gibts zwar, aber dann darf man sich vom online Gaming gänzlich verabschieden).
Und Indie Games oder auch JRPG’s kommen dagegen fast nie mit einer nativen 21:9 Unterstützung. Gerade bei JRPG’s mit extrem viel Video Sequenzen sieht man dann immer und immer wieder schwarze Balken.

Fazit: Nope, nichts für mich.
Liegt aber nicht am tollen Monitor, sondern eher an den Entwicklern von Games, diese sind oft zu faul 21:9 zu integrieren.
 
Zuletzt bearbeitet:
Das Zitat zu Rome bezieht sich auf 32:9. Das Game läuft nativ mit 21:9 eiwandfrei, habs selbst so gespielt. Die meisten mit einem 21:9 Monitor können bestimmt bestätigen, dass so gut wie alle Games in dem Format laufen. Oft sind nur die Cutscenens noch 16:9 und da gibts easy fixes. Bei JRPGs hast du aber Recht, dort sind die PC Ports aber imho generell mäßig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh