Alienware 34 Curved QD-OLED: Mit 175 Hz, Curved-Panel und G-Sync

Wie ist das eigentlich mit flackern. Mir ist es jetzt bei dunkelgrauen Hintergründen im Windows aufgefallen. Woran liegt das?
Entweder das passiert bei Desktop Programmen die g-sync triggern und dann mit 30fps / Hz laufen, oder du nimmst den Helligkeitseinbruch bei jedem refresh war, was OLED-typisch ist, und eigentlich nur auf Videos zu erkennen sein soll.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kennst du den Nachteil, wenn man 175Hz nutzt mit dem Alienware?
Die 8 Bit inkl. Dithering? Falls du das meinst, ja. Aber auch das ist mir im gestrigen Ersteinsatz des Geräts nicht störend aufgefallen im Vergleich zu 10 Bit bei 144Hz. Die zusätzliche "Smoothness", die 175Hz aber bringen, merke ich schon nochmal ggü. 144Hz.

Ich muss mich heute nochmal etwas länger mit dem Gerät auseinandersetzen, ggf. fallen mir dann doch einige Sachen auf. Ich denke aber, dass ein Wechsel zum C2 nicht in Frage kommt, da ich das Curved 21:9 schon sehr gut finde.
 
Zuletzt bearbeitet:
Ich habe den Platz mit dem C2 und AW getauscht um den AW eine Chance zu geben. Ich muss sagen, mein Lüfter klingt anders, aber mich nervt es. Diese chromatische Schrift nervt mich doch sehr, da einfach der Vergleich zum C2 da ist und somit fällt es extrem auf.

Pro AW: gut zum PC Gamen, sehr hell, Curved, spiegelt fast gar nicht bis leicht, höhenverstellbar
Contra AW: Schriftsäume, Lüfter hörbar, wenig Einstellmöglichkeiten, bei aktivem HDR keine Helligkeitsregulierung am Monitor möglich, Bild wirkt manchmal unruhig. Der AW wirkt auf mich jetzt klein da ich mich an die 42 Zoll gewöhnt habe. Kein 4K.

Pro C2: gut zum PC Gamen und Konsole, sehr gute Schwarzwerte, sehr hell, homogene Farben - wirkt plastischer, Schrift klar und ohne störende chromatische Verläufe, auch zum Videos schauen 1A, Fernbedienung, viele Einstellmöglichkeiten, VRR - daher auch leise. Man gewöhnt sich schnell an die Größe, viele Einstellmöglichkeiten im Menü, 4k
Contra C2: kein Curved, spiegelt etwas wenn unmittelbar davor etwas leuchtet z.B. Tastatur. Nicht höhenverstellbar.

Das sind alles meine persönlichen Pro und Contra. Ich habe für mich wohl einen Sieger gefunden.

Eine Sache noch die ich beim Wechsel prüfen werde, schaut euch mal das Video von Maurice an https://www.gamestar.de/videos/total-war-warhammer-3-macht-gerade-einen-riesigen-fehler,105233.html in der Nähe vom Mikro, die schwarzen Bereiche von seinem Hemd, flackern auf meinem AW. Mir ist sowas beim C2 nie aufgefallen. Ich teste das später mal.

edit: hätte ich den C2 nie gesehen, ich würde den AW behalten, doch ich habe den C2 gesehen und jetzt 2 Wochen im Einsatz.
 
Entweder das passiert bei Desktop Programmen die g-sync triggern und dann mit 30fps / Hz laufen, oder du nimmst den Helligkeitseinbruch bei jedem refresh war, was OLED-typisch ist, und eigentlich nur auf Videos zu erkennen sein soll.

Obs primär WIndows ist weiß ich gerade nicht. Aber wo es mir halt aufgefallen ist, war der Startbildschirm von Photoshop.
 
@King Bill
Kannst ja mal im OSD die Refreshrate-Anzeige aktivieren (befindet sich unter "gaming"), dann siehst du ob g-sync getriggert wird. Bei Photoshop nehme ich das mal an.
 
Genau, kommt bei HDR absolut nicht gut. Ich würde den 144Hz Mode nutzen.
Beitrag automatisch zusammengeführt:


Doch FPS müssen den HZ entsprechen.
Da musst du aber sehr sensible Äuglein haben ;)

Ich sehe keinen spürbaren Unterschied zwischen 10-Bit und 8-Bit + Dithering. Das selbe Ergebnis hatte Vincent übrigens auch in seinen Tests, vermutlich ist es dann wohl doch einfach nicht relevant 😅

Jetzt mal ganz ehrlich: Ich verstehe nicht warum hier so viel wegen des Monitors geheult wird. Ja, Kratzer sind bitter und auch der Lüfter echt unnötig… ABER den Monitor gab es für teils unter 1000€, was sind denn aktuell bessere Alternativen?

Der Monitor ist fernab von perfekt, dennoch aus Sicht von P/L aktuell das beste was man kaufen kann… insbesondere wenn man 21:9 möchte.
 
Der Monitor ist fernab von perfekt, dennoch aus Sicht von P/L aktuell das beste was man kaufen kann…
Da hat wohl jeder ein eigenes Anspruchsdenken, für mich sind 1000€ und mehr schon eigentlich wahnsinnig viel Geld für einen Monitor, klar dass man da bei Fehlern umso kritischer/penibler wird.

Klar, wenn 1k für einen peanuts sind, dann Jucken die paar Fehler wohl kaum. 😀

Und das es gerade nichts besseres gibt ist eigentlich arg traurig und nicht etwas das man hervorheben sollte…
 
Es ist der erste OLED seiner Art. Von daher kann es technisch noch nichts besseres geben. Der Markt ist noch Jung. Da kommt garantiert noch was von Samsung selbst, Asus und co...

Der einzige OLED Monitor der mir nur einfällt ist einer von LG und der ist irgendwo bei 3 Scheinen und hat sogut wie keine Features.


Aber was anderes. Das gsync ultimate wird ja mit HDR beworben. Funktioniert normales gsync / kompatible dann nicht in HDR?
 
Zuletzt bearbeitet:
Aber was anderes. Das gsync ultimate wird ja mit HDR beworben. Funktioniert normales gsync / kompatible dann nicht in HDR?
Nach dem was ich hier gelesen habe nein. Gsync mit HDR geht nur bei ultimate.
 
Das Problem beim LG OLed 42 C2 ist eben kein Curved und 4K
Da die 6800XT 2,300 Ghz da an die Grenzen stösst.
aber eben auch der Preis welcher in Anderen Ländern weitaus Billiger daherkommt als bei Euch in Germany!

Habe den Mateview GT mit VA Panel als Übergang ... und bräuchte auch KEIN G-Sync Modul beim Alienware!
 
Zuletzt bearbeitet:
Von daher kann es technisch noch nichts besseres geben.

Doch, kann es. Grundsätzlich beschweren sich die meisten Leute ja auch nicht über das Panel an sich, sondern eben um solch banale Dinge wie den Lüfter, ein veraltetes G-Sync Modul, Kratzer auf dem Display, schlechte Kalibrierungsoptionen usw.. Was das Panel angeht ist ja mehr oder weniger nur das Subpixel-Layout fragwürdig. Aber gerade die anderen Sachen hätte Dell wesentlich besser machen müssen.


Da kommt garantiert noch was von Samsung selbst, Asus und co...

Der Samsung QD-OLED Monitor soll ja irgendwann im Sommer kommen. Dann eben ohne G-Sync Modul. Dementsprechend dürfte der dann lüfterlos sein und auch in Sachen HDMI Ports nicht kastriert sein.

Funktioniert normales gsync / kompatible dann nicht in HDR?

Klar tut es das. NVIDIA will ja aber natürlich die Module verkaufen. Da darf man dann bei den anderen G-Sync Stickern ja nicht gleich alles erzählen.
 
Der Samsung QD-OLED Monitor soll ja irgendwann im Sommer kommen. Dann eben ohne G-Sync Modul. Dementsprechend dürfte der dann lüfterlos sein und auch in Sachen HDMI Ports nicht kastriert sein.
Das dachte ich auch mal, aber es scheint nicht klar zu sein. Der Samsung wird auch mit G-Sync Ultimate in Verbindung gebracht:


Wobei ich es grundsätzlich gut finde, ich will ja ein G-Sync Modul. Nur scheinen sich die Hersteller unfassbar schwer zu tun eine brauchbare Kühlung zu konstruieren… dabei verballert das Teil nur ein paar popelige Watt :rolleyes:
 
Schon witzig wie hier immer noch viele an UWQHD festhalten während 4k geiler ist und immer mehr zum Standard wird, spätestens mit Lovelace. Bitte bringt endlich 5xxx x 2160p Bildschirme damit auch mal die Besserverdiener die gute Hardware haben was davon haben
 
Es ist der erste OLED seiner Art. Von daher kann es technisch noch nichts besseres geben. Der Markt ist noch Jung. Da kommt garantiert noch was von Samsung selbst, Asus und co...

Der einzige OLED Monitor der mir nur einfällt ist einer von LG und der ist irgendwo bei 3 Scheinen und hat sogut wie keine Features.


Aber was anderes. Das gsync ultimate wird ja mit HDR beworben. Funktioniert normales gsync / kompatible dann nicht in HDR?
Ich weiß ehrlich gesagt nicht wieso das so beworben wird. Ich nutze bei meinem CX48 HDR und Gsync ohne Probleme zur selben Zeit. Und das ging auch vorher schon an meinem 43 Zoll Acer, der ebenfalls kein Gsync Ultimate hatte. Eventuell trifft das nur auf Monitore zu, die das "normale" Gsync Modul haben. Mein Acer und jetzt auch die LG TVs sind ja nur Gsync compatible, haben also wahrscheinlich gar kein Modul.
 
Schon witzig wie hier immer noch viele an UWQHD festhalten während 4k geiler ist und immer mehr zum Standard wird, spätestens mit Lovelace.
Naja mal nicht übertreiben. Eine 3090 ist mehr als an der Kotzgrenze bei UHD wenn noch spielbare FPS bei rauskommen sollen. Das wird mit der 4090 bei der nächsten Spielegeneration dann auch nicht viel anders sein.

5160x2160 würde ich aber auch kaufen, nur 16:9 tu ich mir nie wieder an.
 
Echtes Gsync, also mit Modul, ist gefühlt noch mal eine Ecke smoother.

Hatte die letzten Monate ca 8-9 Monitore hier, von 1080/390Hz über 1440/270Hz bis hin zu 2160/144Hz.

Dabei waren Monitore mit Gsync Ultimate, also mit Modul, als auch welche mit Freesync Premium (kein Modul, trotzdem Gsync).

Ich bilde mir glaube ich nicht nur ein, dass ich die Monitore mit einem Modul als eine Kleinigkeit smoother empfand.

Ja, HDR mit Sync (Freesync/Gsync) geht auch ohne Modul, aber mit Modul ist glaube ich geschmeidiger, mal von der Gsync Range abgesehen.
 
Zuletzt bearbeitet:
Das würde zumindest das Problem mit meinem LG OLED erklären. Danke ✌️
Welches Problem? HDR, gsync funzt ohne Probleme mit dem LG 42C2 kann man auch gut im Game Menü sehen vom LG. Das einzige was ist, die gsync Range ist größer beim AW. Wegen des ultimate Moduls. 1-175hz. Das mit HDR und gsync ist nur ne Marketing Folie von NVIDIA.
 
Eine 3090 ist mehr als an der Kotzgrenze bei UHD wenn noch spielbare FPS bei rauskommen sollen. Das wird mit 4090 bei der nächsten Spielegeneration dann auch nicht viel anders sein.
Findest du? Sehe das komplett anders:
Habe bei 4K mit meiner 3090 eigentlich fast bei jedem Game mindestens 60Fps und alles ist auf Anschlag inkl RT ohne DLSS in 4K.
Und Doom Eternal zb läuft auch sehr gerne mit über 100Fps.

Und klar wird das mit einer 4090 dann noch besser und dann gehen auch extrem anspruchsvolle Spiele wie Cyberpunk und Dying light 2 ohne DLSS mit RT mit 4k@60Fps.
 
Ja. 60 FPS sind für mich vollkommen inakzeptabel, das ist Konsolenlevel. Und Doom läuft auch auf nem Toaster.

Aber lieber btt.
 
Cyberpunk ohne DLSS satte 17-19 FPS in 4K

Selbst in 3440x1440 sind’s ohne DLSS nur magere 35 FPS

Ist sicher eine Ausnahme, aber zu sagen ich bin Besserverdiener mit meiner 3090 und kann deshalb 4K zocken ist halt auch nicht ganz richtig.
 
für 60fps kauf ich mir kein175hz panel :fresse:
 
selbst uwqhd ist die 3080ti schon grenzwertig hier :) also nix 4k :d
 
Cyberpunk ohne DLSS satte 17-19 FPS in 4K

Selbst in 3440x1440 sind’s ohne DLSS nur magere 35 FPS

Ist sicher eine Ausnahme, aber zu sagen ich bin Besserverdiener mit meiner 3090 und kann deshalb 4K zocken ist halt auch nicht ganz richtig.

Ok, Formulierungen wir es so. Ich kann für mich persönlich sagen, das die 3090 für mich, für 4K und 21:9, „aktuell“ genug Leistung erbringt. Ansonsten reduziere ich kleine Details. Mal ehrlich. Jedes Spiel wird auf die aktuelle Grafikgeneration zugeschnitten vorm Launch. Die könnten auch sowas wie früher Far Cry einstellen. Es würd überall nur ruckeln. Nach oben hin, gibt es kein Limit. Sieht man an den ganzen Grafik Mods. Ich find es aktuell ausreichend.

Ich hätte übrigens nicht gedacht das so viele den AW wieder zurück schicken oder verkaufen.
 
Was hier wieder vom Zaun gebrochen wird wegen 4k und zu wenig FPS. Leute! Ich taddel mit 3080 und 5900CPU in 4K ohne Probleme. Cyberpunk läuft mit 55 FPS auf vollen Anschlag.

Und wie oft noch, man kann den C2 in 21:9 oder 32:9 taddeln! Dadurch ändert sich auch die Auflösung wegen der veränderten Darstellung. Finde VRR viel smoother als Gsync.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh