Alienware AW3225QF und AW2725DF: Neue OLED-Displays für 2024

lulz, hatte ihn am port nahe am mb, jetzt mit dem weitesten ist der "compatible" ... :rolleyes2:
das ist wohl der "primary" Port.... wenn man einen anderen benutzt kann es auch sein, dass er aus dem Standby auf 120Hz geht laut reddit :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wo wir schon bei Kabel sind, hab’s dieses Mal schön gemacht, inkl. dem Deckel hinten am Display sowie weißem Kabelschlauch etc., damit es auch durchs Aquarium schön aussieht 😅 Aquarium hat abends eine Sonnenuntergang und Mond Beleuchtung, dazu blauer LED Bluetooth Strip am Monitor, leuchtets schön blau abends :ROFLMAO:

IMG_0341.jpeg

IMG_0342.jpeg

IMG_0343.jpeg
IMG_0344.jpeg
 
Die einen machen Abends Blaulicht Filter an allen Geräten an, die anderen beleuchten das ganze Zimmer blau :fresse:
 
Ich glaub ich hab das erste mal VRR Flicker gesehen.
COD hatte beim Start Shader Compiling gemacht und dementsprechend schlecht waren die Frametimes und FPS.
Bildschirm hat ordentlich geflackert.
Danach war alles gut und auch im Game selbst nix bemerkt.
 
Ich glaub ich hab das erste mal VRR Flicker gesehen.
COD hatte beim Start Shader Compiling gemacht und dementsprechend schlecht waren die Frametimes und FPS.
Bildschirm hat ordentlich geflackert.
Danach war alles gut und auch im Game selbst nix bemerkt.
Vielleicht hat das was mit der VRR Range zu tun, wenn die Bilder unter 20 FPS gehen? Bereich von 20-240 soll lt Ratings abgedeckt sein.
 
 
@EleCtricStream
Mit dem vrr Flickering ist was anderes gemeint
Ich hatte festgestellt, wenn ich mit der Maus auf die geöffnete xbox Fläche gehe, flackert der graue Hintergrund BEI AKTIVIERTEM Gsync
Wenn ich Gsync ausgeschaltet hatte, wars weg
Daraufhin bin ich auf hdmi 2.1 umgestiegen und es war weg bei aktiviertem gsync
Das war beim Oled g9 und beim DWF
Es gibt gibt auch einen Flicker Test, da wars ganz deutlich
 
Zuletzt bearbeitet:
Ah okay ein interessantes Phänomen, zum Glück hast das so in den Griff bekommen, würde mich auch nerven.
 
Vielleicht hat das was mit der VRR Range zu tun, wenn die Bilder unter 20 FPS gehen? Bereich von 20-240 soll lt Ratings abgedeckt sein.

FPS gingen von 30 bis 120. Denke es waren aber eher die 1% Lows die durch die unsaubere Frametime kam.

Ich würde das mal mit HDMI testen.
Also Shader neu laden und vorher auf HDMI wechseln
 
Bin gespannt :) .

Gerade eben geschaut:
In Produktion und das Lieferdatum (13.03) sollte eingehalten werden :drool:
 
Bin gespannt :) .

Gerade eben geschaut:
In Produktion und das Lieferdatum (13.03) sollte eingehalten werden :drool:
dann kommt er normal paar Tage früher :) bei mir war glaub 2 Tage in Produktion. Danach direkt versandt und schon in Bochum :)
 
Bin gespannt :) .

Gerade eben geschaut:
In Produktion und das Lieferdatum (13.03) sollte eingehalten werden :drool:
Bei mir war Lieferdatum 13.3

Wurde aber bereits gestern verschickt.

😀

Da bin ich echt mal gespannt ob der besser ist wie mein 34 dwf...
 
Vielleicht wäre es ja dann am Samstag schon soweit.
Ist mein erster OLED Monitor, konnte mir bei nem Kumpel die Qualität bei einem Ultra Gear 27 OLED mal anschauen und war nachhaltig beeindruckt.
 
Habe mein 3225QF jetzt seit knapp über 2 Wochen und heute geht mein Joystick Button nur noch zu 50%...
Press + Hoch & Runter geht noch, aber rechts und links geht nicht mehr...Neustart und reset hat nix gebracht... :/
Kann halt noch alles übern Dell Display Manager einstellen..
 
Anmelden und austauschen lassen. Laut meinem Bruder haben die nur momentan garkeine Ersatzgeräte da.
 
Anmelden und austauschen lassen. Laut meinem Bruder haben die nur momentan garkeine Ersatzgeräte da.
Jaa, werde morgen mal bei denen anrufen, da ja leider dieses Garantie Serviceportal Problem noch nicht ganz gelöst ist :d Wenn die mir irgendwann nen neuen zuschicken können, dann ist das ja kein Problem, solange ich bis dahin den jetzigen behalten darf. Muss zum Glück eh nicht ins OSD momentan und wenn dann mach ichs halt übern Display Manager.
 
Ich spiele ja jetzt schon ein paar Tage, der Inputlag ist echt extrem krass. Glaube nicht, dass ich schon mal ein schnelleres Display hatte. Richtig gut für comp!
 
Das du zufrieden bist will schon was heißen 😅
 
Ich spiele ja jetzt schon ein paar Tage, der Inputlag ist echt extrem krass. Glaube nicht, dass ich schon mal ein schnelleres Display hatte. Richtig gut für comp!
Wie hast du dein Pubg eingestellt? :sneaky: Wie beim 27er mit G-Sync + Fast-Sync?
 
Zuletzt bearbeitet:
Habe Tiny11 installed, weil das letzte Windows Vanilla Update irgendwie eine Art Lag gebracht hat, das man nicht los wird. Irgendwas is da buggy (Kumpel hat das selbe Feeling). Ergo alten Build mit Tiny11.

Dazu div Optimierungen vorgenommen, HPET bzw QPC, ein Haufen Regedit Fixes wie Input Data Warteschlangen und Interrupts angepasst etc etc, dieser Tage echt lange in der Registry rumgefummelt und durch div Guides gewurstelt.

Ein tiny Windows maximalist optimiert auf minimal Inputlag.

Der Monitor läuft für PUBG im „FPS“ Mode mit Level 1 Black EQ und deaktiviertem DV bzw HDR Off. Gsync für PUBG deaktiviert, Vsync Off. PUBG minimal Grafik in 1080p.

Razer Viper V2 auf 8K (Wireless) mit 2000DPI auf einem Glas Mauspad mit ICE Skates.

5.5Ghz 13700K mit 4266Mhz RAM mit maximal angezogenen Subtimings. 4090 undervolted mit 2500Mhz @ 0.9v, die langweilt sich bei PUBG so ohnehin.

DAS alles, die Summe aus all diesen Einstellungen und Optimierungen auf dieser Hardware erzeugt ein Mausgefühl auf dem 3225QF, sowas hab ich noch nicht erlebt.

Gsync + Fast war eine Notlösung die den irgendwie mit einer unfertigen bzw buggy Firmware versehenen 2725DF den ich seinerzeit eben auch mit dem komisch laggy Windows Update genutzt habe, nutzbar machte. (Würde den 2725DF gerne noch mal mit dem aktuellen OS nutzen um zu sehen wie er sich da jetzt schlägt)

Habe mir heute Abend mal Baldurs Gate gegönnt, 4K nativ (kein DLSS) mit HDR und DLAA auf dem 32“ OLED ist ein Augenschmaus der anderen Art. Was mich so ungemein freut, dass diese SinglePlayer Games neben dem 4K 32“ OLED auch endlich wieder Gebrauch meines High End Audio Setups machen. PUBG lief die letzten Monate neben IPS immer auf den InEars. Eh Perlen vor die Säue die IE600 für PUBG zu nutzen… Jetzt laufen die ifi Büchsen wieder mit den Neumann und einem 10“ Sub. Mehr High End Gaming Experience geht nicht. Maximale Bild und Sound Qualität. Baldurs Gate ist so ein pures Erlebnis.

PUBG auf competitive ist das Eine, oft fuckt einen das Game auch nur ab, deshalb einfach mal zurücklehnen und genießen, das hatte ich lange nicht mehr und nie auf so einem qualitativ hochwertigen Level. Die Kombination aus bestem Bild und Ton und einem guten Single Player Spiel wie BG3, aber trotzdem extrem gut comp Gamen können -> Perfekt 👌

Ein Traum Monitor diese neuen 32“ 4K OLEDs. Klar, mehr Herz wären in comp nice to have (hab ehrlich gesagt etwas Angst vor dem Coating des Dual WOLED, siehe AQDM 🤮), aber mit dem aktuellen Setup kann ich gut und gerne leben ohne das mich irgendein anderes Stück Hardware reizt (CPUs und GPUs mal außen vor).
 
Zuletzt bearbeitet:
Um mal wieder bisschen Feuer in die HDMI vs DP Debate zu geben: In meiner Umgebung ist HDMI 2.1 deutlich anfälliger für Störsignale als DP. Ich hab halt den PC neben dem Tisch und nen höhenverstellbaren großen Tisch + Monitorarm, da brauch ich ein 5m Kabel. Hab hier verschiedene (höherpreisige) HDMI Kabel, die alle, trotz Zertifizierung, manchmal einfach Bildaussetzer (schwarzer Bildschirm) haben. Erst ein optisches HDMI Kabel, für damals 90€ oder so, hat Abhilfe geschafft, wobei damit teilweise beim starten des Rechners ein Grünschleier überm Bild war und dann neugestartet werden musste. Mit dem ersten DP Kabel von Kabeldirekt für 30€ lief direkt alles problemlos (hab auch HDMI Kabel von denen, die Probleme machen)

Ach und Samsung hat mir für meinen Neo G8 den kompletten Kaufpreis erstattet, der hat, wenn er länger an war, angefangen sowas wie flackernde "ghost" Fenster entwickelt. Heißt es sah aus als wäre da ein weißes Fenster mit 10% Transparenz über manche Stellen des Bildes, das noch dazu flackert. Also 1280€, -950€ für den Dell, hab ich also den besseren Monitor und 330€ "Gewinn". Eigentlich selbst überasscht, weil Samsung Garantie bei Fernsehern vor 2 Jahren kompletter Krebs war und es 1 Jahr und 2 Reparaturversuche bis zur Erstattung gebraucht hat.
 
Das ist nicht nur das Anti Glare Coating, sondern auch die Hochkontrastschicht. Der eigentliche Grund, weshalb man nämlich spezielle Bildschirmreiniger verwenden soll und nicht den 08/15 Oberflächenreiniger, da diese Schicht sonst beschädigt wird. Der sagt zwar, dass es besser aussieht, aber das ist pures Copium.
Beitrag automatisch zusammengeführt:

Du wolltest einen Beweis haben, leider finde ich im Moment nicht die einzelnen Posts wo sich User über DSC beschwert haben, was ich aber gefunden habe waren Studien zu DSC, man hat den Algorithmus soweit optimiert, dass man das Ergebnis der Kompression Menschen vorlegt und diese das dann bewerten lässt. Unter Umständen kann man Artefakte erkennen, diese hängen auch von der verwendeten Bandbreite oder Kompressionsstärke ab. Wenn ich jetzt rein pragmatisch denke, dann ist mehr Bandbreite eigentlich besser, da mehr Spielraum für die Daten zur Verfügung steht. Zudem sollte die Kompression auch schneller erfolgen was sich auch minimal auf die allgemeine Geschwindigkeit auswirken dürfte. Wenn jemand sagt er merkt keinen Qualitätsverlust ist das okay, aber pauschal zu sagen es gibt keinen Verlust ist auch nicht richtig. Natürlich ist es eine ständige Weiterentwicklung, aber ich glaube, bei der Vielzahl der Anwender, die diese Technik nutzen, wird es immer Leute geben, denen es eventuell doch auffällt. Im Endeffekt ist es immer eine Optimierung und die Entwicklung ist noch lange nicht abgeschlossen.

Hier eine interessante Studie mit HDR-Inhalten:

Die Studie "Sudhama_Allison_Wilcox_2018SID" bietet einen tiefen Einblick in die Leistungsfähigkeit und die Grenzen der VESA Display Stream Compression (DSC), einer fortschrittlichen Kompressionstechnologie, die speziell für die Übertragung hochauflösender HDR-Bilder entwickelt wurde. Mithilfe des ISO/IEC 29170-2 Flicker-Paradigmas wurde das Ziel verfolgt, die Schwelle zu bestimmen, an der Kompressionsartefakte vom menschlichen Auge erkannt werden können. Dieses Verfahren offenbarte die beeindruckende Fähigkeit von DSC, eine Kompression zu ermöglichen, die unter vielen Umständen als visuell verlustfrei gilt.

Die Gruppe der 176 Teilnehmer der York University, die einer umfassenden visuellen Vorscreening-Prüfung unterzogen wurden, war ein kritischer Faktor für die Glaubwürdigkeit der Studienergebnisse. Trotz des Ausschlusses von sechzehn Teilnehmern aufgrund vordefinierter Kriterien, verdeutlichen die Daten ein überzeugendes Bild: In vielen Fällen konnte die Mehrheit der Testpersonen keinen Unterschied zwischen komprimierten und originalen Inhalten feststellen, was auf eine hohe Effektivität der DSC-Technologie hindeutet.

Jedoch ist es entscheidend zu betonen, dass die Studie auch Szenarien aufgezeigt hat, in denen DSC zu visuell wahrnehmbaren Qualitätseinbußen führt. So weisen bestimmte Bilder, darunter das auffällige Beispiel "Martini", und weitere wie "LasVegas", "Lantern", "Flamingo", "Fishing", "Clown" und "Beerfest" visuelle Verluste auf, selbst bei den höherwertigen Kompressionsraten von 4:4:4 8bpp und 4:4:4 10bpp. Diese Ergebnisse sind besonders relevant, da sie aufzeigen, dass die Leistung von DSC stark vom Inhalt des Bildmaterials abhängt und nicht in jedem Fall als universell verlustfrei angesehen werden kann.

Dieses Wissen erweitert das Verständnis der DSC-Kompression und unterstreicht die Wichtigkeit einer differenzierten Anwendung der Technologie. Es zeigt, dass, obwohl DSC viele Vorteile bietet, indem es die Bildqualität in vielen Kontexten effektiv bewahrt, es auch bestimmte Szenarien gibt, in denen die Qualität leiden kann. Die Herausforderung besteht darin, diese Grenzen zu erkennen und zu bewerten, um sicherzustellen, dass die Anwendung von DSC die Bedürfnisse und Erwartungen der Endnutzer erfüllt und gleichzeitig die Integrität der visuellen Erfahrung gewahrt bleibt.
Deine Studie sagt genau das Gegenteil. Die Ergebnisse decken sich mit vorherigen SDR Studien und bei der 10 Bit Kompression ist nicht ein einziges Bild als visuell lossy einstufbar. Ich kann nicht mal eine Textpassage erkennen, aus die deine Deutsche Übersetzung auch nur ansatzweise hervorgehen könnte. Kannst du mir mal bitte die Quelle für den Text nennen?
 
Zuletzt bearbeitet:
Habe Tiny11 installed, weil das letzte Windows Vanilla Update irgendwie eine Art Lag gebracht hat, das man nicht los wird. Irgendwas is da buggy (Kumpel hat das selbe Feeling). Ergo alten Build mit Tiny11.

Dazu div Optimierungen vorgenommen, HPET bzw QPC, ein Haufen Regedit Fixes wie Input Data Warteschlangen und Interrupts angepasst etc etc, dieser Tage echt lange in der Registry rumgefummelt und durch div Guides gewurstelt.

Ein tiny Windows maximalist optimiert auf minimal Inputlag.

Der Monitor läuft für PUBG im „FPS“ Mode mit Level 1 Black EQ und deaktiviertem DV bzw HDR Off. Gsync für PUBG deaktiviert, Vsync Off. PUBG minimal Grafik in 1080p.

Razer Viper V2 auf 8K (Wireless) mit 2000DPI auf einem Glas Mauspad mit ICE Skates.

5.5Ghz 13700K mit 4266Mhz RAM mit maximal angezogenen Subtimings. 4090 undervolted mit 2500Mhz @ 0.9v, die langweilt sich bei PUBG so ohnehin.

DAS alles, die Summe aus all diesen Einstellungen und Optimierungen auf dieser Hardware erzeugt ein Mausgefühl auf dem 3225QF, sowas hab ich noch nicht erlebt.

Gsync + Fast war eine Notlösung die den irgendwie mit einer unfertigen bzw buggy Firmware versehenen 2725DF den ich seinerzeit eben auch mit dem komisch laggy Windows Update genutzt habe, nutzbar machte. (Würde den 2725DF gerne noch mal mit dem aktuellen OS nutzen um zu sehen wie er sich da jetzt schlägt)

Habe mir heute Abend mal Baldurs Gate gegönnt, 4K nativ (kein DLSS) mit HDR und DLAA auf dem 32“ OLED ist ein Augenschmaus der anderen Art. Was mich so ungemein freut, dass diese SinglePlayer Games neben dem 4K 32“ OLED auch endlich wieder Gebrauch meines High End Audio Setups machen. PUBG lief die letzten Monate neben IPS immer auf den InEars. Eh Perlen vor die Säue die IE600 für PUBG zu nutzen… Jetzt laufen die ifi Büchsen wieder mit den Neumann und einem 10“ Sub. Mehr High End Gaming Experience geht nicht. Maximale Bild und Sound Qualität. Baldurs Gate ist so ein pures Erlebnis.

PUBG auf competitive ist das Eine, oft fuckt einen das Game auch nur ab, deshalb einfach mal zurücklehnen und genießen, das hatte ich lange nicht mehr und nie auf so einem qualitativ hochwertigen Level. Die Kombination aus bestem Bild und Ton und einem guten Single Player Spiel wie BG3, aber trotzdem extrem gut comp Gamen können -> Perfekt 👌

Ein Traum Monitor diese neuen 32“ 4K OLEDs. Klar, mehr Herz wären in comp nice to have (hab ehrlich gesagt etwas Angst vor dem Coating des Dual WOLED, siehe AQDM 🤮), aber mit dem aktuellen Setup kann ich gut und gerne leben ohne das mich irgendein anderes Stück Hardware reizt (CPUs und GPUs mal außen vor).

Freut mich, dass du zufrieden bist!
Auch cool, dass du für dich dein Windows Problem gelöst hast. Der aktuell schnellste OLED dürfte der MSI 360Hz sein, aber die 4K240Hz sind so schnell und direkt, dass man es sich bei einem Single Monitor setup sehr gut überlegen sollte ob man wirklich auf den besseren Allrounder verzichten mag…
 
Enabling "Legacy Device" under the console mode settings disables DSC. Unfortunately, this caps the display to 10bit 120hz and you are locked out of picture profiles. Was able to use DSR after doing this. Tested using hdmi 2.1 w/ 4080. Come on dell...

Naja - das Display ist doch eh 10bit oder nicht? Dazu: Auch mit HDMI 2.1 geht ohne DSC eben schon 4k@160Hz nicht mehr. Somit ist der vom Monitor standardmäßig unterstützte Modus mit 4k@120Hz was eben maximal einstellbar ist ohne definieren einer eigenen Auflösung über den GPU-Treiber.
 
Das ist nicht nur das Anti Glare Coating, sondern auch die Hochkontrastschicht. Der eigentliche Grund, weshalb man nämlich spezielle Bildschirmreiniger verwenden soll und nicht den 08/15 Oberflächenreiniger, da diese Schicht sonst beschädigt wird. Der sagt zwar, dass es besser aussieht, aber das ist pures Copium.
Beitrag automatisch zusammengeführt:


Deine Studie sagt genau das Gegenteil. Die Ergebnisse decken sich mit vorherigen SDR Studien und bei der 10 Bit Kompression ist nicht ein einziges Bild als visuell lossy einstufbar. Ich kann nicht mal eine Textpassage erkennen, aus die deine Deutsche Übersetzung auch nur ansatzweise hervorgehen könnte. Kannst du mir mal bitte die Quelle für den Text nennen?
Das Martini-Bild hat jedoch einen Grenzwert unter 10 bpp, d.h. es wurde nicht von allen Testteilnehmern als verlustfrei wahrgenommen. Es liegt also an der Grenze,

Es beweist, dass DSC in den früheren Versionen durchaus noch erkennbar war, vor allem bei 8 bpp bei der Vielzahl der Nutzer und unterschiedlichen Szenarien könnte es daher trotz ständiger Verbesserung der Technik dennoch vereinzelt zu Auffälligkeiten kommen, Achtung These! Auch bei DP stößt die Technik langsam an ihre Grenzen, ist nicht sogar bei DP 1.4@4K@240Hz die Grenze erreicht?

Ich meine, die Industrie weiß das mittlerweile auch, wieso werden dann bei jedem neuen Monitor mehr HDMI 2.1 Anschlüsse verbaut als DP 1.4. Weil man eben neben den Konsolen, die auf HDMI Standards angewiesen sind, auch dem PC diese Anschlussart ermöglichen möchte, das wird schon seine Gründe haben. Und warum die Industrie jetzt in Zukunft DP 2.1 favorisiert, das wird auch Gründe haben.

Mir wird diese Diskussion auch zu müßig, wie schon mehrfach erwähnt, soll jeder seine bevorzugte Anschlussart nehmen und damit glücklich werden.

Zusammenfassung hier: Mit HDMI 2.1 gibt es wohl weniger VRR Flicker, The Darkness berichtet von Störsignalen unter HDMI, was auch sein könnte, DP gilt allgemein als "robuster". Die Probleme mit HDMI 2.1 hatte ich damals nicht, aber ein anderes Phänomen, dass ich mit HDMI 2.1 nicht mehr ins Bios kam, Abhilfe brachte damals am Monitor die temporäre Einstellung auf HDMI 1+.

Generell bin ich aber mit HDMI 2.1 besser gefahren, zumindest bei meinem damaligen Samsung konnte ich mit Cyberpunk und HDR10+ wirklich eine Verbesserung des Bildes feststellen,
Die Helligkeit bzw. der Grauschleier war fast weg, komischerweise war die Option auch unter DP aktivierbar, hatte dort aber keine Auswirkung. Deckt sich mit dem Video von Gaming-Tech, eventuell lag es daran das diese Option grundsätzlich nur auf "speziellen" Samsung Geräten wirklich funktioniert oder es lag am Testszenraio wer weiß. Aber die Aussage das HDR10+ nichts bringt und nur ein Marketing Gag ist, kann ich persönlich so nicht bestätigen.

Wenn Displayport 2.1 kommt, wird das mein bevorzugter Anschluss sein. Bis dahin ziehe ich den etwas neueren HDMI 2.1 vor, aber wie gesagt, jeder kann das tun, was er will.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh