Alienware AW3225QF und AW2725DF: Neue OLED-Displays für 2024

Hast du HDR10+ zur Auswahl mit dem AW3225QF in Cyberpunk?
Also ich nicht
Aber als ich den Odyssey oled g9 hatte schon
Könnte daran liegen dass HD10+ Samsung Format ist
Hatte da eben wegen des Gsync Oled flickerings hdmi2.1 verwendet, damit das nicht mehr so stark sichtbar war bei grauen Flächen
Beitrag automatisch zusammengeführt:

sei denn du brauchst eARC
Das ist nur für Audio, nicht für Bild
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist nur für Audio, nicht für Bild
Ja und DP kann kein eARC soviel ich weiß.
Beitrag automatisch zusammengeführt:

Doch mittlerweile schon afaik :d
Laut DF sieht das wohl aus wie das ganz normale HDR? Also eher marketing-gag? Mir is eh noch nicht ganz klar ob DV/HDR10+ bei Games überhaupt Sinn macht bzw. funzen kann.
 
Hab gestern HDR10+ in CP auswählen können.
 
Kein FG und per DP angeschlossen
 
Also ich nicht
Aber als ich den Odyssey oled g9 hatte schon
Könnte daran liegen dass HD10+ Samsung Format ist
Hatte da eben wegen des Gsync Oled flickerings hdmi2.1 verwendet, damit das nicht mehr so stark sichtbar war bei grauen Flächen
Beitrag automatisch zusammengeführt:


Das ist nur für Audio, nicht für Bild
Kurze frage, kann mal jemand ein Video zeigen wie das G-sync Oled flickern aussieht und wann es eintritt ?
das würde meine kaufentscheidung für das Teil beeinträchtigen
 
Btw. ist HDR10+ im Grunde das selbe wie Dolby Vision, nur halt von Samsung entwickelt. Es gibt kaum HDR10+ Inhalte, vorallem für den PC.
Der AW3225QF unterstützt aber eh "nur" Dolby Vision was beim PC bis dato auch kaum verwendet wird.

Zumindest in der Theorie steht Dolby weiterhin über HDR10+.

Ja, HDR10+ hat auch dynamische MetaDaten, was normales HDR10 nicht hat, aber Dolby bietet 12Bit, HDR10+ bleibt wie normales HDR10 auf 10Bit.

IMG_0326.jpeg


Die DP vs HDMI Diskussion ist müßig. Seit jeher nutze ich DSC auf DP, ging bis dato gar nicht anders wegen Gsync. Nie gabs Probleme. Nutze ein hochwertiges 3m DP Kabel, damit habe ich weder Probleme noch würde ich einer HDMI Verbindung eine bessere Bildqualität zuschrieben.

Aber das kann ja jeder halten wie er will. Wem HDMI ein besseres Gefühl gibt, bitte. Ein gutes HDMI2.1 Kabel kostet auch nur 20€, darüber sollten wir hier nicht streiten..

Das „Problem“ ist ja eher DSC per se, nicht über welche Leitung es läuft, wenn ihr mich fragt.
 
Nein es ist nicht mir egal sondern ganz objektiv ist es egal ob du, in Hinblick auf DSC, nun HDMI oder DP verwendest.

Dolby Vision geht übrigens auch per DP. Verstehe den Rest von deinem Post nicht ganz. 🤷‍♂️

Ja mit DSC geht das mittlerweile schon muss ich zugeben.. ist eben nur nicht wie bei HDMI 2.1 in HW gegossen.
 
Zumindest in der Theorie steht Dolby weiterhin über HDR10+.

Ja, HDR10+ hat auch dynamische MetaDaten, was normales HDR10 nicht hat, aber Dolby bietet 12Bit, HDR10+ bleibt wie normales HDR10 auf 10Bit.

Anhang anzeigen 978232

Die DP vs HDMI Diskussion ist müßig. Seit jeher nutze ich DSC auf DP, ging bis dato gar nicht anders wegen Gsync. Nie gabs Probleme. Nutze ein hochwertiges 3m DP Kabel, damit habe ich weder Probleme noch würde ich einer HDMI Verbindung eine bessere Bildqualität zuschrieben.

Aber das kann ja jeder halten wie er will. Wem HDMI ein besseres Gefühl gibt, bitte. Ein gutes HDMI2.1 Kabel kostet auch nur 20€, darüber sollten wir hier nicht streiten..

Das „Problem“ ist ja eher DSC per se, nicht über welche Leitung es läuft, wenn ihr mich fragt.

Mittlerweile geht VRR also Gsync ja mit HDMI 2.1 solange AdaptiveSync oder eine Ähnliche Funktion im Monitor selbst aktiviert ist.
Beitrag automatisch zusammengeführt:

Kein FG und per DP angeschlossen
Hast du denn gemerkt das iwas am Kontrast/Helligkeit verändert hatte, bei mir war die Option unter DP damals zwar auch vorhanden, aber mit HDMI 2.1 änderte sich auch sofort die Farbgebung des Menüs und der allgemeine Grau-Schleier war weg. Gut möglich das dies aber mit dem Dell sowieso nicht der Fall ist.
 
Zuletzt bearbeitet:
Okay ich hab FrameGen an, dann verschwindet die Option damit vielleicht einfach....
 
Ging bei meinem Samsung damals auch mit Framegen halt mit 2.1..
Ja aber eine andere Erklärung dafür, dass ich die Option bisher nicht mal gesehen habe, hab ich nicht :d wenn @viohlenze auch DP nutzt.

Das Game nervt mich aber sowieso, Ray Reconstruction ghosted einfach immernoch so übertrieben vor allem mit Pathtracing aktiv.
 
Bei einigen kam der Schalter erst mit Neuinstallation des Treibers. Scheint der Empfindlich zu sein. Aber wie gesagt, laut digital foundry konnten die keinen unterschied zwischen HDR und HDR10+ feststellen in Cyberpunk. Daher wohl eh egal.
 
Habe mir bei mir auch grad eben mal geguckt.

Bei mir steht ebenfalls das das Gerät nicht bestätigt wurde? (siehe Screenshot unten)

Läuft bei mir aber seit knapp zwei Wochen ohne Probleme. Zumindest ist mir kein Tearing oder ähnlich aufgefallen.

Ich glaub die Frage gabs schon mal aber:
Nutzt ihr alle DP oder HDMI?

Anhang anzeigen 977952

Steht bei mir auch so da.
Angeschlossen per DP
 
Sorry aber "in der Praxis liest man immer wieder, dass dies doch auffällt." ist Quatsch. Wenn es harte Beweise für schlechtere Bildquali durch DSC geben würde dann wären die hinlänglich bekannt. Keine Ahnung wo du das gelesen haben willst.

Auch die dynamische Komprimierung ist mir neu. Ich kenne nur DSC 2.0 und 3.0 (1.0 ist atm sinnfrei). Aber kann auch sein, dass ich da nicht gut genug informiert bin.

Wenn du Beweise hast für eine NICHT verlustfreie Kompression dann poste die bitte.

Dieses ganze Gelabber mit "HDMI hat mehr Bandbreite!" ist so müßig da es völlig egal ist.

Du wolltest einen Beweis haben, leider finde ich im Moment nicht die einzelnen Posts wo sich User über DSC beschwert haben, was ich aber gefunden habe waren Studien zu DSC, man hat den Algorithmus soweit optimiert, dass man das Ergebnis der Kompression Menschen vorlegt und diese das dann bewerten lässt. Unter Umständen kann man Artefakte erkennen, diese hängen auch von der verwendeten Bandbreite oder Kompressionsstärke ab. Wenn ich jetzt rein pragmatisch denke, dann ist mehr Bandbreite eigentlich besser, da mehr Spielraum für die Daten zur Verfügung steht. Zudem sollte die Kompression auch schneller erfolgen was sich auch minimal auf die allgemeine Geschwindigkeit auswirken dürfte. Wenn jemand sagt er merkt keinen Qualitätsverlust ist das okay, aber pauschal zu sagen es gibt keinen Verlust ist auch nicht richtig. Natürlich ist es eine ständige Weiterentwicklung, aber ich glaube, bei der Vielzahl der Anwender, die diese Technik nutzen, wird es immer Leute geben, denen es eventuell doch auffällt. Im Endeffekt ist es immer eine Optimierung und die Entwicklung ist noch lange nicht abgeschlossen.

Hier eine interessante Studie mit HDR-Inhalten:

Die Studie "Sudhama_Allison_Wilcox_2018SID" bietet einen tiefen Einblick in die Leistungsfähigkeit und die Grenzen der VESA Display Stream Compression (DSC), einer fortschrittlichen Kompressionstechnologie, die speziell für die Übertragung hochauflösender HDR-Bilder entwickelt wurde. Mithilfe des ISO/IEC 29170-2 Flicker-Paradigmas wurde das Ziel verfolgt, die Schwelle zu bestimmen, an der Kompressionsartefakte vom menschlichen Auge erkannt werden können. Dieses Verfahren offenbarte die beeindruckende Fähigkeit von DSC, eine Kompression zu ermöglichen, die unter vielen Umständen als visuell verlustfrei gilt.

Die Gruppe der 176 Teilnehmer der York University, die einer umfassenden visuellen Vorscreening-Prüfung unterzogen wurden, war ein kritischer Faktor für die Glaubwürdigkeit der Studienergebnisse. Trotz des Ausschlusses von sechzehn Teilnehmern aufgrund vordefinierter Kriterien, verdeutlichen die Daten ein überzeugendes Bild: In vielen Fällen konnte die Mehrheit der Testpersonen keinen Unterschied zwischen komprimierten und originalen Inhalten feststellen, was auf eine hohe Effektivität der DSC-Technologie hindeutet.

Jedoch ist es entscheidend zu betonen, dass die Studie auch Szenarien aufgezeigt hat, in denen DSC zu visuell wahrnehmbaren Qualitätseinbußen führt. So weisen bestimmte Bilder, darunter das auffällige Beispiel "Martini", und weitere wie "LasVegas", "Lantern", "Flamingo", "Fishing", "Clown" und "Beerfest" visuelle Verluste auf, selbst bei den höherwertigen Kompressionsraten von 4:4:4 8bpp und 4:4:4 10bpp. Diese Ergebnisse sind besonders relevant, da sie aufzeigen, dass die Leistung von DSC stark vom Inhalt des Bildmaterials abhängt und nicht in jedem Fall als universell verlustfrei angesehen werden kann.

Dieses Wissen erweitert das Verständnis der DSC-Kompression und unterstreicht die Wichtigkeit einer differenzierten Anwendung der Technologie. Es zeigt, dass, obwohl DSC viele Vorteile bietet, indem es die Bildqualität in vielen Kontexten effektiv bewahrt, es auch bestimmte Szenarien gibt, in denen die Qualität leiden kann. Die Herausforderung besteht darin, diese Grenzen zu erkennen und zu bewerten, um sicherzustellen, dass die Anwendung von DSC die Bedürfnisse und Erwartungen der Endnutzer erfüllt und gleichzeitig die Integrität der visuellen Erfahrung gewahrt bleibt.
 
Zuletzt bearbeitet:
Für die MSI Monitore ist ja schon angekündigt, dass es ein Update geben soll durch das man DSC ausschalten kann. (Für DLDSR zum Beispiel)

Ist sowas bei Dell auch schon bekannt?
 
Man kann selbst die Hz oder die Auflösung reduzieren und DLDSR wird aktivierbar. Sofern es der Monitor prinzipiell mitmacht.
Denke so wird es dann auch beim MSI laufen, wäre Nice wenn das beim Alienware auch ginge.

Ohne Verwendung von DSC wird dann HDMI 2.1 obligatorisch, um dann bessere Resultate erzielen zu können.
 
Wenn man viel Glück hat, kann man selbst die Hz oder die Auflösung reduzieren und DLDSR wird aktivierbar. Sofern es der Monitor prinziepell mitmacht.
Ohne Verwendung von DSC wird dann HDMI 2.1 obligatorisch, um dann bessere Resultate erzielen zu können.
Beim Dell und MSI ist glaub standardmäßig DSC immer aktiv selbst bei herabsetzen der HZ.
 
Beim Samsung Neo G7 leider auch so gewesen :cry:
 
Hehe, ich sehe Potential für mehrere 5090er in einem möglichen NV-Link Grid, die dann im Verbund 8K im DLSDR Mode befeuern dürfen... :banana:
DLSDR ist schon nice to have, auch wenn aktuell selbst eine 4090 da schwächeln würde, aber nen Monitor kauft man für länger :)
Beitrag automatisch zusammengeführt:

Geht das mit dem nicht bestätigt mit HDMI weg?
Würde mich auch interessieren.
Aber prinzipiell mal den Gsync-Indikator oben im Treiber unter der Option Display einschalten (für die, die es nicht wissen) und wenn zusätzlich nix flimmert ist es egal was da steht.
 
Zuletzt bearbeitet:
NV spezifiziert wohl generell nur den Display Port hab ich mir sagen lassen.
Von daher wird das bei HDMI wohl bleiben. Ist aber kein Beinbruch.

Ich bin übrigens von DP wieder zurück zu HDMI, weil ich das Gefühl habe damit wird das VRR flackern geringer.
 
Habe mir jetzt mal ein 3m HDMI bestellt ums zu testen, gabs sogar in weiß :d
 
wird auch auto aktiviert hier und es funktioniert auch alles tutti, nur steht da bei mir drunter "selected display is not validated as g-sync compatible" und ich nutze DP

bei mir ist er unter 2. auch nicht als "G-sync Kompatibelität" gelistet... wtf?!
 
@EleCtricStream Die Zusammenfassung stimmt doch so gar nicht. Wenn man sich die Studie durchliest steht da doch was ganz anderes?!

Zitat:

We evaluated the performance of DSC 1.2a and a pre-release
version of VDC-M under various levels of compression, and a
large set of HDR images using the ISO/IEC flicker protocol.
This is the first study to apply these state-of-the-art codecs to
evaluate performance on high-dynamic range content. As
described above, the HDR content was selected to challenge the
codecs, in spite of this both DSC 1.2a and VDC-M performed
very well. This finding is consistent with previous series of
experiments using SDR images.

Hier noch die entsprechende Grafik:

Screenshot 2024-03-06 193447.png


Vielleicht meinen die in der Zusammenfassung VDC-M. Wobei extra darauf hingewiesen wird, dass es eine Pre-Release Version ist. DSC 1.2a hingegen ist bei 4:4:4 (bzw. RGB) und 10bpp (aka HDR) einwandfrei. Zudem scheint auch bei 8bit kein dithering zum Einsatz zu kommen.

Was allerdings zu beachten ist: bpp ist nicht gleichbedeutend mit bpc. Kommt wohl auch daher, dass es hier eher um Bilder statt um Spiele geht.

In der Praxis habe ich jedoch auch noch keinen Beweis gesehen, z.B. mit einem Monitor der einen DSC toggle hat, das ein Spiel mit DSC schlechter aussieht als ohne. Wäre ja mit hochauflösenden Screenshots oder Videos einfach zu realisieren. Diese gibt es jedoch afaik nicht.

Ich kann auch zum Teil verstehen warum manche keine DSC wollen bzw. wenigstens die Möglichkeit auf einen Toggle haben wollen. Mir gehts eher darum die Mär vom bösen DSC zu begraben weil dadurch das Bild schlechter werden würde. OBJEKTIV wird es das eben nicht, also muss sich auch keiner Sorgen darum machen.

Das es ohne DSC noch besser werden kann oder man gewissen ungewünschte Verhaltensweisen (Screen kurz dunkel beim Tabben oder so) unterbinden kann, steht dann auf einem anderen Blatt.
 
wird auch auto aktiviert hier und es funktioniert auch alles tutti, nur steht da bei mir drunter "selected display is not validated as g-sync compatible" und ich nutze DP

bei mir ist er unter 2. auch nicht als "G-sync Kompatibelität" gelistet... wtf?!
An welchem DP ist der Monitor? Ich hab ihn an dem der am weitesten vom Mainboard weg ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh