Alienware AW3225QF und AW2725DF: Neue OLED-Displays für 2024

Rabatt wirst keinen bekommen, die werden dir sagen, Sie können ihn ja zurücksenden.
Habe ich ja auch geschrieben, dass ich davon ausgehe. Und dann würde er nach der Retoure sicherlich einfach an den nächsten Käufer verschickt werden, der ihn womöglich behält. Zumal er nun auch deutlich sauberer ist;).

Vor einigen Jahren hatte der Dell-Kundenservice nicht selten einen Rabatt angeboten in solchen Fällen. Die Zeiten sind aber anscheinend vorbei, was man so liest und hört.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt, ist egal. Scheint aber als ob Dell sich auf DP als Kabel festgelegt hat. Sonst wäre denen das aufgefallen.
Werd daher doch das DP Kabel nehmen.

Grad mal paar Spiele durchgeschaut. Speziell Kena, was für ne grafische Wucht, GoW, die Details. Boah!
 
Stimmt, ist egal. Scheint aber als ob Dell sich auf DP als Kabel festgelegt hat. Sonst wäre denen das aufgefallen.
Werd daher doch das DP Kabel nehmen.

Grad mal paar Spiele durchgeschaut. Speziell Kena, was für ne grafische Wucht, GoW, die Details. Boah!
Ich lasse jetzt Hdmi. Primär aber weil ich keinen Bock habe nochmal alles umzustecken :d
Es funktioniert wie es soll und das ist was zählt!

Viel Spaß mit dem Teil.
Ich erfreue mich immer noch jeden Tag auf Neue über die knackscharfe, farbenfrohe Darstellung 8-)
 
Stimmt, ist egal. Scheint aber als ob Dell sich auf DP als Kabel festgelegt hat. Sonst wäre denen das aufgefallen.
Werd daher doch das DP Kabel nehmen.

Grad mal paar Spiele durchgeschaut. Speziell Kena, was für ne grafische Wucht, GoW, die Details. Boah!

NVIDIA zertifiziert generell nur per DP bei Monitoren. Die LG TVs sind die einzigen Geräte, die ich kenne bei denen es per HDMI zertifiziert ist (Logo, die haben nichts anderes).
Am Ende des Tages spielt es keine Rolle. Ich nutze auch HDMI2.1 aufgrund der höheren Bandbreite. Es gibt auch Leute bei Reddit die gesagt haben, dass das VRR Geflacker in Menüs mit HDMI besser wurde. Naja, muss man halt gucken was einem besser schmeckt.
 
Wie viele Leute sind jetzt eigentlich von nem LG Fernseher auf die 32" Montore runter gegangen?
Und empfehlt ihr den Umstieg? Bin noch am hadern um ehrlich zu sein.
 
Ich hatte ihn am 27.02. erhalten und es war Firmware M2B101 aufgespielt. Hergestellt 12/2023. An der Firmware hätte ich es aber eher weniger festgemacht.
Du kannst mit der Moniinfo. Exe testen, wieviel Zeit er schon gelaufen ist, wenn Du den Verdacht hast, dass es B Ware ist
Beitrag automatisch zusammengeführt:

Übrigens gefällt mir die neue NVIDIA Beta App gar nicht
Drei Spiele damit probiert
Helldivers wird nicht korrekt erkannt, bei Division 2 und Cyberpunk muss zunächst mal richtig editiert werden, damit die unnatürlichen Farben minimiert werden usw
Ohne diese App und mit der Aktivierung der spielinternen HDR Einstellungen ist für mich das Ergebnis besser, auf Anhieb und ohne große Schrauberei.
 
Zuletzt bearbeitet:
Habe die NV App heute auch probiert. Diablo IV.

Auch mir gefällt das Spiel mit seinem eigenen HDR deutlich besser. RTX HDR ist nicht schlecht, aber denke davon profitieren eher Spiele die kein eigenes HDR haben.

Habe Diablo ja mit dem DWF auch gespielt, aber damals war ich vom HDR des Spieles echt enttäuscht. Jetzt mit dem QF muss ich sagen, bin ich ziemlich geflashed vom HDR des Games. Feuer Mage mit HDR1000 ist schon extra lecker. Wie das leuchtet … 😳
 
Du kannst mit der Moniinfo. Exe testen, wieviel Zeit er schon gelaufen ist, wenn Du den Verdacht hast, dass es B Ware ist
Ich würde davon ausgehen wollen, dass sie bei Rückläufern einen Zähler (sofern vorhanden) zurücksetzen würden.
Aber davon abgesehen meinte ich in dem Satz mit B-Ware tatsächliche B-Ware, also zweite Wahl:). Produkte, die zwar neu/unbenutzt sind, aber Fehler (meist optische Mängel an OVP oder der Ware selbst) ab Werk aufweisen.
B-Ware ist es ja definitiv, ob ein Rückläufer jedoch nur reine Spekulation bzw. ein Erklärungsversuch für die Exemplare mit extrem verschmierten und/oder verkratzten Displays.
 
Zumindest stimmt so definitiv die Anzeige "in Produktion nicht". Eventuell bedeutet in Produktion einfach Transport von China ins Lager..

Bzw werde trotz keiner Gsync Zertifizierung für HDMI, HDMI 2.1 verwenden, da mehr Bandbreite und wohl am Ende des Tages nicht ganz so aggresives DSC.

Hatte z.b bei meinem G7 Neo damals festgestellt das nur mit HDMI 2.1 HDR10+ bei cyberpunk funktioniert. Ist also auch eine kompatibilitäts Frage. Im HDMI 2.1 Protokoll ist VRR, dynamisches HDR bzw Dolby Vision fest verankert. Solange Gsync VRR sauber läuft, ist es doch egal ob nur kompatibel erkannt wird.
 
Zuletzt bearbeitet:
Ist es eigentlich normal, dass mein AW2725DF kurzzeitig schwarz flackert, wenn ich den via HDMI angeschlossenen 3. Bildschirm TV LG 55C1 einschalte während mein PC läuft?
Der TV ist zwar dauerthaft mit dem PC via HDMI verbunden aber im Windows i.d.R. deaktiviert.

An der 4090 hängt folgendes:
DP1: Alienware AW2725DF - WQHD - 360Hz
DP2: LG IPS - FHD - 60Hz
HDMI: LG 55C1 - 4k - 120Hz

Ich vermute, dass Sich die Videoausgänge der 4090 "neu sortieren" wenn ein Geräte hinzu kommt. Will auschließen, dass der AW2725DF einen Defekt oder sowas hat.

Danke Euch!
 
Ist ganz normal.
 
DSC ist immer gleich "stark", da der Algorythmus sich nicht mit der verfügbaren Bandbreite ändert.
Das ist nicht ganz richtig, es ist richtig, dass der Algorithmus der gleiche ist. Aber die Kompressionsrate ändert sich, das meinte ich mit Aggressivität.

Es gibt zwei Arten von Kompressionsraten in der DSC:

Eine feste Rate erzeugt eine konstante Datenreduktion, während eine variable Rate die Kompression dynamisch an den Inhalt anpasst.
Soweit ich weiß, wird die variable Rate am meisten, mitunter für Spiele verwendet:

Bei HDMI 2.1 hingegen gibt es aufgrund der höheren Bandbreite mehr Spielraum u.a auch für HDR-Informationen.
In der Theorie heißt es, dass DSC absolut verlustfrei wäre, in der Praxis liest man immer wieder, dass dies doch auffällt.

Ich erinnere mich auch an die Diskussionen damals bei MP3, wo kürzere Songs mit weniger Daten mit 128 Bit vergleichsweise gut klangen und Songs wie Stair-Way to Heaven mit 128 Bit nach Meinung einiger Audiophiler nicht mehr wirklich gut klangen und man auf die nächste Bitrate umstieg, 192 Bit wurde dann als guter Kompromiss für alles angesehen. Der Algorithmus hatte sich dort aber auch nicht geändert, nur die Bitrate wurde generell erhöht.
 
Zuletzt bearbeitet:
Sorry aber "in der Praxis liest man immer wieder, dass dies doch auffällt." ist Quatsch. Wenn es harte Beweise für schlechtere Bildquali durch DSC geben würde dann wären die hinlänglich bekannt. Keine Ahnung wo du das gelesen haben willst.

Auch die dynamische Komprimierung ist mir neu. Ich kenne nur DSC 2.0 und 3.0 (1.0 ist atm sinnfrei). Aber kann auch sein, dass ich da nicht gut genug informiert bin.

Wenn du Beweise hast für eine NICHT verlustfreie Kompression dann poste die bitte.

Dieses ganze Gelabber mit "HDMI hat mehr Bandbreite!" ist so müßig da es völlig egal ist.
 
Welchen Monitorarm könnt ihr für den 3225QF empfehlen?

Mein Tisch steht dicht an der Wand und ich möchte den Monitor so weit es geht in Richtung Wand bekommen.
Bin mir nicht sicher welcher Arm sich dafür eignet.
Eine gänzliche Wandmontage fällt raus.
 
Das ist nicht ganz korrekt, es stimmt das der Algorithmus der gleiche ist.

Das ist nicht ganz richtig, es ist richtig, dass der Algorithmus der gleiche ist. Aber die Kompressionsrate ändert sich, das meinte ich mit Aggressivität.

Es gibt zwei Arten von Kompressionsraten in der DSC:

Eine feste Rate erzeugt eine konstante Datenreduktion, während eine variable Rate die Kompression dynamisch an den Inhalt anpasst.

Soweit ich weiß, wird die variable Rate hauptsächlich für Spiele verwendet:
Allerdings ist bei 4K@240Hz das Ende der Fahnenstange für DSC erreicht.
Mehr DSC über Displayport ist nicht möglich.

Bei HDMI 2.1 hingegen gibt es aufgrund der höheren Bandbreite mehr Spielraum.
In der Theorie heißt es, dass DSC absolut verlustfrei wäre, in der Praxis liest man immer wieder, dass dies doch auffällt.

Ich erinnere mich auch an die Diskussionen damals bei MP3, wo kürzere Songs mit weniger Daten mit 128 Bit vergleichsweise gut klangen und Songs wie Stair-Way to Heaven mit 128 Bit nach Meinung einiger Audiophiler nicht mehr wirklich gut klangen und man auf die nächste Bitrate umstieg, 192 Bit wurde dann als guter Kompromiss für alles angesehen. Der Algorithmus hatte sich dort aber auch nicht geändert, nur die Bandbreite wurde generell erhöht.
Die variable Bitrate kommt so gut wie nie zum Einsatz und es ist eigentlich immer eine 3:1 (bzw eine 3,75:1 bei 10 bit) Kompressionsrate. Tatsächlich ist es sogar so, dass bei der Variablen Bitrate die Bitrate wenn möglich reduziert wird, was theoretisch ein schlechteres Bild ergeben würde.
DSC ist aber visually losless und das wurde rigeros getestet. Besonders DSC 1.2a ist visuell nicht erkennbar.
Der Vergleich mit der Audio Bitrate ist ziemlich Sinnfrei, da es sich hierbei um eine Komplett andere Technologie handelt.
 
Sorry aber "in der Praxis liest man immer wieder, dass dies doch auffällt." ist Quatsch. Wenn es harte Beweise für schlechtere Bildquali durch DSC geben würde dann wären die hinlänglich bekannt. Keine Ahnung wo du das gelesen haben willst.

Auch die dynamische Komprimierung ist mir neu. Ich kenne nur DSC 2.0 und 3.0 (1.0 ist atm sinnfrei). Aber kann auch sein, dass ich da nicht gut genug informiert bin.

Wenn du Beweise hast für eine NICHT verlustfreie Kompression dann poste die bitte.

Dieses ganze Gelabber mit "HDMI hat mehr Bandbreite!" ist so müßig da es völlig egal ist.

Ich stolpere öfters bei Reddit darüber, auch bei Computerbase gibt es gerne mal Behauptungen, dass es sichtbar wäre, soweit ich mich erinnere wird in manchen Situationen von Blockbildung, Unschärfe oder Farbverfälschungen gesprochen. Ich habe jetzt nur keine Zeit und Lust das zu "beweisen".

Ich nehme an du meinst das nur im Zusammenhang mit DSC, dass HDMI mehr Bandbreite hat und es dir egal ist?
DSC wird ja auch mit HDMI 2.1 und den 240Hz verwendet... Darum ging es mir aber auch nicht primär.

Wenn es dir generell egal ist, dann verzichtest du eben auf dynamisches HDR inkl. HDR10+ und Dolby Vision, EARC und ein VRR Fehlerprotokoll.
Ist am Ende des Tages deine Sache :-)
 
Wenn es dir generell egal ist, dann verzichtest du eben auf dynamisches HDR inkl. HDR10+ und Dolby Vision, EARC und ein VRR Fehlerprotokoll.
Ist am Ende des Tages deine Sache :-)
Hast du HDR10+ zur Auswahl mit dem AW3225QF in Cyberpunk?
 
Die variable Bitrate kommt so gut wie nie zum Einsatz und es ist eigentlich immer eine 3:1 (bzw eine 3,75:1 bei 10 bit) Kompressionsrate. Tatsächlich ist es sogar so, dass bei der Variablen Bitrate die Bitrate wenn möglich reduziert wird, was theoretisch ein schlechteres Bild ergeben würde.
DSC ist aber visually losless und das wurde rigeros getestet. Besonders DSC 1.2a ist visuell nicht erkennbar.
Der Vergleich mit der Audio Bitrate ist ziemlich Sinnfrei, da es sich hierbei um eine Komplett andere Technologie handelt.
Sind es bei HDMI 2.1 nicht sogar 12 bit?
 
Ich stolpere öfters bei Reddit darüber, auch bei Computerbase gibt es gerne mal Behauptungen, dass es sichtbar wäre, soweit ich mich erinnere wird in manchen Situationen von Blockbildung, Unschärfe oder Farbverfälschungen gesprochen. Ich habe jetzt nur keine Zeit und Lust das zu "beweisen".

Ich nehme an du meinst das nur im Zusammenhang mit DSC, dass HDMI mehr Bandbreite hat und es dir egal ist?
DSC wird ja auch mit HDMI 2.1 und den 240Hz verwendet... Darum ging es mir aber auch nicht primär.

Wenn es dir generell egal ist, dann verzichtest du eben auf dynamisches HDR inkl. HDR10+ und Dolby Vision, EARC und ein VRR Fehlerprotokoll.
Ist am Ende des Tages deine Sache :-)
Nein es ist nicht mir egal sondern ganz objektiv ist es egal ob du, in Hinblick auf DSC, nun HDMI oder DP verwendest.

Dolby Vision geht übrigens auch per DP. Verstehe den Rest von deinem Post nicht ganz. 🤷‍♂️
 
Hast du HDR10+ zur Auswahl mit dem AW3225QF in Cyberpunk?

Bei meinem Samsung G7 neo hatte ich das Problem mit HDMI 2.1 im Vergleich zu Displayport 1.4. Die Option war zwar unter DisplayPort vorhanden, hatte aber unter Displayport 1.4 keine Auswirkung. Erst mit HDMI 2.1 war die Option optisch aktiv. Sry für die Verwirrung, ich weiß leider noch nicht wie es mit dem Alienware wird, freue mich nur extrem auf den Monitor und vertreibe mir hier die Zeit bis dahin^^.

HDMI 2.1 stellt nur das FeatureSet für HDR10+ zur Verfügung.

Dynamisches HDR ist auch mit HDMI 2.1 möglich

@Thread
Und hier nochmal eine gute Zusammenfassung, warum man eigentlich HDMI 2.1 statt DisplayPort 1.4 verwenden sollte, DSC hin oder her.
--> Das war eigentlich die Intention meines obigen Beitrags, bevor die DSC-Diskussion losgetreten wurde.


Ich will hier niemanden seinen guten alten DP-Anschluss madig machen, aber die Vorteile überwiegen doch ganz klar...
 
Ich stolpere öfters bei Reddit darüber, auch bei Computerbase gibt es gerne mal Behauptungen, dass es sichtbar wäre, soweit ich mich erinnere wird in manchen Situationen von Blockbildung, Unschärfe oder Farbverfälschungen gesprochen. Ich habe jetzt nur keine Zeit und Lust das zu "beweisen".

Ich nehme an du meinst das nur im Zusammenhang mit DSC, dass HDMI mehr Bandbreite hat und es dir egal ist?
DSC wird ja auch mit HDMI 2.1 und den 240Hz verwendet... Darum ging es mir aber auch nicht primär.

Wenn es dir generell egal ist, dann verzichtest du eben auf dynamisches HDR inkl. HDR10+ und Dolby Vision, EARC und ein VRR Fehlerprotokoll.
Ist am Ende des Tages deine Sache :-)
Ich füge mal einen Screenshot aus der Studie, die für die "visually losless" Zertifizierung notwendig war, hinzu. Wer behauptet, einen Unterschied zu sehen, schreibt auch Glaubuli Wunderheilwirkung zu.

Mit DP verzichtet man weder auf HDR10 (HDR10+ unterstützt der Monitor garnicht), noch auf Dolby Vision. G-Sync und Free-Sync funktionieren theoretisch über DP besser, sollte aber bei beidem zumindest mit HDMI 2.1 fähigem Kabel und Grafikkarte gleich gut laufen. Drunter funktioniert bspw. G-Sync nicht.
 

Anhänge

  • Screenshot 2024-03-06 132458.jpg
    Screenshot 2024-03-06 132458.jpg
    41,5 KB · Aufrufe: 41
Ich schau heute Abend mal, mit DP hab ich in Cyberpunk 2077 keinen HDR10+ Schalter gesehen, liegt evtl aber an FrameGen, oder er kann es einfach nicht, kann dann auch mal mit HDMI gegentesten, das Kabel hab ich ja angeschlossen fürs Macbook :d
 
Es geht mir nicht ums madig machen. Aber andere User lesen das und halten dies für bare Münze. "DSC ist nicht lossless!!" und tragen das dann weiter und man hat plötzlich in allen Threads damit zu kämpfen die Leute wieder zu beruhigen und die Fakten klarzustellen. Bissl sollte man schon drauf achten was und wie man es postet. Oft lesen viel mehr Leute in den Threads mit als man denkt.

Du kannst dir wirklich ganz nach Lust und Laune aussuchen welchen Anschluss du verwenden möchtest, da afaik der einzige Unterschied ist, dass der Monitor per DP direkt als G-Sync Compatible erkannt wird. Per HDMI muss man halt noch den Hacken setzen. (Es sei denn du brauchst eARC, dann natürlich HDMI.)
Beitrag automatisch zusammengeführt:

Ich schau heute Abend mal, mit DP hab ich in Cyberpunk 2077 keinen HDR10+ Schalter gesehen, liegt evtl aber an FrameGen, oder er kann es einfach nicht, kann dann auch mal mit HDMI gegentesten, das Kabel hab ich ja angeschlossen fürs Macbook :d
Cyberpunk hat sicherlich KEIN HDR10+. :fresse:
 
Cyberpunk hat sicherlich KEIN HDR10+. :fresse:
Doch mittlerweile schon afaik :d
 
Btw. ist HDR10+ im Grunde das selbe wie Dolby Vision, nur halt von Samsung entwickelt. Es gibt kaum HDR10+ Inhalte, vorallem für den PC.
Der AW3225QF unterstützt aber eh "nur" Dolby Vision was beim PC bis dato auch kaum verwendet wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh