Alienware AW3225QF und AW2725DF: Neue OLED-Displays für 2024

Sollte der ASUS in der Preisregion von MSI released werden... Ciao Dell :ROFLMAO:
Sind immer noch fast 400€ Aufpreis und sofern man kein HDR 1000 nutzt (worauf man IMO gut verzichten kann) scheint ja auch das DV Problem, genauso wie der Lüfter (den man nicht hört), irrelevant zu sein... Also ich sehe da keinen wirklichen Grund weshalb man dafür Hunderte Euros mehr zahlen sollte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sind immer noch fast 400€ Aufpreis und sofern man kein HDR 1000 nutzt (worauf man IMO gut verzichten kann) scheint ja auch das DV Problem, genauso wie der Lüfter (den man nicht hört), irrelevant zu sein... Also ich sehe da keinen wirklichen Grund weshalb man dafür Hunderte Euros mehr zahlen sollte.

Mag sein das man den Lüfter nicht hört, ausfallen oder spinnen kann der alle mal; kann mit einer passiven Kühlung i. d. R. nicht passieren. Außerdem fehlt dem Dell ein KVM switch und eine PD über USB-C. Alles keine Dealbreaker, aber im Weiterverkauf durchaus Punkte denen man Beachtung schenken kann.

Das man HDR1000 nicht nutzen kann weil es verbuggt ist, ist halt wieder so ein Argument gegen Dell; Wenn ich über 1k für so ein Gerät latze, dann will ich auch alles an dem nutzen.

Beispiel: Apple sagt die Lademöglichkeit per USB-C Anschluss am iPhone 15 Pro geht aufgrund eines Bugs nicht, und stattdessen sollen die Nutzer nur über QI aufladen. Kann man sich mit arrangieren, klar, aber warum? Warum Kompromisse bei einem Gerät eingehen das 1. so teuer ist und 2. womit bei dem Gerät geworben wird?

Ich bin echt gespannt wo der ASUS landen wird. Bei 1500€ bin ich dabei aber über 1599€ bin ich auch raus; da warte ich lieber auf den MSI
 
Warum Kompromisse bei einem Gerät eingehen das 1. so teuer ist und 2. womit bei dem Gerät geworben wird
Jein also ich versteh dein Argument schon, aber bei dem USB-C hätte ich effektiv einen Nachteil, wegen dem HDR 1000 nicht, da ich persönlich es eh nicht nutzen würde (genauso wenig wie PD oder KVM)... Und davon abgesehen ist das doch eh was temporäres bis es firmwaretechnisch behoben wurde. Wenn man den mal weiterverkauft wird's sicherlich funktionieren.

Natürlich sollte sowas nicht sein gerade bei einem hochwertigen Hersteller wie Dell und ist schon ein großer Kritikpunkt mit wieder mal unfertiger Software/Firmware, aber rechtfertigt für mich zumindest wie gesagt (und ich würde mal behaupten für die meisten) nicht die 400€ Aufpreis. Und den Aufpreis wird man beim Weiterverkauf auch sicherlich nicht wieder rein bekommen.
 
Jein also ich versteh dein Argument schon, aber bei dem USB-C hätte ich effektiv einen Nachteil, wegen dem HDR 1000 nicht, da ich persönlich es eh nicht nutzen würde (genauso wenig wie PD oder KVM)... Und davon abgesehen ist das doch eh was temporäres bis es firmwaretechnisch behoben wurde. Wenn man den mal weiterverkauft wird's sicherlich funktionieren.

Natürlich sollte sowas nicht sein gerade bei einem hochwertigen Hersteller wie Dell und ist schon ein großer Kritikpunkt mit wieder mal unfertiger Software/Firmware, aber rechtfertigt für mich zumindest wie gesagt (und ich würde mal behaupten für die meisten) nicht die 400€ Aufpreis. Und den Aufpreis wird man beim Weiterverkauf auch sicherlich nicht wieder rein bekommen.

Bei der Nicht-nutzung des USB-C hättest du einen "Komfort"-Nachteil, aber rein objektiv könntest du ja per QI laden. Bei der HDR Thematik ist eben ähnlich; Es wird mit HDR1000 geworben, lässt sich aber ohne Workarounds nicht richtig nutzen und es entsteht auch ein "Komfort"-Nachteil, weil ich eben Workarounds anwenden muss in Form von Treiber zurückrollen etc. pp.

ASUS z. B. hat beim PG27AQDM weiterhin Probleme mit HDR; Weiterverkaufen an Leute, die die Thematik kennen ist so nicht möglich. Weiterhin besteht auch die Ungewissheit über die Lebenszeit u. Qualität des verbauten Lüfters; was machen wenn der mal schlapp macht oder anfängt Geräusche zu machen?

Bzgl. dem Aufpreis kann ich dich verstehen, es sind 40% Aufschlag im Vergleich zum Dell, das ist halt schon ein Brocken. Will man passive Kühlung Ja/Nein, Will man mehr Funktionalität Ja/Nein, Will man sich ggf. mit Mikrokratzern arrangieren Ja/Nein... Ich persönlich würde keinen Aufpreis vom Audi A3 zum RS3 bezahlen, weil ich die Mehrleistung nicht benötige :) Jeder wie er mag, aber man muss sich halt vor Augen führen, was man da kauft und wo man für mehr Geld was Extra bekommt.
 
Der ist ja mal maximal hässlich :d Technisch vermutlich einwandfrei und erste Sahnen aber bei der Optik...? Neee, der sieht ja von vorne aus wie die ersten AOC Monitore mit den dicken Rändern.

Wie gesagt is ja nich für uns Gamer gedacht ... die Mastering Monitore sehen halt anders aus als PC Gaming Monitore .. hier zb mal ein Sony Mastering Monitor der 30.000 Dollar gekostet hatte :


Screenshot 2024-02-12 132349.png
---
Screenshot 2024-02-12 132750.png



Vincent von HDTVTest benutzt den halt immer als Reference Monitor :

Screenshot 2024-02-12 132648.png


Screenshot 2024-02-12 133257.png
Screenshot 2024-02-12 133341.png


Screenshot 2024-02-12 133749.png
Screenshot 2024-02-12 133815.png


Sollte halt eher ein spass sein weil sich ja niemand nur fürs Gaming zuhause ein so teuren Mastering Monitor kauft :ROFLMAO: .. die sind halt wie gesagt mehr für die Film Studios um die Filme dort zu Mastern
nicht aber für uns Gamer geeignet

Is aber halt der erste 32" QD-OLED Mastering Monitor der den Markt erreicht hat den ich da Gestern verlinkte
 
Zuletzt bearbeitet:
@Stagefire


Könnte der Bruder vom HX310 sein :ROFLMAO: :ROFLMAO: Hat auch so ne dicke Lippe wie der Sony.

4000 nts bei 10% Window, bei einem guten HDR Game habe ich keine Netzhäute mehr :d Beeindruckend was der so kann, das gibt einem nochmal ne ganz andere Perspektive.
 
@Stagefire
Könnte der Bruder vom HX310 sein :ROFLMAO: :ROFLMAO: Hat auch so ne dicke Lippe wie der Sony.


Da sieht der Sony Mastering Monitor aber hünscher aus der Sony sieht so aus wie die TVs halt so damals in den 90gern Ausgesehen haben

4000 nts bei 10% Window, bei einem guten HDR Game habe ich keine Netzhäute mehr :d

Wenn das stimmen würde hätten nun sehr viele Leute die diese Geräte in den Film Studios nutzen nun keine Netzhaut mehr .. denk mal drüber nach :whistle:

Auch sehr viele Leute die nur aus dem Haus gehen würdenn hätten dann keine mehr ... 4000 Nits sind in der Realen Welt keine seltenheit und zwar auf 100 % Window ... aber dazu hatte ich ja nun schonn desöfteren was gesagt das brauch ich ja nun nich mehr weiter erläutern das so eine Aussage wie mit der Netzhaut absoluter Blödsinn is :whistle:

Beeindruckend was der so kann, das gibt einem nochmal ne ganz andere Perspektive.

Daher sind die Dinger halt auch Teuer ... die sind halt Perfekt eingestellt und werden daher als Reference / Mastering Monitore genutzt

Die Asus Pro Art Monitore sind ja zb auch Teuer die werden halt zur Fotobearbeitung oder Media gestaltung genutzt

Screenshot 2024-02-12 135002.png
 
Zuletzt bearbeitet:
Ich persönlich würde keinen Aufpreis vom Audi A3 zum RS3 bezahlen, weil ich die Mehrleistung nicht benötige :)

Benötigen tut man die Mehrleistung auch nicht. Habe eine Stage 3 drauf auf meinem RS3 mit 540PS, das Teil ist so schnell, da stehst mit einem Bein im Grab und mit dem anderen im Gefängnis. Haben statt brauchen ist das Motto :fresse2:
 
Wenn das stimmen würde hätte nun sehr viele Leute die diese Geräte in den Film Studios nutzen nun keine Netzhaut mehr .. denk mal drüber nach :whistle:

Auch sehr viele Leute die nur aus dem Haus gehen würdenn hätten dann keine mehr ... 4000 Nits sind in der Realen Welt keine seltenheit und zwar auf 100 % Window ... aber dazu hatte ich ja nun schonn desöfteren was gesagt das brauch ich ja nun nich mehr weiter erläutern das so eine Aussage wie mit der Netzhaut absoluter Blödsinn is :whistle:

Nimmst du immer alles wörtlich und für bare Münze? Es ist doch was anderes wenn ich einen Monitor habe der bei 10% Window 450 nits hat oder 4,000... Meine Augen ermüden nicht wenn ich den ganzen Tag spazieren gehe bei Tageslicht, sitze ich aber 6h vorm Rechner mit Helligkeit auf Maximum, ermüden sie und ich bekomme ab und an mal Kopfschmerzen.

Das da ein Zusammenhang besteht und es kein Blödsinn ist, auch wenn die Netzhäute-Aussage superlativ war, musst du doch auch sehen...

Benötigen tut man die Mehrleistung auch nicht. Habe eine Stage 3 drauf auf meinem RS3 mit 540PS, das Teil ist so schnell, da stehst mit einem Bein im Grab und mit dem anderen im Gefängnis. Haben statt brauchen ist das Motto :fresse2:

Ich hab einen GLC 350D und benötige, bis auf am Wochenende beim Hänger ziehen, die Mehrleistung auch nicht. Berg hoch mit Anhänger zieht der 350d besser als der 250d, war mir den Aufpreis wert :) KVM, PD über USB C und kratzer- und schmierenfreies Display sind mir den Aufpreis zum MSI/ASUS auch wert.
 
schmierenfreies Display sind mir den Aufpreis zum MSI/ASUS auch wert.
Beim Asus muss man mal schauen, in diesem "(Werbe-)Review" dass es da auf Youtube gibt erwähnt er glaub ich, dass keine Folie auf dem Panel war :d
Aber klar wenn man den KVM Switch + PD nutzt, is das sicher für den ein oder anderen den Aufpreis wert, jeder wie er mag! Für mich sieht der Asus vom "Ersteindruck" auch am rundesten aus.
 
Nimmst du immer alles wörtlich und für bare Münze?

Liegt daran das ich mir das schon seit ein paar Jahren anhören muss und die Leute halt nich dazu lernen

Und wie gesagt hätten nun die ganzen Film Mastering Leute auch nun keine Netzhaut mehr ( superlative hin oder her ) und währen 30.000 Dollar bzw 10.000 Dollar ( je nach Gerät ) ärmer ..
die Aussage is halt Blödsinn das sowas passiert wennn man so ein Gerät nutzt wenn sowas wirklich passieren würde oder kein Bedarf im HDR Bereich an mehr Helligkeit vorhanden währe dann würden
solche Geräte erst garnicht gebaut und besonders nicht als Mastering Monitore für Hollywood Film Studios


Der 4.000 Nit Zug geht langsam nun los ... während hier im Luxx noch welche im 200 - 400 Nit Mittelalter fesstecken und sich dann wundern warum die HDR Games bei ihnen nich so gut aussehen :rolleyes2:

Es gibt schon seit ein paar Jahren einige 4.000 Nit gemasterten Filme ( Bei Gaming können wir teils ja auch bis auf 10.000 Nit hochgehen bei manchen Games zumindest bis 4.000 nits bei der HDR Kalibrierung )
es fehlt aber noch am Gerät welche diese 4.000 nit darstellen können aber das ändert sich nun langsam.

Screenshot 2024-02-12 144847.png



Sony geht mit seinen neuen Mini LED TV auch die 4.000 Nit an :


Screenshot 2024-02-12 144014.png



Und auch OLED und QD-OLED geht im TV Bereich nun langsam die 4.000 Nits an : ( da wird es aber das Phosphor Blue brauchen was 2025 in die Geräte kommt um das zu erreichen )



Es gibt da drausen sogar TV Geräte die 10.000 Nits schaffen und bisher hab ich da noch nix gehört das da jemand sein Augenlicht deswegen verloren hat ... also einfach mal realistisch bleiben

Screenshot 2024-02-12 143450.png


 
Zuletzt bearbeitet:
Ori 1 is SDR aber Ori 2 hat HDR und soll dort auch super sein aber habs selbst nie gespielt daher kann ich da auch nichts zu sagen nur das andere sagen das es gutes HDR haben soll wenn nich gar das beste HDR

Canst du dir hier reinziehen in HDR:
(In Windows zuerst in den HDR Modus switchen)
 
Canst du dir hier reinziehen in HDR:
(In Windows zuerst in den HDR Modus switchen)

+ brauch man halt ein HDR fähigen Browser wie zb Opera oder Chrome ... nutze eigentlich Firefox ( kann nur SDR ) hab aber auch Opera drauf eben für Youtube HDR Videos.

Also ja das HDR dort sieht echt gut aus ... natürlich kann ich das so in Video Form nun nich Live Analysieren mit dem Liliums HDR Analyse Reshade um zu schauen wie das Black Level und der Peak Bereich is
aber so rein vom Video her sieht das HDR dort zumindest echt Super aus und is auch ein Gutes Beispiel gleich zu beginn des Videos mit der Fackel was HDR so ausmachen kann. (y)

Is halt auch echt ein schönes Game .. vielleicht sollte ich mich doch nochmal rantrauen an die Ori Serie auch wenn Jump and Run nich so meins is aber das sieht halt echt verdammt schön aus und die Atmo is halt
auch super
 
+ brauch man halt ein HDR fähigen Browser wie zb Opera oder Chrome ... nutze eigentlich Firefox ( kann nur SDR ) hab aber auch Opera drauf eben für Youtube HDR Videos.

Also ja das HDR dort sieht gut aus natürlich kann ich das so in Video Form nun nich Live Analysieren mit dem Liliums HDR Analyse Reshade um zu schauen wie das Black Level und der Peak Bereich is
aber so rein vom Video her sieht das HDR dort zumindest echt Super aus und is auch ein Gutes Beispiel gleich zu beginn des Videos mit der Fackel was HDR so ausmachen kann. (y)

Edge ginge auch noch, can man ohnehin nicht deinstallen. (y)

In Ori 2 kommt man vermutlich oft auf hohe nits auf OLEDs weil der "Dunkelanteil" im Spiel so hoch ist, ABL also weniger dick eingreift. (y)
 
Mein z9j von Sony kratzt auch an den 4000nits.
War auch nicht billig damals mit 5 scheinen.
Hdr echt ne andere Welt auf dem Teil.

Zum Fernsehen/PS5/Emulator games ist mir ein bravia Master series LED (z9j/z9k) nach wie vor lieber als ein oled.

Für comp games wirds ein oled werden am Rechner.
 
Also ja das HDR dort sieht echt gut aus ... natürlich kann ich das so in Video Form nun nich Live Analysieren mit dem Liliums HDR Analyse Reshade um zu schauen wie das Black Level und der Peak Bereich is

Brauchst du auch nicht, haben andere ja schon gemacht:

 
Brauchst du auch nicht, haben andere ja schon gemacht:

Stimmt das Video hattest du ja letztens schon gepostet hatte da aber noch nich reingeschaut


Unten die HDR Kalibrierungs Settings im Game Menu :

Screenshot 2024-02-12 152107.png




Also keine Raised Blacks und das Tone Mapping wie man Rechts unten am Graphen sieht beginnt immer bei 0 wie es auch sein sollte
und auch die DCI und BT2020 Farbausbeute is gut
auch wird der Nit Cap ( Max CLL links oben zu sehen bzw gelber Strich rechts unten beim Graphen) wohl relativ gut eingehalten ( er nutzt ja ein LG G2 OLED bzw auch ein Samsung S95B QD-OLED )

Screenshot 2024-02-12 152236.png
--
Screenshot 2024-02-12 152359.png



Screenshot 2024-02-12 152455.png
--
Screenshot 2024-02-12 152810.png



Ja vielleicht schau ich irgendwann doch noch mal selbst in die Ori Serie rein und probier mich nochmal an diesen Jump and Runs ... weil das HDR bei Ori 2 sieht echt lecker aus
 
Zuletzt bearbeitet:
Moin,

findet ihr auch eine leichte Beratung statt? :-)

Kann mich nicht entscheiden ob ich bei 27 Zoll oder auf 32 Zoll gehen soll .. !?
Tisch ist 80cm tief.
Zocke hauptsächlich Rainbow Six Siege, CP2077, RDR2.

OLED TV C9 in 55" ist vorhanden .. steht neben dem PC Setup .. da zocke ich von der Couch aus Forza, RDR2 und entspanntes eben.

Beim Monitor darf er gerne Glossy sein, mind. 200Hz, Gsync ... und auf alle Fälle OLED <3

Danke
 
gsync oder gsync compatible. compatible sind die afaik eh alle

wenn du die gpu hast, die deine gewünschten fps in 4k +- DLSS/FSR erreicht, dann sehe ich keinen grund für den 27er.

den 27er mit 360hz sehe ich eher bei competetive oder wenn du keine dicke gpu hast.
 
Moin,

findet ihr auch eine leichte Beratung statt? :-)

Kann mich nicht entscheiden ob ich bei 27 Zoll oder auf 32 Zoll gehen soll .. !?
Tisch ist 80cm tief.
Zocke hauptsächlich Rainbow Six Siege, CP2077, RDR2.

OLED TV C9 in 55" ist vorhanden .. steht neben dem PC Setup .. da zocke ich von der Couch aus Forza, RDR2 und entspanntes eben.

Beim Monitor darf er gerne Glossy sein, mind. 200Hz, Gsync ... und auf alle Fälle OLED <3

Danke
2K oder 4K?
 
Fuuuuc* 😄

Hab vergessen es dazuzuschreiben ..

1440p bei 27"
2160p bei 32"

So war das gemeint :-)

Es wird die GPU Aufgerüstet sobald die 5000 Karten da sind..
Mit den aktuellen Karten sind Games wie CP2077 in 1440p gerade so schön flüssig spielbar für mich dass ich da echt Bedenken habe auf 4K zu gehen.
Für mich spielbar bedeutet wenn das Bild so richtig smooth ist... Das empfinde ich / mein Auge ab ca. 120 FPF aufwärts..

Übrigens mir egal ob Dell, ASUS, MSI auf dem Teil draufsteht :-)
 
mit ner 4090 wird 120fps in 4k in cp77 zumindest nix^^

außer mit DLSS und/oder framegen
 
Moin,

findet ihr auch eine leichte Beratung statt? :-)

Kann mich nicht entscheiden ob ich bei 27 Zoll oder auf 32 Zoll gehen soll .. !?
Tisch ist 80cm tief.
Zocke hauptsächlich Rainbow Six Siege, CP2077, RDR2.

OLED TV C9 in 55" ist vorhanden .. steht neben dem PC Setup .. da zocke ich von der Couch aus Forza, RDR2 und entspanntes eben.

Beim Monitor darf er gerne Glossy sein, mind. 200Hz, Gsync ... und auf alle Fälle OLED <3

Danke
Schwierig da zu beraten - was hast du denn jetzt für einen Monitor?

Musst halt selbst entscheiden welche Größe dir besser gefällt, ob dir Auflösung oder FPS wichtiger sind und ob du bei dem 4K dann auch mit weniger FPS leben könntest. Ohne 4090 oder so kommst man wahrscheinlich selbst bei R6 Siege in 4K nicht an stabile 240Hz ran und mit der 3080 (laut deiner Signatur) sind in 4K bei CP z.B. auch nicht mehr als 40-50 FPS drin.

Und die Frage ist auch was du wie viel zockst, für R6/competitive ist sicherlich der 27er besser geeignet weil einfach höhere framerates bei der Auflösung. Für CP/RDR2 wiederum ist 4k natürlich optisch schon deutlich geiler. Aber die Versuchung wird auf jeden Fall da sein nach einem GPU upgrade zur 4080 oder so wenn der 4k Monitor da ist 😄
 
Ja vielleicht schau ich irgendwann doch noch mal selbst in die Ori Serie rein und probier mich nochmal an diesen Jump and Runs ... weil das HDR bei Ori 2 sieht echt lecker aus
Hab ich auch gemacht,jetzt reicht das erstmal für die nächsten 2JahrexD.

Solche spiele bringen mich immer in rage^^.

Die bringe ja noch nen neues Game No Rest for the Wicked.
 
Es wird die GPU Aufgerüstet sobald die 5000 Karten da sind..
Gut dann sollte es kein Problem sein, aber bis dahin müsstest du dich in 4K schon auf eher niedrigere framerates einstellen 😄
Beitrag automatisch zusammengeführt:

außer mit DLSS und/oder framegen
Ohne DLSS kann man CP auf hohen settings doch eh vergessen 😄 Da hätte man selbst mit ner 4090 auf 1440p nur 50FPS oder so. Also jetzt in UWQHD mit der 4080S und DLSS bin ich eigentlich bei überwiegend 100+ FPS aber bin mal gespannt wie's dann in 4k aussehen wird...

Hab vor ein paar Tagen mit Star Citizen angefangen, echt ein extrem geiles Spiel, aber die teils 20-30 FPS sind schon echt belastend 😂 Hoffentlich kommt da bald das DLSS Update
 
2160p OLED +200HZ kommen eigentlich nur die neuen QD-OLEDs in Frage von denen es bisher nur den Alienware in den USA gibt. In Europa ist der noch nicht angekommen (QF).

1440p gibt es so einige Modelle, von namenhaften Hersteller bis No-name ist so ziemlich alles dabei. WOLED und QD-OLED auch. Am besten schaust du auf RTINGS, da kannst du deine Kriterien im Table Tool filtern und dann entscheiden was du möchtest.

1440p in CP2077 geht mit meiner 4090 richtig gut (100-140 FPS mit FrameGen und ohne DLSS). Habe alle Einstellungen auf Max/Psycho bis auf Pathtracing weil ich nach 25 min Gameplay, den Unterschied zu RT nicht mehr sehe. The Witcher 3 läuft mit alles Max und ohne DLSS bei mir mit zwischen 120-144 FPS.
 
so langsam können sie aber mal anfangen weitere DF´s zu versenden amk...
 
Hab ich auch gemacht,jetzt reicht das erstmal für die nächsten 2JahrexD. Solche spiele bringen mich immer in rage^^.

Kann ich nachvollziehen ... ich mag so diese Timing geschichten halt zb nich in solchen Games ... springe dahin in dem Winkel um dann bei Punkt X in einem anderen Winkel abzuspringen und achte auf die Spikes bei der Wand usw. und wenn man runterfällt gehts halt wieder von Vorne los da fehlt mir halt etwas die Geduld für daher sind so Jump and Runs eigentlich nix für mich und darum hatte ich dann nach 2 std mit Ori 1
damals wieder aufgehört weil is irgendwie nix für mich. Aber wenn man dann das HDR in Ori 2 sieht kommt man dann doch ins grübeln das nich doch mal anzuschmeissen ... nur will ich halt nich mit Ori 2 starten
sprich muss ich erst durch Ori 1 durch was SDR is bevor ich dann Ori 2 in Nativ HDR zocken kann.

Die bringe ja noch nen neues Game No Rest for the Wicked.


Jepp dazu hatte ich ja letztens schon was in einem Post von mir berichtet und auch Bilder davon eingefügt und das Video verlinkt.


Auf das Game freue ich mich auch schon und is ja diesmal ein Action RPG und kein Jump and Run 8-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh