Alienware 34 Curved QD-OLED: Mit 175 Hz, Curved-Panel und G-Sync

Wenn Dell die Kohlen nicht will, dann bekommt sie eben Samsung für den G8.

Bleibt aber noch das Thema DWF und max. 500nits mit NV Karten offen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
angesprochen hatte das mit einer Nvidia Karte beim AW nun bei 500 Nits schluss is ?
Geht auch bis 1000nits bei Nvidia im source tone Mode.. die EOTF Daten sind n halt n bischen ungenau.
Kann nur sein das mit ner Nvidia Karte das ganze anders clippt als wie mit ner AMD karte wegen dem freesync Metadaten.

Ändert aber nix daran das diese EOTF kurve in der Basis ungenau ist.

Nvidia und AMD interpretieren diese halt durch freesync Premium unterschiedlich..


Was den Odyssee G8 angeht. Was ich da so auf Reddit sehe hat der DWF sogar noch das bessere HDR..
 
Geht auch bis 1000nits bei Nvidia im source tone Mode.

Alles klar also können wir da nun entgültig nen Harken hinter machen dass das Mumpitz war mit den nur noch 500 Nits mit Nvidia Karten.

die EOTF Daten sind n halt n bischen ungenau.

Jupp das hatten wir hier vor 1 Woche oder so mal kurz als Thema ... da müssen die Interessierten auf ein Firmware Update hoffen das die EOTF Kurve akkurater macht
damit es weniger Over und Undershoot gibt... sowas lässt sich zu 100 % mit nem Firmware Update beheben sofern Alienware bzw Dell dies Problem gewillt is zu beseitigen .. machbar isses aber zu 100 % wenn man will

Kann nur sein das mit ner Nvidia Karte das ganze anders clippt als wie mit ner AMD karte wegen dem freesync Metadaten.

???

Was soll da ne GPU Clippen ?

Und die Frage was da nun ne GPU für ein Einfluss auf das Tone Mapping hat hast du auch noch nich beantwortet.

Ich bin immernoch der Meinung das ne GPU nix mit Tone Mapping und auch nix mit Clipping am Hut hat das is eher ne Sache der Quelle ( Game , Film , Serie ) wo die Metadaten hinterlegt sind
und des Anzeigegerätes ( Monitor , TV ) welches dann das Tone Mapping übernimmt .. kannst du das mal näher erläutern warum da die GPU so wichtig sein soll ?
 
Zuletzt bearbeitet:
Und die Frage was da nun ne GPU für ein Einfluss auf das Tone Mapping hat hast du auch noch nich beantwortet.
Weil Nvidia auf andere tonmapping Daten zugreift als AMD.. hier ist es entweder der Standartmodus oder der source tonemapping Mode .. das ist wie beim LGCx der Film Modus und der HGIG Mode


AMD karten benutzen die Werte von freesync Premium die im erweiterten freesync Block (19byte) geschrieben sind. Das sind dynamische tonmapping werte
Das ist ein Dritter Modus auf den Nvidia karten nicht zugreifen können.
(Dafür kann AMD nicht ohne tricks auf die beiden anderen Modis zugreifen)

Was jetzt genauer ist.. (AMD freesync oder source tonmapping) weiß ich nicht..

Fs2 tonemapping sieht auf jeden Fall leicht anders aus als source tonemapping.. und ingamen kalibrierungen clippen anders von den Werten her bei den vergleichsbildern

(Man kommt mit ner AMD Karte in den source Modus indem man den freesync Block löscht mit CRU)


Ich denke Mal dell wird hier noch n Firmware Update liefern.. hwunboxed und Linus haben die Problematik ja angesprochen
 
Weil Nvidia auf andere tonmapping Daten zugreift als AMD..

Eigentlich sollte die garnich auf Tone Mapping Daten zugreifen sodern eben eher das Anzeigeräte ( TV , Monitor )

Das is mir grad total neu das ne GPU sich ums Tone Mapping kümmert da das eigentlich immer der TV oder der Monitor tut

Und die Metadaten sind eben eigentlich immer in der Quelle Hinterlegt also beim Game oder beim Film aber nich in dem Freesync Block des Monitors
da die Metadaten bei jeder neuen Quelle eben auch immer anders sind da immer andere Bildinformationen vorhanden sind da jedes Game oder Jeder Film ja andere Inhalte haben
aber der Freesync Block inhalt bleibt ja immer gleich .... die Metadaten erstellt eigentlich immer der Game Entwickler bzw der Film ersteller aber eben nich Dell oder Alienware

Das liest sich alles grad ziemlich strange für mich was du schreibst und entgegen allem was ich in den letzten 2 1/2 Jahren sonst so gelesen hab und das verwirrt mich grad etwas

Ich denke Mal dell wird hier noch n Firmware Update liefern.. hwunboxed und Linus haben die Problematik ja angesprochen

Darauf können die Interessierten auch nur hoffen ... aber spätestens dann is auch eben die EOTF Problematik kein Thema mehr.
 
Zuletzt bearbeitet:
Gut dann macht die GPU die tonmapping Daten und der Monitor hat 3 verschiedene übersetzungsmodi (source Off/ source on/freesync premium)
Ist das gleiche nur anders rum gedacht für mich

Ändert aber nichts daran das sich alle 3 modis an der EOTF Tabelle orientieren
 
Gut dann macht die GPU die tonmapping Daten und der Monitor hat 3 verschiedene übersetzungsmodi (source Off/ source on/freesync premium)

Das Game oder der Film hat die Metadaten hinterlegt und der Monitor bzw TV analysiert sie und setzt sie um auf die Nits die ihm zur verfügung stehen und macht das Tone Mapping damit die Heatmap passt
und eben jedes Objekt korrekt runtergedampft wird auf die verfügbaren Nits des Gerätes .. die GPU weiss doch garnich wieviel Nits dein TV oder Moni hat daher macht das auch nich die GPU sondern dein
Anzeigegerät


hdr-01a.jpg




Und der TV bzw Monitor ( nicht aber die GPU ) hat 3 arten das Tone Mapping zu machen

1. Statisches normales Tone Mapping ( Dynamisches Tone Mapping aus ) wo alles 1 zu 1 übernommen wird aus den Metadaten des Games / Films / Serie ( meist bei PC Monitoren der Fall )

2. Dynamisches Tone Mapping wo der TV oder der Monitor jedes Bild einzelnt analysiert und die Helligkeit der angezeigten Objekte anpasst in Echtzeit ( führt öfters mal zu Clipping da meist das gesamte Bild etwas überhellt dargestellt wird auf LG OLEDs .... manche TVs können das besser als andere )

3. HGIG ( nich alle Games profitieren davon aber einige .. sieht meisst genau so aus wie "aus" nur das manche Lampen oder die Wolken im Himmel etwas mehr Helligkeit Textur Details bekommen und leicht heller sind ohne das es zu clipping kommt der Rest des Bildes bleibt aber gleich zu der "off" Einstellung es werden da nur leicht die Helligkeits Highlights etwas besser betont als mit "aus" )

Aus meinem TV Menu :

dsc_0256z3dlj.jpg



.. die GPU macht da nich viel bezogen aufs Tone Mapping oder Metadaten oder Clipping
ausser eben das Signal durchzuschleifen zum Anzeigegerät und dieses setzt die Metadaten eben um und macht dann das Tone Mapping dazu.

Und Clipping is einfach nur das ein Objekt zu hell dargestellt wird bzw ausserhalb der Range des Anzeigegerätes und dann abfällt in dem Bereich der unter dem
helsten Bereich liegt und dann gehen Textur Helligkeits Details verloren bzw die oberen Helligkeitsabstufungen aber auch da macht die GPU eben nix sondern eher das Anzeigegerät

Und um Clipping zu vermeiden sollte man sein Anzeigen Gerät kalibrieren ( mit CRU bzw Win 11 HDR Calibration ) .. aber das weisst du ja das hatten wir ja damals alles schon im CB Thread besprochen

Ändert aber nichts daran das sich alle 3 modis an der EOTF Tabelle orientieren

Die auch mit der GPU nix zu tun hat sondern damit wie Akkurat das Anzeigegerät ( TV , Monitor ) Kalibriert ist.
 
Zuletzt bearbeitet:
@Slipknot

Der G8 hat wie der DWF kein G-Sync Modul, es gibt keinen Unterschied. Oder meinst du was anderes?

Ich meinte, dass dann auf den Samungs G8 zugegriffen werden muss, wenn DW in Europa nicht mehr verfügbar ist und wenn mit dem DWF irgendeine max 500nit Thematik besteht mit NV Karten.
 
hab heute mal versucht das spulenfiepen zu ergründen und tatsächlich: wenn alles andere im Raum aus ist, also superduper still und ich oben an den monitor rankrieche kann ich da was hören. komischweise war es am lautesten als der bildschirm schwarz und nur das menü offen war. bei den testbildern wurde er leiser. Vor dem Monitor (ohne draufzukrabbeln) konnte ich mir aussuchen ob es einbildung oder spulenfiepen ist. Dann hab ich den PC angemacht und allein die Pumpe in der AIO reicht aus um das fiepen auch nur noch erahnen zu können. Meiner ist auch aus Oktober 22 (A02). Pixelfehler auch nix.

Was ich noch spannend fand, einer meinte dieses Textfringing betrifft wahrscheinlich eher Leute mit guten Augen. Ich trage eine Brille mit ziemlich fiesen Dioptrien und da Menschen wie ich wahrscheinlich eh immer unbewusst so einen Effekt drin haben nehmen wir es entweder nicht war oder können es aufgrund der Flaschenböden nicht sehen bzw. wird es weiter verzerrt das es verschwindet. Fand ich spannend die Theorie.

Zu der Sache mit HDR bis 500 nits bei Nvidia kam daher, dass der User der dies getestet hat im Windows 11 HDR Tool wohl immer nur unter 500 Nits angezeigt bekommen hat.
Real war dies aber nicht sondern (wie zu erwarten) einfach nur ein Win11 bug. Ein weiterer Grund warum ich weiter mit Windows10 unterwegs bin. Ich habe den Bericht sowieso angezweifelt, da ich eindeutig in Division 2 testen konnte, dass HDR1000 viel heller ist als HDR400. Und das nicht nur durch die verhunzte EOTF Kurve. Die Lampen und Sonne haben viel derber reingehauen. Leider wird dabei auch halt der Rest des Bilds etwas heller.

Hab mittlerweile auch wieder auf 165Hz 8 Bit gewechselt. Viele haben rumprobiert und blindtests gemacht und keine Sau konnte außerhalb von Testbildern einen Unterschied feststellen. 157Hz war auch okay aber was soll der Zauber...

Btw bin ich eher am testen ob Gamma auf 2.2 oder 2.4. Werkskalibrierung ist zwar auf 2.2 ausgelegt aber irgendwie gefällt mir 2.4 besser. Meinungen? :d
 
Btw bin ich eher am testen ob Gamma auf 2.2 oder 2.4. Werkskalibrierung ist zwar auf 2.2 ausgelegt aber irgendwie gefällt mir 2.4 besser. Meinungen? :d
Also beim DW war ich in SDR auf dem Desktop im Creator Mode (sRGB, Gamma 2.4) im DWF Creator Mode (sRGB, Gamma 2.2) irgendwie passt es da mit dem Gamma "Ziel" 2.2 für sRGB besser als beim DW :d
 
Durch den Konsolenmode kann man ja keine andere Bildmodi mehr auswählen. Und ich muss auch zugeben, dass ich den Standard Mode am stimmigsten fand. Ist zwar knallibunti im Gegensatz zum sRGB mode aber da der hier nur zum daddeln und surfen ist mag ich es so.
 
Kurze Frage: gestern bissl im Menü gespielt und als ich den Rechner ausgemacht habe blieb die LED Beleuchtung an. Muss das so? Find es auch doof, dass der Stand-by Knopf entweder immer leuchtet oder ganz disabled werden muss. :(
 
@Ossi

Wurde hier schon sehr oft kommuniziert, kannst im Menü abstellen. Musst genauer bei der FX Beleuchtung nachschauen.

Geht nur ganz!
 
@Ossi

Wurde hier schon sehr oft kommuniziert, kannst im Menü abstellen. Musst genauer bei der FX Beleuchtung nachschauen.

Geht nur ganz!
Dann schau ich nachher nochmal genauer. Was meinst du mit "geht nur ganz"? Also entweder ist die Beleuchtung immer an (auch im Standby) oder immer aus?!
 
Kurze Frage: gestern bissl im Menü gespielt und als ich den Rechner ausgemacht habe blieb die LED Beleuchtung an. Muss das so? Find es auch doof, dass der Stand-by Knopf entweder immer leuchtet oder ganz disabled werden muss. :(
Meiner Erfahrung nach ist das typisch Dell. Knopf blinkt im Standby oder muss komplett deaktviert werden. Deaktivierung nach kurzer Zeit im Standyby geht m.E. nach nicht.
 
Zumindest haben sich die Rück LED jetzt wieder brav ausgestellt. Wahrscheinlich ist der RGB Controller bissl spackig. Aber das hört man ja schon seit Release des DW.
 
was muss ich denn machen damit der dell beim pc runterfahren den refresh macht? wenn ich den runterfahre geht der aktuell immer nur in standby und fertig. nur wenn ich den monitor manuell ausschalte macht er den refresh (grüne led)
 
was muss ich denn machen damit der dell beim pc runterfahren den refresh macht? wenn ich den runterfahre geht der aktuell immer nur in standby und fertig. nur wenn ich den monitor manuell ausschalte macht er den refresh (grüne led)
So hat sich mein DW auch verhalten, der DWF macht es jetzt andersrum, genau wie du dir das vorstellst, Refresh im Standby, dafür nicht mehr bei Ausschalten, ich fand beim ausschalten besser (weil ich das Display immer ausschalte).
Sie hätten aber auch einfach beides implementieren können...
 
Hab mich jetzt auch dafür entschieden meinen 4K 32" IPS auszutauschen .. mal schauen, ob das klappt mit dem Alienware und OLED.
Bevor ich mich jetzt an die fast 230 Seiten hier mache (was auch Spaß machen wird) - gibts irgendwo eine Zusammenfassung was man direkt einstellen / umstellen soll und was bei Ankunft kontrolliert werden sollte (Mikrokratzer durch Verpackung/Folie, tote Pixel,...)

Wird an einer AMD Grafikkarte betrieben (6900XT) + Macbook. Das Displayport->USB-C ist ja schon dabei. Braucht man sonst direkt noch was zum Glück? :P
 
Zuletzt bearbeitet:
gibts irgendwo eine Zusammenfassung was man direkt einstellen / umstellen soll und was bei Ankunft kontrolliert werden sollte (Mikrokratzer durch Verpackung/Folie, tote Pixel,...)
Zumindest das Kratzerthema ist nicht mehr so akut mit dem DWF, da hat sich ja zum Glück was an der Verpackung getan im Vergleich zum DW ist das Bubble Wrap nicht mehr direkt auf dem Panel :d
Die Settings sollte jeder nach seinen Vorlieben wählen denke ich.
 
Irgendwas muss bei mir nicht stimmen. Wollte heute Mal das HDR in Cyberpunk ausprobieren.
Bin aber schon bei den Einstellungen gescheitert.

Sobald ich über 500 nits gehe überstrahlen die Highlights viel zu krass. Ich weiß jetzt nicht ob etwas am Monitor, in Windows oder im Game falsch eingestellt ist. :/

Jemand paar Tipps zum DWF mit Cyberpunk und was man mit HDR 1000 einstellen sollte?
 
Sobald ich über 500 nits gehe überstrahlen die Highlights viel zu krass. Ich weiß jetzt nicht ob etwas am Monitor, in Windows oder im Game falsch eingestellt ist. :/

Es liegt weder am Monitor noch an Windows .. das Game hat einfach ne schlechte HDR Portierung bekommen ähnlich wie damals zb Red Dead 2 schon
es wurde zwar mit dem Patch 1.3 oder so um den dreh besser beim HDR aber es ist immernoch ne schlechte umsetzung wo auch das Schwarz viel zu hell dargestellt wird
Es werden also nich nur Highlights betont sondern das ganze Bild also auch dunkle Ecken usw wird einfach nur heller was aber nich der Sinn von HDR is
Bei HDR bleiben dunkle stellen dunkel aber helle werden betont das is aber nich der Fall bei Cyperpunk da wird halt alles einfach nur heller

33.png





Hier sieht man zb gut wie das schwarz aufgehellt wird in HDR .. aber das sieht man auch bei den anderen beiden Videos oben von Vincent

 
Zuletzt bearbeitet:
Hmpf also auslassen oder mit irgendeinen Zeug wieder selber fixen ala reshade oder special k 😖
 
Für Cyberpunk wird häufig empfohlen, HDR im Spiel zu deaktivieren und stattdessen auf AutoHDR zu setzen.
 
Für Cyberpunk wird häufig empfohlen, HDR im Spiel zu deaktivieren und stattdessen auf AutoHDR zu setzen.
Bin mit Windows 10 unterwegs, daher noch kein Auto HDR. Nach viel lesen und Videos ist das bei Cyberpunk eh alles Kopfschmerzen.

Aber trotzdem nochmal die Frage. Wenn ihr den in-game Slider auf 1000 nits schiebt, werden die Highlights dann zu krass? Bei ca. 500 sieht es zumindest auf dem calibration screen vernünftig aus.
 
Wenn ihr den in-game Slider auf 1000 nits schiebt, werden die Highlights dann zu krass?

Liegt wie gesagt daran das es nich wirklich HDR is sondern eigentlich SDR bleibt wo dann halt nur mehr Helligkeit freigegeben wird überall so als würde man bei einem SDR Monitor einfach die
helligkeit höher drehen und dann eben alles dadurch heller wird. .. du kannst versuchen mit dem "Tone Mapping Midpoint" etwas entgegenzusteuern mal 1.5 oder 1.8 oder 1 probieren statt 2.

Ich glaub damals zur Release Zeit hatte ich für meinen 800 Nit OLED die 2000 nits gewählt ( das hat sich nun geändert und kann da 800 Nits nehmen aber damals war die Skalierung noch falsch )
und bin dann auf 0.8 oder 1 beim Midtone gegangen musst da mal etwas rum probieren was da für dich der beste Kompromiss is ..
aber das is halt kein richtiges HDR daher wird man da immer Probs haben ein gutes "HDR" Bild rauszubekommen bei Cyberpunk

Bei Witcher 3 habens sie es nun aber zumindest besser gemacht das hat nun ja auch HDR bekommen nachdem die konsolen das schon seit 2015 hatten

Bin mit Windows 10 unterwegs, daher noch kein Auto HDR.

Dann währe da zumindest noch die SpecialK Mod ne alternative is aber etwas fummeliger als das Win 11 Auto HDR
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh