FV43U Eindruck nach ca anderthalb Jahren intensiver Nutzung

Natürlich hast du recht, mir gings darum wie weit der Fortschritt ist.

Der Fortschritt "überholt" ja schon Micro LED ... Nano LED ist ein weiterer Anwärter

12.jpg
2.jpg




Hab noch nich alzuviel über Nano LED gehört bzw mich nich groß damit befasst aber auch genausowennig wie mit Micro LED ... könnte sein das es son Marketing Ding is ( Nano kleiner als Micro )
aber zumindest is da nun ein weiterer Player mit im Spiel.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@SynergyCore kenne Warzone nicht, aber generell finde ich bei pvp alles störend, das zu sehr ablenkt. Da gehören max particle effects ebenso dazu, wie zu helle highlights durch HDR.

@MS1988 bei nur 8 Zonen würde ich mir Sorgen machen, dass man die Zonen erkennt und sie in dem Fall abschalten. War bei Valhalla aber nicht der Fall. Zumal die vermutlich jede Zone anschalten, in der entsprechende Helligkeit vorhanden ist und man somit wohl eher das Problem hat, dass dunkle Bereiche zu hell und die Zonen erkennbar sind, als umgekehrt. Allerdings würde das in einem normal beleuchteten Raum bei guten Schwarzwerten wohl nicht wirklich auffallen. Generell habe ich bei dunklen Bereichen durch den hohen Kontrast und die hohe Helligkeit eher das Problem, dass man zuviel sieht und ich das Bild runterkorrigiere.

Das mit dem mega Kontrast, sei es OLED oder eine Beleuchtung mit super vielen Zonen, ist halt nur wirklich relevant in dunklen Räumen. Wir zocken aber nie im Dunklen, daher ist selbst das Schwarz auf dem IPS Panel meiner Freundin vollkommen in Ordnung.

Bis auf Valhalla habe ich HDR bisher gar nicht genutzt. Ich mag das Bild ohne HDR, so wie ich es mir einstelle. Nur bei Valhalla waren halt die Farben total daneben, ohne HDR.
 
kenne Warzone nicht, aber generell finde ich bei pvp alles störend, das zu sehr ablenkt. Da gehören max particle effects ebenso dazu, wie zu helle highlights durch HDR.
Also ich empfinde ein möglichst kontrastreiches und helles Bild eher als angenehm, ich kann dadurch verschiedene Objekte im Bild schneller und einfacher erkennen, daher spiele ich immer auf einem möglichst hellen und kontrastreichen Bildschirm, vorallem weil dadurch auch einfach alles viel besser aussieht, ganz ohne leistungsfressende Grafikeffekte.
Da ich eben auch nicht im Dunkeln spiele hat der Bildschirm beim Spielen eigentlich sehr viel Puffer bis er mich wirklich blenden könnte.

Hab noch nich alzuviel über Nano LED gehört bzw mich nich groß damit befasst aber auch genausowennig wie mit Micro LED ... könnte sein das es son Marketing Ding is ( Nano kleiner als Micro )
aber zumindest is da nun ein weiterer Player mit im Spiel.
Aktuell stagniert ja die Helligkeit wie ich finde, zumindest bei LCD, OLED (G3) holt da gut auf, daher sollte LCD da wirklich mal auch Fortschritt machen.
Du erinnerst dich ja sicher noch an das Video von Vincent mit den gemessenen Helligkeiten realer Objekte, da ist bei den Bildschirmen noch seeeehr viel Luft nach oben, um das realitätsgetreu darstellen zu können.
Dass es auch kein Dynamic Tonemapping mehr braucht sondern dass die 1950Nits vom Testbild bei rtings im HDR-Signal auch 1950Nits aufm Bildschirm sind.
Das ist ja der aktuelle Stand und da tut sich seit 3 Jahren nichts mehr. Vom gerade erschienenen Samsung QN90C:

qn90c.PNG


Von hier: https://www.rtings.com/tv/reviews/samsung/qn90c-qn90cd-qled

Der QN90A von vor 2 Jahren war heller, wow: https://www.rtings.com/tv/reviews/samsung/qn90a-qled
Und ja selbst der G3 ist heller: https://www.rtings.com/tv/reviews/lg/g3-oled

Warum nochmal ein QLED?? So ein Teil sollte locker weit über 2000Nits in Real Scene leisten, damit man die Nachteile zu OLED noch rechtfertigen kann.
 
Bis auf Valhalla habe ich HDR bisher gar nicht genutzt. Ich mag das Bild ohne HDR, so wie ich es mir einstelle. Nur bei Valhalla waren halt die Farben total daneben, ohne HDR.

Heftig ... ich spiel nun so gut wie jedes Game in HDR auch SDR Nativ Games ( entweder per Win 11 Auto HDR oder per LGs HLG Mode )

SDR find ich nun dröge da eben der Kontrast fehlt ... bei SDR wird einfach alles angehoben / heller während man bei HDR eben zb ne dunklen Ecke hat die dunkel bleibt
sowie links daneben betonte Helle Autoscheinwerfer als HDR Highlight .... HDR macht da schon viel aus in Sachen Lichtstimmung und abwiegung zwische Dunklen und hellen Stellen gleichzeitig auf dem Bild während bei SDR ja einfach alles entweder hell oder eben dunkel is.

Für mich is das so wie mit Raster Beleuchtung Vs. Ray Tracinng / Path Tracing beleuchtung wo Ray bzw Path halt auch derbe zur Atmo beiträgt oder wie bei 2D Film Vs in echt gedrehter 3D Film ( also nich konvertiert )
der 3D Film hat einfach viel mehr Tiefeninformationen als der Flache 2D Film womit man dann als Zuschauer viel mehr eine Räumliche vorstellung einer Scene bekommt im 3D Film

Es kommt aber auch immer darauf an wie HDR umgesetzt wurde ... bei Cyberpunk sowie Red Dead 2 wurde das HDR zb schlecht umgesetzt bei Ori oder Doom Eternal aber wiederrum wurde es sehr gut umgesetzt.
gibt halt einige Games die relativ schlecht umgesetzt wurden bzw wo nur der SDR Raum erweitert wurde aber bei anderen Games wo mehr Entwicklungszeit in eine Gute HDR Umsetzung gesteckt wurde
is HDR echt ne Augennweide sofern man den Passenden TV / Monitor zuhause stehen hat der das ganze auch gut darstellen kann...

aber selbst auf 8 Dimmig Zones mit HDR sieht das dannn schon super aus wenn man vorher nur Jahre lang nen SDR Monitor hatte ...
hatte damals ( Februar 2020 ) ja den Asus PG43UQ HDR 1000 für 2 Wochen der auch nur 8 Zones hatte aber der hat mich damals halt echt umgeworfen weil erster HDR Monitor
und dann halt mal 1000 Nits sowie 800 Nits bei 100 % Weissbild .. wenn da halt nur nich das Smearing und Ghostinng vom Kack VA Panel des PG43 gewesen währe was wieder alles kaputt gemacht hatte
und mich richtung LG OLED drängte


Aktuell stagniert ja die Helligkeit wie ich finde, zumindest bei LCD, OLED (G3) holt da gut auf, daher sollte LCD da wirklich mal auch Fortschritt machen.

Nunja LCD is halt weiterhin vorne ... beim 2-10 % Peak hat OLED nun aufgeholt bzw sogar teils überholt aber beim 25-100 % Window Rest liegt OLED noch relativ weit hinten.

Bei LCD gibts aber hier und da schon Geräte die mehr bieten als HDR 1000 bzw 1000 Nits .... gibt ja schon welche die 2000 Nits und mehr können ... gab doch mein ich letztens noch nen Tweet von Vince wo er
was von 3000 Nits berichtete


Du erinnerst dich ja sicher noch an das Video von Vincent mit den gemessenen Helligkeiten realer Objekte, da ist bei den Bildschirmen noch seeeehr viel Luft nach oben, um das realitätsgetreu darstellen zu können.

Jepp du meinst sicher das hier :


Dass es auch kein Dynamic Tonemapping mehr braucht sondern dass die 1950Nits vom Testbild bei rtings im HDR-Signal auch 1950Nits aufm Bildschirm sind.
Das ist ja der aktuelle Stand und da tut sich seit 3 Jahren nichts mehr.

Nunja .. Nichts würde ich nun nicht sagen :


22.jpg



Der QN90A von vor 2 Jahren war heller, wow:
Und ja selbst der G3 ist heller:


Ja stimmt der alte 2021er is teils heller ... aber der G3 liegt da weiterhin auf Platz 3 in Sache HDR Helligkeit weil er durchs ABL halt weiterhin krass abdunkelt

2021 QLED -------------------------------------------- 2023 QLED : ---------------------------------- G3 OLED ( MLA )

21.jpg
23.jpg
g3.jpg
 
Zuletzt bearbeitet:
Ja, das TCL-Teil hab ich auch schon im Auge, aber das lässt halt wirklich sehr auf sich warten und wir kennen die Hersteller mit ihren Peak-Angaben, dann kann das Ding halt in 2%-Window für ne halbe Sekunde 3000Nits darstellen ist aber in realen Szenen auch nicht anders als die bestehenden Geräte. Bestes Beispiel ist da der Neo G8 Monitor von Samsung der groß mit "2000Nits" beworben wird aber real gerade so über 1000Nits schafft.
Mal davon abgesehen dass nach allen Informationen die kleinste Größe vom TCL 75" ist...

Nunja LCD is halt weiterhin vorne ... beim 2-10 % Peak hat OLED nun aufgeholt bzw sogar teils überholt aber beim 25-100 % Window Rest liegt OLED noch relativ weit hinten.
Ich habe mich halt von diesen Prozent-Angaben mit den weißen Rechtecken eigentlich schon verabschiedet, ich finde das einfach überhaupt kein realistisches Szenario. Hatte ja selbst diesen Cooler Master Monitor da und der war erste Sahne wenns um Full Field weiß ging und da hat er auch 1400Nits oder so geliefert aber dann in realen Szenen waren gefühlt nur 500Nits von übrig weil das Dimming halt viel zu vorsichtig war in HDR. Echte Szenen sind halt deutlich komplexer als ein weißes Rechteck auf schwarzem Grund.
Ich finde die "Real Scene"-Werte da bei rtings wesentlich realistischer. Und da ist der G3 halt einfach besser.
Und du siehst ja selbst, wie weit jeder(!) Fernseher von 1950Nits der "Hallway Lights" ist.


Aktuell sehe ich halt auch kein Grund, vom QN90A wegzuwechseln. Zumal sich, egal ob QLED oder OLED, die interessanten Entwicklungen sowieso immer erst ab 55" abspielen.
 
Bestes Beispiel ist da der Neo G8 Monitor von Samsung der groß mit "2000Nits" beworben wird aber real gerade so über 1000Nits schafft.

Das war doch glaub ich auch der den sie damals mit "HDR 2000" beworben habe obwohls garkeinn HDR 2000 gibt... da ging damals sone News deswegen rum.

"Geräte wie der Samsung Odyssey G9 2021 oder Acer EI491CRG9 schaffen zwar 2.000 Candela pro Quadratmeter Spitzenhelligkeit, können aber trotzdem nur ein Display-HDR 1400 bekommen. Geworben wird oft mit Display-HDR 2000. Das wäre in der Theorie richtig, in der Praxis aber eben nicht, solange die Zertifikatsliste nicht erweitert wird."


Aber ja das wird wohl so sein wie du sagst ... 3000 nits für einige sekunde bzw bei 2% und der rest wird dann dunkler bzw so im Bereich 2000 Nits was aber immeroch ne Hausnummer is
aber es ist halt auch LCD ohne ABL anders als bei OLED / QD-OLED wos halt derbe abwärtz geht je größer die Helle Fläche

Echte Szenen sind halt deutlich komplexer als ein weißes Rechteck auf schwarzem Grund. Ich finde die "Real Scene"-Werte da bei rtings wesentlich realistischer. Und da ist der G3 halt einfach besser.
Und du siehst ja selbst, wie weit jeder(!) Fernseher von 1950Nits der "Hallway Lights" ist.

jepp stimmt schon ... Real Scene wert is aussagekräftiger .... aber in bestimmten Modis bzw mit bestimmten Content reagieren die Gerätes anders bzgl des Tone Mappings / ABL
.... das hab ich auch erst dieses Jahr gelernt

Bei Gemasterten 600 Nit Video Conntet fällt der G3 kaum ab bzgl des ABLs aber spielt man 2000 nit Content ein dreht das ABL wieder auf .... ich hatte dazu vor einiger Zeit mal was im LG Thread gepostet
dort wurde es aber ignoriert war dennen wohl zu hoch und die habens nich gerafft .... Classy hat sein Test Parkour ja etwas angepasst und da sieht man das.

G3 :

2211.jpg
2.jpg


Daten nun vom G2 :

600 Nit Video Content ---------------------------------------------------------- 1000 Nit Video Content : -------------------------------------------- 2000 Nit Video Content :

600.jpg
----
1000.jpg
---
2000.jpg




Je höher der Content was Nits angeht gemastert wurde im Bereich der Nits umso agressiver dimmt das ABL runter ... Dolby Vision is meist bzw glaub sogar immer mit 10.000 Nits gemastert
deswegenn is Dolby Vision auch immer dunkler als HDR10 da das ABL ja dann wieder agressiver anspringt ... und deswegen macht Dolby Vision auch erst mit nem Gerät sinn was sehr viel
Nits kann ( am besten eben 10.000 Nits ) das sagte auch TZGamer vor 1 oder 2 Jahren schon im LG Thread

Menu von der Spears & Munsil HDR Benchmark Disk :


322.jpeg
--
1.jpg



Aktuell sehe ich halt auch kein Grund, vom QN90A wegzuwechseln. Zumal sich, egal ob QLED oder OLED, die interessanten Entwicklungen sowieso immer erst ab 55" abspielen.

Ähnlich gehts mir mit meinem 2020er LG 48" CX OLED ... alle haben drüben vom 2022er LG 42" C2 OLED geschwärmt und nich kapiert warum ich de 42" halt nich so toll finde und sogar eher entäuscht von dem war
aber man der is halt dunkler als mein 2 Jahre älterer 48" CX LG OLED das währe für mich auch eher einn Rückschritt ähnlich zu deinem 2021 vs 2023 vergleich vorhin wo der 2021er auch heller war.

Aktuell liegt meine Hoffnung bekannterweise ja auf ein 2024er LG 42" C4 OLED wo dann hoffentlich das MLA mit verbaut wird
bei Samsungs QD-OLED wird denk ich kein 4K QD-OLED im Bereich 40" rauskomme 2024 wenn LG 2024 also im 42" keinn MLA verbaut siehts bei mir auch erstmal düster aus dann muss ich auf 2025 hoffen
das währen dann 5 Jahre warten von 2020 aus gesehen
 
Zuletzt bearbeitet:
@Stagefire
Ich vermute mal du spielst auf OLED? Ich denke auf OLED führt nicht wirklich ein Weg an HDR vorbei, schon alleine wegen der Helligkeit.

Dröge war ohne HDR eigentlich nie was. Teilweise habe ich die Sättigung etwas erhöht, für knalligere Farben und bei shootern den blackbooster verwendet, für bessere Sichtbarkeit (in solchen shootern habe ich früher gerne auch andere grafische Optionen reduziert, wie Zbsp Texturen. Also alles was die Zielerfassung verlangsamt), aber auf dem fv43u ist beides nicht notwendig und heute spiele ich sowieso nur noch wenig pvp. 2 Seasons von Tarkov war glaube ich das letzt und ist auch schon wieder recht lang her.

Ich bin auch nur mäßig von Raytracing begeistert. Das wird sicher mal ganz groß, aber im Moment finde ich, bringt es eher wenig im Vergleich zu gut gemachten max settings ohne Raytracing. Klar, wenn zBsp wie in Cyberpunk nachträglich Lichtquellen und Effekte hinzugefügt werden, sieht das genial aus. Aber das ist jetzt nicht wirklich ein Verdienst der raytracing Technologie und wenn man nicht stehen bleibt und sich Reflektionen anschaut, sieht man halt in der Bewegung beim Gamen keine gewaltigen Unterschiede zur traditionellen Art es zu simulieren (wenn die devs sich Mühe gegeben haben), es sei denn man sucht aktiv danach. Und es ist eben immer die Frage, ob man sich ohne raytracing denn auch Mühe gegeben hat, den selben Effekt zu simulieren. Ist das nicht der Fall, hinkt der Vergleich natürlich.

Das Problem bei Raytracing auf technischer Seite ist zudem, dass selbst wenn man minimale FPS aufgrund von raytracing hat, die GPU immer noch die volle Leistung schluckt. Die Raytracing Leistung lässt sich also gar nicht so leicht weiter massiv erhöhen, denn sie schluckt massiv power. Die vergleichsweise leichte implementierung von raytracing in Spielen, die sicher erheblich leichter ist, als Licht und Reflexionen traditionell zu simulieren, wird diese Technologie immer wichtiger machen. Doch bis sie für mich kaufentscheidend sein wird, werden sicher noch einige GPU Generationen kommen. Ich persönlich würde es begrüßen, wenn raytracing auf eine zweite Karte ausgelagert wird.

Mir fehlen bei HDR wie gesagt die Vergleiche. Aber auf Valhalla bezogen, sieht für mich Valhalle mit HDR so aus, wie Red Dead Redemption 2 ohne HDR. Nur halt die Sonne und einige Helle Reflektionen strahlen stärker.

Die Dimming Zonen halte ich wie gesagt in einem nicht abgedunkelten Raum, für nicht wirklich nützlich. Insbesondere der fv43u hat so gute Schwarzwerte, dass Dimming bei normaler Beleuchtung nicht notwendig erscheint. Selbst das Schwarz auf dem IPS meiner Freundin erscheint wie gesagt recht ok und das ist im dunklen Raum meilenweit vom fv43u entfernt. Bei 8 Dimming Zonen würde ich dazu tendieren das local dimming abzuschalten. Allerdings war das auf dem fv43u bisher nicht notwendig, ich konnte noch keine sichtbaren Zonen ausmachen.
Beitrag automatisch zusammengeführt:

@Stagefire um nochmal auf raytracing zurück zu kommen. Was mich auch etwas stört ist, wenn man sich mal vorstellt, was diese massive Leistung gametechnisch bringen würde, die für raytracing notwendig ist, wenn sie stattdessen in den Detailreichtum des Spieles fließen würde. Die fps Kosten stehen in keinem Vergleich zu dem was man dadurch gewinnt. Bisher ist es daher eher ein gimmick.

Da man mit Raytracing leichter hübsche Effekte erzeugen kann, könnte es sich natürlich durchsetzen. Aber wenn man sich mal midjourney anschaut, sollte einem klar werden, dass KIs in absehbarer Zeit auch 3d erschaffen können und dann sehe ich eigentlich eher wenig Chancen für raytracing, wenn raytracing weiterhin die rasterization Leistung beschneidet, was es momentan durch seinen Stromverbrauch und Hitzeerzeugung ja macht.
 
Zuletzt bearbeitet:
Und wenn man per KI dann noch Licht bzw radiosity und Reflektionen auf traditionelle Weise, gut und mit wenig Aufwand simulieren bzw implementieren kann, würde auch der Vorteil von raytracing für die Entwickler wegfallen. Ob raytracing in seiner derzeitigen Form sich durchsetzen wird, ist also noch nicht wirklich sicher.
 
Zuletzt bearbeitet:
Ich vermute mal du spielst auf OLED? Ich denke auf OLED führt nicht wirklich ein Weg an HDR vorbei, schon alleine wegen der Helligkeit.
Dröge war ohne HDR eigentlich nie was.

Jepp auf OLED ... mag sein dass dieser umstand natürlich auch darein spielt da mein 48CX nur so rund 200 Nits in SDR packt ... aber mit dröge meinte ich halt das mir in SDR was fehlt
eben so diese "Tiefe" bzw der Kontrast zwischen Hell und Dunkel in einer Scene den ich ja beschrieben hatte

In SDR wird halt alles heller oder dunkler
In HDR bleibt das dunkle dunkel und das helle wird heller und so entstehen die HDR Highlights von dennen ich hin und wieder spreche in anderen Threads

Hab mal gegooglet um beispiele zu finden :

hdr-vs-sdr.jpg
2.jpg
HDR-SDR-Last-of-Us.jpg




Ich bin auch nur mäßig von Raytracing begeistert. Das wird sicher mal ganz groß, aber im Moment finde ich, bringt es eher wenig im Vergleich zu gut gemachten max settings ohne Raytracing.


Ray bzw Path bringt halt auch sehr viel Tiefe in das Bild rein daher auch mein Vergleich mit 3D Vs 2D Gestern wo der 3D Film auch einfach viel mehr Bildtiefe hat

Und Ray is ja nich nur Beleuchtung sondern : Reflexionen , umgebungsverdeckung , schatten , Licht .. manche Ray Games nutzen alles und andere zb nur die Schatten mit Ray


12.jpg
-
2.jpg
6.jpg
3.jpg
99.jpg
5.jpg
555.jpg
999.jpg


7.jpg
8.jpg
9.jpg
10.jpg



Klar, wenn zBsp wie in Cyberpunk nachträglich Lichtquellen und Effekte hinzugefügt werden, sieht das genial aus.

Da werden keine Lichtquellen hinzugefügt ... die sind schon da ( Sonne , Mond , Scheinwerfer , Neon Schilder , Autoscheinwerfer usw ) ... eher werden die Fake Lichtquellen rausgenommen die man bei Raster reingepackt hatte. ( die aber teils auch schon gut geworden sind über die Jahre ) daher sehen manche Ray / Path Scenen nun dunkler aus als wenn Raster aktiv is.

Aber das ist jetzt nicht wirklich ein Verdienst der raytracing Technologie und wenn man nicht stehen bleibt und sich Reflektionen anschaut, sieht man halt in der Bewegung beim Gamen keine gewaltigen Unterschiede zur traditionellen Art es zu simulieren (wenn die devs sich Mühe gegeben haben), es sei denn man sucht aktiv danach.

Die seh ich bei Cyberpunk schon die unterschiede .. auch wenn ich da schnell rumfahre mitm Auto ... aber auch wenn man die dinge nicht aktiv mitbekommt wird das Bild aufgewertet ohne das mans merkt

Klar es gibt auch bei Ray genau wie damals bei den 3D Filmen Hit and Miss .. es gibt Games wo Ray nich gut implimentiert wurde zb Halo Infinite aber bei Cyberpunk zb sieht es super aus da dort das Volle
Programm drinn is und nich nnur die Schatten per Ray wie bei Halo Infinite oder bei Tomb Raider beim Game Control siehts zb auch super aus oder bei Metro Exodus.


Das Problem bei Raytracing auf technischer Seite ist zudem, dass selbst wenn man minimale FPS aufgrund von raytracing hat, die GPU immer noch die volle Leistung schluckt. Die Raytracing Leistung lässt sich also gar nicht so leicht weiter massiv erhöhen, denn sie schluckt massiv power. Die vergleichsweise leichte implementierung von raytracing in Spielen, die sicher erheblich leichter ist, als Licht und Reflexionen traditionell zu simulieren, wird diese Technologie immer wichtiger machen. Doch bis sie für mich kaufentscheidend sein wird, werden sicher noch einige GPU Generationen kommen.

Dafür gibts halt zb DLSS und Frame Generation .... ich zocke Cyberpunk in 4K mit Path und Frame Gen und DLSS auf Qualität mit 60 - 90 FPS ... geh ich auf 3840 x 1900 runter bin ich oft im 100 FPS Bereich
ab 90 FPS bin ich zufrieden aber da is natürlich jeder anders sonst würde es ja auch keine 240 hz Monitore geben .. aber mir reichen so 90 - 100 FPS aus und die hab ich wenn ich DLSS nutze
oder halt Frame Gen.

Bin aber auch Singleplayer Zocker ... MP zock ich dann nur mal ne Runde Battlefield

Mein System :

Intel 9900K @ 5 Ghz allcore
DDR 4 mit 4100mhz CL 17
4090 Strix mit 400 - 450 Power Targed

Mir fehlen bei HDR wie gesagt die Vergleiche. Aber auf Valhalla bezogen, sieht für mich Valhalle mit HDR so aus, wie Red Dead Redemption 2 ohne HDR. Nur halt die Sonne und einige Helle Reflektionen strahlen stärker.

Hau dir mal Ori rein oder eben Doom Eternal und vergleiche da mal .. selbst das schlecht umgesetzte HDR bei Cyberpunk sieht besser aus als das SDR in Cyberpunk

Es sind ja wie gesagt nicht nur die Farben sondern auch die Beleuchtung ansich die durch HDR beeinflusst wird.


um nochmal auf raytracing zurück zu kommen. Was mich auch etwas stört ist, wenn man sich mal vorstellt, was diese massive Leistung gametechnisch bringen würde, die für raytracing notwendig ist, wenn sie stattdessen in den Detailreichtum des Spieles fließen würde

Sie hatten Jahre lang Zeit diesen Detailreichtum zu erzeugen aber seit Crysis 1 isses nur noch sehr schleppend vorrangegangen ... und Cyberpunk is nun das neue "Can it run Crysis" geworden was ich
sehr begrüße da wir solche Games brauchen die halt mal Pushen

Konsolen halten den Grafischen Fortschritt halt massiv auf ... damals war am PC der PC die Lead Platform wo die Games drauf und für entwickelt wurden .. das is nun anders ... Heutzutage sind die Konsolen
die Lead Platform und die haben alte Hardware drinn und darum is der Fortschritt seit dem die Konsole die Lead Platform wurde so schleppend dort.

Und darum haben wir aktuell auch sone Front an Schlecht Optimierten Konsolen zu PC Ports Stichwort : Shader Cache ... Prio liegt bei den Konsolen erst danach kommt der PC ... das war damals noch anders
und darum war der Fortschritt damals schneller als Heutzutage

Aber Ray Tracing bzw noch besser Path Tracing is wieder ein Großer Sprung bei der Grafikqualität wie wir ihn schon seit Jahren nicht mehr hatten
 
Zuletzt bearbeitet:
@Stagefire ja, selbst unendlicher Kontrast hilft nicht viel, wenn die Helligkeit zu gering ist. Daher macht SDR auf OLED meiner Meinung nach wenig Sinn. Allerdings bleibt bei guten Monitoren auch bei SDR Schwarz schwarz. Man hat aber natürlich keine HDR Highlights. Das Bild ist gleichmäßiger, das stimmt natürlich. Finde ich aber keineswegs negativ und ambient occlusion gibt ausreichend Tiefe.

Raytracing macht vieles einfacher und genauer, aber man kann sich dem Resultat auch ohne raytracing ausreichend annähern. Das ist zwar erheblich mehr Arbeit, kostet aber nur einen Bruchteil der Leistung. Ich hätte lieber ein vielfaches an Details, anstatt Pfützen und Oberflächen mit einer jetzt perfekten Spiegelung. Ein gutes gemachtes Game auf max settings hat nicht weniger Tiefe als mit raytracing. Man muss natürlich fair vergleichen und das game muss entsprechend sorgfältig gemacht sein. Dass sich alte games mit raytracing super pimpen lassen, ist klar. Für mich aber uninteressant. Selbst sowas wie Cyberpunk, das spielt man halt einmal durch und fertig.

Mir sind an verschiedenen Stellen in Cyberpunk Lichter aufgefallen, die ohne raytracing ganz einfach nicht da sind. Ein Beispiel war in den Vertiefungen an den Seiten einer Fußgängerbrücke. Mit raytracing ist da auf einmal in jeder Vertiefung blaues Licht drin, als hätte jemand eine indirekte Beleuchtung verbaut (es sind aber keine sichtbaren Lichtquellen vorhanden), ohne raytracing ist da gar nichts.

Auch ist raytracing nicht grundsätzlich überlegen. Radiosity hat was Licht betrifft auch seine Vorteile. Klar sieht ein Game anders aus, wenn man nachträglich Raytracing draufklatscht. Dem Ergebnis könnte man sich aber auch auf herkömmliche Weise so weit annähern, dass eine 90%ige Zunahme der Leistungsanforderung dafür, einfach nur lächerlich wirkt. Außerdem vermute ich mal, dass Nvidia Leute vorbeigeschickt hat, die massiv dabei geholfen haben Cyberpunk zu pimpen. Raytracing ist ja nun mal deren Zugpferd und was gaming angeht, ihr einziger vermeintlicher Vorteil, sobald fsr3 draußen ist.

Klar kann man dlss oder fsr verwenden. Trotzdem ist und bleibt die Leistung im Endeffekt verschenkt, denn man kann beides auch ohne raytracing verwenden und könnte die Leistung woanders besser einsetzen. Zumindest für meinen Geschmack.

Doom werde ich mir vermutlich irgendwann anschauen, dann vergleiche ich da mal sdr und hdr. Raytracing beeindruckt mich bisher wie gesagt, nur mäßig und ist nicht mal annähernd für mich ein Grund, Nvidias asoziales Gebaren zu ignorieren. Die Produktionszahlen absichtlich zu drosseln, um die Preise hoch zu halten, oder Boardherstellern zu verbieten mehr VRAM zu verbauen, damit man für eine zukunftsichere Menge vram eine schnellere GPU kaufen muss, da komme ich mir verarscht vor und da gehöre ich ganz sicher nicht zum Zielpublikum. Seit der Voodoo Grafikkarte vor ewigen Zeiten, habe ich jetzt zum ersten mal wieder eine gpu die keine nvidia gpu ist und sehe bisher auch keinen Grund, dass sich das wieder ändern wird. Die einzigen Gründe die für mich noch für nvidia sprechen, sind cuda und stable diffusion, die aber auf einem gaming System nicht wirklich relevant sind.
 
Zuletzt bearbeitet:
ja, selbst unendlicher Kontrast hilft nicht viel, wenn die Helligkeit zu gering ist. Daher macht SDR auf OLED meiner Meinung nach wenig Sinn.

Ich meine mit dem Kontrast wohl was anderes als du .. ich meinte das bezogen auf dunkle Ecke vs Scheinwerfer in einer scene siehe eben mein Beispiel von dem Game Last of Us
oder bei dem Berg und der Sonne in dem anderem Bild

also mir gefällt da halt zb das HDR Bild rechts wesentlich besser als das SDR Bild Links .. bei dir is das dann also andersrum und du findest das Linke Kontrastlosere SDR Bild besser

HDR-SDR-Last-of-Us.jpg
hdr-vs-sdr.jpg



Im Übrigen sind die neueren OLEDs im SDR Bereich auch heller geworden .. ich hab halt noch ein alten LG 48CX OLED von 2020 ...
hier mal ein Vergleich zwischen meinem und dem neuen 2023er LG G3 OLED mit MLA bei SDR

Mein 48CX OLED kommt auf 200 Nits während der G3 OLED auf 600 Nits kommt in SDR --------- Und auch mal HDR .... bei meinem etwa 730 Nits und beim G3 fast 1500 Nits

CX.jpg
--
G3.jpg
----------------------
CX.jpg
---
G3.jpg




Allerdings bleibt bei guten Monitoren auch bei SDR Schwarz schwarz.

Du verstehst nicht was ich damit meinte

Dreht man die Helligkeit bei SDR auf wird das Schwarz heller bzw das ganze Bild wird heller ... dreht man die Helligkeit bei HDR auf bleibt schwarz aber dunkel während die Highlights noch besser betont werden
besserer Kontrast zwischen Hell und Dunkel ... siehe eben oben das Last of Us Bild sowie die anderen beiden Bilder in meinem letzten Post.

Man hat aber natürlich keine HDR Highlights. Das Bild ist gleichmäßiger, das stimmt natürlich. Finde ich aber keineswegs negativ

Zum Glück sehen das andere anders einschlieslich mir ... ich vermute halt das du bei deinen HDR Tests bisher halt nich die Besten Games / Monitore / TVs genutzt hast und ein falsches Bild von HDR bekommen hast.


Aber es is halt auch eine Frage des Geschmacks und der is halt unterschiedlich bei den Menschen.

Raytracing macht vieles einfacher und genauer, aber man kann sich dem Resultat auch ohne raytracing ausreichend annähern. Das ist zwar erheblich mehr Arbeit, kostet aber nur einen Bruchteil der Leistung.

Bei einem bin ich bei dir und zwar das Ray / Path sehr viel Leistung wegfrisst aber es is nur eine Frage der Zeit .... aber ich finde es gut weil sowas den Fortschritt fördert
wir brauchen Games wie Cyberpunk mit Path damits wieder vorran geht

Ich hätte lieber ein vielfaches an Details, anstatt Pfützen und Oberflächen mit einer jetzt perfekten Spiegelung.

Du scheinst immernoch nich verstanden zu haben was Ray ist obwohl ich das weiter oben schon erklärt hatte und Bilder dazu gepackt hatte
Ray is nicht nur Reflexionen auf ner Oberfläche sondern : Reflexionen , umgebungsverdeckung , schatten , Licht

Und dann kommt noch oben drauf wieviele Light Bounces berechnet werden .. bei normalen Ray isses 1 Bounce per Pixel .. bei Cyberpunks Path Tracing sinds glaub ich 2 Bounces und bei
dem Inoffiziellen Patch für Control sinds bis zu 3 Bounces Pro Pixel

Hier mal die Ray Sachen die das Game Control aufbietet : ------------------- Und bei Cyberpunk :

Screenshot 2023-05-28 212302.jpg
---
22.jpg


Screenshot 2023-05-28 212707.jpg
2.jpg




1.jpg
2.jpg


1.jpg
2.jpg
1.jpg
2.jpg


7.jpg




Aber lassen wir das das war nun genug Off Topic hier .... nich jeder muss alles mögen und das is absolut okay
 
Zuletzt bearbeitet:
@Stagefire ja, wir drehen uns etwas im Kreis. Deine HDR Werbebilder sind echt witzig, da bei mir SDR noch nie so ausgesehen hat. Insbesondere auf dem fv43u mit seinem glossy panel, braucht man kein HDR für ein super Bild. Du überschätzt HDR meiner Meinung nach bei weitem. Mehr als hellere highlights, ist da kaum erwähnenswert. Auch in SDR habe ich ein super Schwarz, geile Farben und gleichzeitig sehr helle und dunkle Bereiche und einen sehr guten Kontrast. Wie gesagt, in einem hellen Zimmer ist selbst das graue Schwarz eines IPS Panels noch schwarz und man sieht das Leuchten nicht. Allerdings hat man ohne HDR natürlich nicht so helle Bereiche, wie zbsp gerade die Sonne in Valhalla mit HDR aktiviert. Aber ehrlich, das entlockt mir keine Begeisterungsstürme. Ebensowenig wenn ein Spiel auf SDR schlecht aussieht und HDR braucht um vernünftig auszusehen.

Auch deine raytracing Bilder sind witzig und genau was ich die ganze Zeit sage. Schau nur die beiden letzten. Da ist nicht mal vernünftiges ambient occlusion im rasterization Bild und die Beleuchtung könnte erheblich besser gemacht sein. Besonders witzig, der immer positiv empfundene Gelbstich auf dem rechten Bild. Offensichtlicher und manipulativer geht es kaum.

Auch auf den anderen Bildern, wirkt es nicht gut eingestellt. Rasterization zu hell, raytracing zu dunkel, zbsp bei dem Tisch. Das sind Taschenspielertricks, um raytracing besser aussehen zu lassen und nicht mal sonderlich gute.

Beim close up vom Tisch, wenn man mal die zu hellen Charaktere ignoriert, finde ich die radiosity Reflektionen zudem schöner, als die raytracing Reflektionen. Ich mag radiosity und raytracing ist auch nett, aber für das was es momentan liefert, overhyped und das ganz massiv. Kommt scheinbar drauf an wie empfänglich man für marketing und hype ist und ob man auf solche Bilder reinfällt.

Wenn dich raytracing so begeistert, ist das ja vollkommen in Ordnung. Für mich ist es in erster Linie ein marketing gimmick, bis es sich noch erheblich weiterentwickelt hat und wenn ich mir alles richtig eingestellt habe, sieht es super aus und nicht so, wie es laut deinen rtx oder hdr Werbebildern angeblich bei mir aussieht. Ich kann mir eigentlich nicht vorstellen, dass es so schwer ist, alles bei sich vernünftig einzustellen, aber ok. OLED, HDR und raytracing macht es sicher einfacher, da bleibt wenig Raum für Fehler. Insofern eine legitime Wahl.

Was soll ich nicht verstanden haben? Du verstehst nicht, dass man all das auch ohne raytracing machen kann, mit ein paar Prozent Qualitätsverlust aber massivem Leistungsgewinn. Vielleicht nicht diese übertriebenen Highlights wie auf deinem letzten Bild, aber da kann man ja hdr einschalten, wenn man drauf steht. Raytracing ist toll für faule devs, das stimmt schon. Aber wie gesagt, die momentane Entwicklung im KI Bereich könnte raytracing durchaus noch das Wasser abgraben. Warten wir es ab. Ich hab oft genug zwischen raytracing und rasterization hin und hergeschaltet, um sicher sagen zu können, dass es momentan noch mehr hype als sonstwas ist und das selbst in cyberpunk. Das mag sich bis zum nächsten upgrade ändern, oder auch nicht.
 
Ich find aktuell wird HDR noch viel zu sehr limitiert von zu leuchtschwachen Displays. Wie du schon richtig sagst @Stagefire ist Dolby Vision z.B. auf 10.000Nits gemastert und wird halt auf die 1000Nits der OLEDs heruntergerechnet. Klar sieht das auch gut aus aber IMO kommt das eher durch die entsperrte Helligkeit bei den OLEDs im HDR-Betrieb, während die ja bei SDR auf 200-300Nits gedrosselt werden.
Das HDR-Bild kann man in SDR auch einfach nachstellen indem man die Helligkeit hochzieht und dann wiederum das Gamma wieder runter. Klar hat man hier und da mehr Details, aber ich denke wirklich interessant wird es erst, wenn die eigentlich angedachten 10.000Nits auch wirklich dargestellt werden können.

Denn auf ungedrosselten Displays, also die die SDR genauso hell darstellen können wie HDR, find ich den Unterschied irgendwie kaum spürbar.
Gerade das finde ich eher ein schlechtes Beispiel. So sieht es bestimmt auf den gedrosselten OLEDs aus das SDR, aber an meinem QLED ist das Feuer immer auf maximaler Helligkeit, egal ob SDR oder HDR. Und wieviel Details im Dunkeln sichtbar sind, kann ich ja dann per Gamma-Einstellung nachregeln wenn man das unbedingt braucht.

Eins meiner Lieblingsspiele, Apex, hat gar kein HDR. Stört mich aber eigentlich null, denn ich kann trotzdem die volle Helligkeit meines QLEDs genießen.

Es hat wie gesagt schon seinen Grund warum Dolby-Vision auf 10k Nits gemastert wird, dafür wurde HDR geschaffen. Für die aktuellen 1000Nits Peak-Geräte reicht ein gestrecktes SDR-Signal IMO mehr als aus. Allemal besser als 10k Nits content so massiv herunterzuskalieren.

Meine Referenzwerte sind halt die Helligkeitswerte der Realität (-> Das angesprochene Video von Vincent), nicht das was ein Edge-Lit-IPS ggü. einem OLED bisher geleistet hat.
Und da sind wir leider, egal welche Technologie, noch seeehr weit entfernt in einem 500Nits Vollflächigen Bild 2500Nits (so hell war die Fahrradklingel) Highlights herauszuarbeiten.
Beitrag automatisch zusammengeführt:

fv43u mit seinem glossy panel
Ist nicht glossy, nur semi-glossy mit einem sehr schlechten Reflektionsverhalten:
fv43u.PNG


Frage mich bis heute warum man diese 43" VA-Monitore dem QN90B vorzieht. Außer einem massiv schlechterem Coating (und dafür halt einen DisplayPort-Eingang) hat man doch nichts davon.
Und man hat nur 8 Dimming-Zonen statt 360 Stück beim Samsung.
 
Deine HDR Werbebilder sind echt witzig, da bei mir SDR noch nie so ausgesehen hat.

Sind nicht meine sondern ich hab sie per Google Suche gefunden wie vorhin schon gesagt .. sie sollen nur grob aufzeigen wie ich HDR und SDR erlebe
HDR muss man in HDR erleben und is nur schwer in SDR Bilder zu vermitteln

Du überschätzt HDR meiner Meinung nach bei weitem. Mehr als hellere highlights, ist da kaum erwähnenswert.

Überschätzen tu ich es nicht ... ich hab seit 2020 ein HDR Display und schon etliche HDR Games durchgezockt um da schon einen guten Anhaltspunkt zu haben was mir HDR bringt
Du hast dagegen nur Asassins Creed Valhalla in HDR gezockt und mehr nicht.

Wie gesagt vielleicht solltest du erstmal ein paar HDR Games ausprobieren und nich nur Assassins Creed um HDR zu beurteilen.

Ich mag halt das HDR Bild lieber da es mir "Helle" HDR Highlights bringt ( die "" wegen meines ABLs vom OLED und weil mein OLED nur 700 Nits max packt ) ... aus dem Grund möchte ich ja auch
ein möglichst helles HDR Gerät haben .. ich mag es wie sich die HDR Highlights vom Restlichen Bild abheben... aber wie nun schon mehrfach gesagt Menschen sind unterschiedlich


Ich mag radiosity und raytracing ist auch nett, aber für das was es momentan liefert, overhyped und das ganz massiv. Kommt scheinbar drauf an wie empfänglich man für marketing und hype ist und ob man auf solche Bilder reinfällt.

Also ich spiele diese Bilder grade selbst .. ich zocke Aktuell Cyberpunk .... und Marketing is das nich sondern die Zukunft an der schon Jahre gefeilt wird schon bevor Nvidia damit angefangen hat es in ihre RTX Karten einzubauen ... es wird auch im Film Bereich schon seit Jahrzehnten benutzt.

Und diese Cyberpunk Bilder von vorhin stammen von Digital Foundry .. die sind unabhängig und gehen oftmals ins Detail zb auch bei der Shader Cache Sache die Aktuelle PC Games betrifft.



Was soll ich nicht verstanden haben? Du verstehst nicht, dass man all das auch ohne raytracing machen kann, mit ein paar Prozent Qualitätsverlust aber massivem Leistungsgewinn.

Nun warum haben sie das denn nich in den letzten 20 Jahren gemacht ??? Hatten ja Zeit genug dafür

Ray is genauer und einfacher zu Implimentieren da die Entwickler dann keine Fake Lichter in die Welt setzen müssen die auch zu Light Bleeding führt in manchen fällen und sieht für mich Persönlich
halt viel geiler aus als Raster

Hab nun auch schon etliche Ray Games gezockt ... zb : Doom Eternal , Control , Metro Exodus , Cyberpunk

Niemand is gezwungen Ray zu nutzen .. gefällt einem es nicht macht mans aus aber zu sagen das Ray / Path nur Marketing sei nunja
Beitrag automatisch zusammengeführt:

Ich find aktuell wird HDR noch viel zu sehr limitiert von zu leuchtschwachen Displays.

Auf den älteren OLEDs ja ... beim G3 wirds langsam ... ich bin halt aber auch schon mit 1.000 Nits recht zufrieden ... das is bei dir ja anders du brauchst ja mehr Nits
Menschen sind unterschiedlich usw.

Klar sieht das auch gut aus aber IMO kommt das eher durch die entsperrte Helligkeit bei den OLEDs im HDR-Betrieb, während die ja bei SDR auf 200-300Nits gedrosselt werden.

SDR sind 500-600 Nits bei 2-50 % Weissbild und nicht mehr 200 - 300 Nits wie noch bei den älteren Geräten ... hatte ja oben vorhin schon die SDR Werte gepostet... oder meintest du nun bei 100 % Weiss Bild ?
Wenn ja dann ja da sinds dann so 300 Nits .. für mich persönlich is eher der Bereich 2-75 % wichtig und am Wichtigsten der Bereich 2-50 %


G3.jpg
--
G3.jpg
 
Zuletzt bearbeitet:
@SynergyCore Was HDR angeht bin ich bei dir, außer dass ich bei einem Monitor keinen Vorteil von noch höherer Helligkeit sehe, aber das ist Geschmackssache.

Warum ein 120hz TV verwenden? Nicht nur dass Display Port fehlt, der einzige Vorteil wären die Dimming Zonen, die mir rein gar nichts bringen. Zumal der Fuß ziemlicher Mist ist, während die Füße der fv43u sehr gute Griffe sind, wenn man den Monitor am einem Arm hängen hat, was meines Erachtens unverzichtbar ist. Die Helligkeit des Monitors ist auch mehr als ausreichend. Also zahlt man im Endeffekt mehr für weniger. Macht nicht viel Sinn in meinen Augen.

Was soll an semi "nur" sein? Mag ja gegen Reflektionen nicht sonderlich helfen, aber es stört die Farben, Kontrast und Sättigung nicht im geringsten und um die geht es ja. Wenn man ein Fenster im Rücken hat, ist der Monitor sicher nicht die beste Wahl. Aber so würde ich es nie positionieren.

@Stagefire ich habe wegen Valhalla HDR gerade aktiv ;) Wie SynergyCore schon richtig anmerkte, kann man auf QLED auch ohne HDR die Helligkeit voll auskosten. Das kannst du nicht mit dem SDR deines Oleds vergleichen.

Die Bilder sind halt das übliche fake, sowohl die hdr als auch rtx. Ob jetzt der Ersteller der Bilder da getrickst hat, oder die jungs von nvidia die beim rtx in cyberpunk mitgeholfen haben, da den Gelbstich reingebracht haben, ist doch im Endeffekt wurscht. Ist ja nicht so, als ob die Farbe gelb nur raytracing kann. Dass es einfacher zu implementieren ist, streite ich ja gar nicht ab. Besser als schlecht gemachtes rasterization ist es selbstverständlich. Und die Bilder mit dem Tisch sind wie gesagt zu hell. Aber ist ja egal. Wenn du meinst, dass sich das so lohnt, ist doch alles super. Für mich ist es bisher nur ein Gimmick, das für mich noch nicht wirklich relevant ist. Wenn ich die Wahl zwischen 60fps raytracing und 90fps rasterization habe, brauche ich überhaupt nicht zu überlegen, so wenig Zugewinn bringt es für mich.
 
ich habe wegen Valhalla HDR gerade aktiv ;) Wie SynergyCore schon richtig anmerkte, kann man auf QLED auch ohne HDR die Helligkeit voll auskosten. Das kannst du nicht mit dem SDR deines Oleds vergleichen.

Ich hatte wie ich ja schonmal sagte damals im Februar 2020 denn Asus PG43UQ mit HDR 1000 ( ohne ABL .. und eine vorgänger Version deines Gigabytes hier ) für 2 Wochen bei mir stehen
und auch da sah HDR besser für mich Persönlich aus als SDR ... vielleicht weil ich halt bei HDR auf andere Dinge ein Augenmerk lege als andere Menschen kein plan. ..... für mich sinds halt vorwiegend
die hellen HDR Highlights die sich in HDR schön vom Restlichen Bild absetzten können .. andere legen vielleicht bei HDR auf andere Dinge wert aber bei mir sinds zu 80 % die Hellen HDR Highlights
wie zb Die Sonne , Auto Scheinwerfer , Lagerfeuer , Laserstrahlen , Lichtkegel generell die sich in HDR wesentlich besser vom Restlichen Bild abheben als in SDR

Aber auch das Gesamtbild wirkt für mich Persönlich in HDR besser als SDR.


Wird schon sein Grund haben warum es HDR , HDR+ , Dolby Vision überhaupt gibt oder ? Oder is das auch nur Marketing für dich ? 8-)

Die Bilder sind halt das übliche fake, sowohl die hdr als auch rtx.

Und aus welchen Grund sollte Digital Foundry dieses ganze Video ( die bilder stammen ja wie gesagt aus dem von mir vorhin verlinkten Video wo es nich nur Bilder sondern halt ganze Video Sequenzen sind die sich bewege ) faken ?

Sind die ganzen Postiven Berichte die man überall über Ray und Path liest sowie Reddit und Foren Beiträge auch alle Fake und Marketing für dich ???

Bist du Trump Wähler ? :ROFLMAO: ( nich ernst gemeint is nur ein spass )

Ob jetzt der Ersteller der Bilder da getrickst hat

Haben sie nich schau dir halt das Video an was ich verlinkte das sind ja nich nur Bilder sondern Video Schnippsel die dort zu sehen sind mit direkt vergleichen zwischen
Raster , Ray und Path.

Aber ist ja egal. Wenn du meinst, dass sich das so lohnt, ist doch alles super. Für mich ist es bisher nur ein Gimmick, das für mich noch nicht wirklich relevant ist. Wenn ich die Wahl

Geschmackssache eben .... wie gesagt ... man kanns auch ausmachen im Game Menu ... ich machs immer an wenns geht aber hab eben auch schon bei etlichen Games direkt vergleiche
selbst gemacht um zu wissen das es kein marketing oder Fake is sondern ein weiterer Teil des Heiligen Grahls an dem schon seit Jahren geforscht wird noch bevor Nvidia
damit anfing als das es eben auch in der Film Branche für die Filme genutzt wird die wir Täglich sehen.

zwischen 60fps raytracing und 90fps rasterization habe, brauche ich überhaupt nicht zu überlegen, so wenig Zugewinn bringt es für mich.

Hmm okay .. also ich hab mit Ray bzw Path in 4K halt so 100 FPS ( 120hz OLED ... ab 90 FPS bin ich wie ich schonmal sagte zufrieden ) ... welche GPU hast du denn das du dann nur 60 hast ?


Max Details ... nur halt Bewegungsunschärfe und Chromatische Aberation und Filmkörnung hab ich aus weils ich das nich mag


3840 x 1800 + Path Tracing + DLSS Ausgeglichen + Frame Gen = 92 FPS ------------- 4K + Path Tracing + DLSS Performance + Frame Gen = 100 FPS

1800.jpg
2160.jpg



3840 x 1900 + Path + DLSS Performance + Frame Gen = 110 FPS ------------------- 4K + Path + DLSS Qualität + Frame Gen = 71 FPS

1900.jpg
4K Quali.jpg
 
Zuletzt bearbeitet:
@Stagefire also langsam wird es langweilig und anstrengend. Hat schon seinen Grund, dass HDR im gaming eher am aussterben ist. Ich habe auch wenig Lust zu wiederholen, dass dein OLED nicht gut für SDR ist. Ebensowenig habe ich Lust dir zu erklären, dass die wahrscheinlichere Option natürlich Nvidia Leute war, welche für den angenehmen Gelbstich im Game gesorgt haben, oder dass 60 und 90fps fiktive Werte waren, um dir was Klar zu machen. Bist du Grün Wähler? ;) Wir sollten an der Stelle einfach abbrechen.
 
Hat schon seinen Grund, dass HDR im gaming eher am aussterben ist.

Es fängt doch erst langsam an verbreiteter zu werden da kann vom Aussterben noch garkeine Rede sein .. HDR is grad noch etwas wilder Westen ... es gibt HDR 10 , HDR10+ , Dolby Vision
Und gute ( zb Ori oder Doom Eternal ) sowie schlechte ( zb Cyberpunk oder Read Dead 2 ) umsetzungen in Games ..

und bisher hast du erst 1 HDR Game gezockt namentlich Assassings Creeh Vallhalla ... und da dir das HDR da nich gefallen hat sagst du nun das du generell HDR nich nich magst
Und nunja ... is wohl nich das beste Game um damit eine Einschätzung aller HDR Games für sich zu machen ... Vallhalla scheint auch ne schlechte HDR Implimentierung zu haben

22.jpg


222.jpg




Assassin's Creed Valhalla HDR BROKEN? Xbox SX brightness in HDR is wrong + ingame picture settings






Man sollte halt nich nur 1 HDR Game zocken was halt auch noch ne schlechte HDR Implimentierung hat und dann ein für alle mal nur noch SDR nutzen weil dieses 1 Game was man getestet hat eben ne schlechte HDR Implimentierung hat und dann denkt das HDR generell scheisse is .. is halt nich die beste herrangehensweise.



Ich habe auch wenig Lust zu wiederholen, dass dein OLED nicht gut für SDR ist.

Und ich sagte schon das ich nen Asus PG43UQ VA Panel mit HDR 1000 hatte der relativ ähnlich zu deinem Gigabyte is .... und auch da gefiel mir HDR besser wie gesagt.
Durch den bin ich damals im Februar 2020 ja zum HDR erst gekommen und dieser hat mich auch geprägt in sachen HDR Highlights die bei meinem OLED nun schwächer sind was ich schon seit Jahren betone
und ich deswegen mehr HDR Helligkeit möchte bei einem OLED

Ebensowenig habe ich Lust dir zu erklären, dass die wahrscheinlichere Option natürlich Nvidia Leute war, welche für den angenehmen Gelbstich im Game gesorgt haben

Reshade nutzen oder Monitor anders einstellen sollte dich ein angeblicher Gelb Stich stöhren ( ich seh den bei mir noch nicht mal und wüsste nun auch nich was Nvidia davon hätte ) ... und solltest du mal ein OLED haben hör blos nich auf die Leute die sagen das du Warm 2 nutzen sollst weils Akkurat is da wirst du dann sehen wie ein Gelbsstich aussieht nur is dieser halt Akkurat wenns nach den Kalibrirern geht ... ich dagegen nutze Mittel - Warm 1 an meinem OLED also stell ihn etwas Kühler ein und vielleicht seh ich den Gelbstich deswegen bei mir auch nich wenn ich Cyberpunk Zocke.


oder dass 60 und 90fps fiktive Werte waren, um dir was Klar zu machen.

Ich hab dir Reale Werte gegeben die mein System bei Cyberpunk mit Path erreicht ... die du aber gekonnt ignoriert hast
ich hab nen 120 hz Gerät ( mit 117 FPS Limiter wegen Gsync ) und hab so 90 - 110 FPS bei Cyber in 4K mit Path .... und ab 90 bin ich Persönlich zufrieden .. sollte also alles klar sein.


Ich kann ja verstehen das du HDR und Ray / Path nicht magst ... was ich nich verstehe is warum du gleich auf die Para schiene gehst und sagst das Ray / Path nur Marketing is obwohl die Welt da drausen das anders sieht und das nvidia da absichtlich nen Gelbstich reinmacht ( warum auch immer ) den man übrigens als Nutzer auch einfach rauskalibrieren kann wenn man das nich mag .. mir Persölich is bisher auch noch kein Gelbstich aufgefallen weder bei denn Bildern noch beim Video noch beim selber Zocken von Cyberpunk und du bist in den letzten 2 1/2 Jahren in dennen Cyberpunk drausen ist auch der erste von dem ich sowas lese
Schätze das Video hast du dir auch nich angeschaut was ich verlinkt hatte


abschliesend sei gesagt ... ich gönne dir das du HDR und Ray Path nicht magst also gönn es anderen das sie diese beiden Dinge mögen

Und ich stimm dir zu ... wir drehen uns im Kreiss und wir lassen die Sache nun ruhen... du hast deine Meinung das ist ok und ich hab meine Meinung und das ist ok und wir müssen ja auch nicht einer
Meinung sein was auch OK is.
 
Zuletzt bearbeitet:
@Stagefire Leseschwäche? Wieso sollte der Gelbstich stören? Warme Farben werden als positiv empfunden. Deswegen hat nvidia das mit Sicherheit gemacht. Deswegen sind die pics von der Garageneinfahrt so fake.

Auch deine Logik scheint fragwürdig. Was interessieren mich deine fps, wenn ich versuche dir klar zu machen, als wie wichtig bzw unwichtig ich raytracing für mein gaming zur Zeit empfinde...

Vielleicht rettet Oled gaming HDR nochmal, doch vor Oled gaming war die Zahl der HDR game releases schon rückläufig, denn es ist nun mal nicht der riesen Unterschied, so wie es dir vorkommt. Zumindest nicht auf guten QLed panels mit korrekten Einstellungen und auf IPS bringt es sowieso nichts.

Raytracing ist ein Marketing gimmick, da die Stellen und Momente in denen raytracing aha Effekte produziert, selbst in cyberpunk sehr rar sind, der Leistungsverlust aber permanent ist. Es ist ein Marketing gimmick, weil es nvidias pathetischer Versuch ist, einen riesen Vorteil mit der Brechstange herbei zu fabulieren, von dem sie aber noch ein paar Jahre entfernt sind. Ich habe grundsätzlich nichts gegen raytracing. Es ist halt einfach nur bisher noch nicht mehr als ein Marketing gimmick und ein Hype, für den ich nvidia nicht 2k für eine GPU in den Rachen werfen würde, was ich persönlich für ziemlich dumm, kurzsichtig und auch ein wenig für sozial fragwürdig halte (blah blah, Fortschritt Argumentation, ja ja).

HDR sieht gut aus in Valhalla. Ich führe das mal wieder auf Lese- und Logikschwäche zurück. Wie auch SynergyCore dir schon erklärte, hat man auch ohne ein HDR auf QLed ein super Bild. Warum das bei dir mit dem Asus nicht so war, sollte ich jetzt vielleicht besser nicht versuchen zu erraten.
 
Hey, glg an alle, hab Grad diesen talk hier entdeckt und bin seit einem Jahr ca selbst fv43u Nutzer, bin auch sehr zufrieden mit ihm obwohl..... Sind wir uns ehrlich..., bei Hardware muss man letztlich eine Seite wählen, sonst hat man nix!
Frage 1. hat jemand anderes auch das hdr freesync Problem? Beides zusammen geht nicht so wie es soll.... Wenn ich beides anhabe ist die Helligkeit u der Kontrast des monis extrem gedimmt! 7900xtx
Probiert es mal ohne aus!
Frage 2.: dcr heisst dynamic contrast oder?... Vlt fällt mir ja wieder was ein!
Freue mich über Antworten! Greetz rustysilk
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh