DLSS 3, FSR 2.1 und XeSS: Marvel’s Spider-Man: Miles Morales im Technik-Check

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
Ab heute ist die PC-Version von Marvel’s Spider-Man: Miles Morales erhältlich. Unter anderem bietet das Spiel Raytracing-Reflektionen- und Raytracing-Schatten mit diversen Unter-Optionen. Außerdem unterstützt werden DLSS 3, DLSS 2, DLAA, FSR 2.1 und XeSS. Alle drei Upscaling-Technologien der drei GPU-Hersteller (NVIDIA, AMD und Intel) sind also vertreten. Wir haben uns die Leistung der Upscaling-Technologien einmal genauer angeschaut.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessanter Test.

Ich dachte DLSS3.0 ist nicht für RTX 30/20 freigeschalten oder war es wirklich nur die Funktion Frame Generation?
Wenn ne ältere Generation DLSS3.0 als Einstellungen verwendet, sicher das nicht einfach abwärts geschalten wird?
So wie USB 2.0 auf 3.0 läuft.

Ein weiterer Kritikpunkt der Test unterschiedlicher Technologien. Das DLSS mit Nivida Karten etwas besser aussehen würde, dürfte nicht überraschen.
Man müsste auch mal ein direkten Vergleich zwischen unterschiedlichen Herstellern und FSR/XeSS machen. Ich bin mir sicher das Nvidia 0 im Treiber für FSR optimieren wird wohingegen AMD möglicherweise schon mehr Wert drauf legt als auch Intel XeSS etwas mehr Aufmerksamkeit schenken wird.
 
Zuletzt bearbeitet:
Und wieder einmal reicht eine xx90-Karte gerade knapp aus^^
 
Interessanter Test.

Ich dachte DLSS3.0 ist nicht für RTX 30/20 freigeschalten oder war es wirklich nur die Funktion Frame Generation?
Wenn ne ältere Generation DLSS3.0 als Einstellungen verwendet, sicher das nicht einfach abwärts geschalten wird?
So wie USB 2.0 auf 3.0 läuft.

Ein weiterer Kritikpunkt der Test unterschiedlicher Technologien. Das DLSS mit Nivida Karten etwas besser aussehen würde, dürfte nicht überraschen.
Man müsste auch mal ein direkten Vergleich zwischen unterschiedlichen Herstellern und FSR/XeSS machen. Ich bin mir sicher das Nvidia 0 im Treiber für FSR optimieren wird wohingegen AMD möglicherweise schon mehr Wert drauf legt als auch Intel XeSS etwas mehr Aufmerksamkeit schenken wird.
DLSS 3 ist ausschließlich Frame Regeneration. Das Upsampling passiert mit DLSS 2. De Facto ist DLSS 3 nicht was der Name verspricht, nämlich eine neue Version von DLSS 2, sondern "nur" ein extra Feature (Frame Regeneration), dass DLSS 2 sogar voraussetzt.

Also nein, DLSS 3 läuft nicht auf 20XX/30XX Karten.


@Topic
CB hat bei DLSS 3 heftige Probleme erwähnt, wie flackernde Bäume etc. Da ihr sowas nicht erwähnt, kann man wohl davon ausgehen sowas ist hier nicht aufgetreten?

Edit: Verdammt, seit Jahren denke ich mir, das "topic" im Forum ein toller Name wäre, weil alle dann @ topic erwähnen xD. Und hier hat's einer gemacht. Touche.
 
RT ist jetzt nicht schwachsinnig, ist es schon sehr hübsch anzusehen. Aber aufgrund der mangelhaften Performance ist es nunmal ein Feature, auf welches man auch durchaus verzichten kann. Es gibt wirklich sehr viele wahnsinnig hübsche Spiele ohne RT, keine Frage, vielleicht sind wir ja in ein paar Jahren soweit, dass ein performantes RT auch für kleine Karten (vor allem auch für die Konkurenz) verfügbar ist
 
Amüsant, wie's ein paar Leute grad getriggert hat. RT mag ja die Zukunft sein, aber wohl erst in einigen Jahren. Wird wohl noch zwei, drei RTX-Generationen brauchen. Bis jetzt stehen Aufwand/Ertrag in keinem Verhältnis. Selbst die 3090 ist in 4K nur mässig. Alles wegen diesen paar Schatten und Spiegelungen. Oft total übertrieben. Meistens ja Nässe bei Nacht oder Neuwagen, die nicht mal beim Händler so glänzen^^

Noch schlimmer und noch beknackter ist nur VR...
 
Game sieht aus wie 2010 :d

Und bei mittlerweile 3. Gen. sollte
man wissen, dass RT reine Verarsche /
Marketing ist :p
Es ist ein "nice to have" Feature das man in 99 % der Fälle selbst auf den dicksten Karten aus lässt. Oder maximal auf low nativ spielt. In ein paar Jahren wenn die Karten 1000 % mehr RT-Leistung haben ist es sicher nett wenn die alten Spiele es unterstützen, doch im Moment kostet es so viel Performance dass RT nicht sinnvoll einsetzbar ist.
Noch schlimmer und noch beknackter ist nur VR...
VR ist verdammt geil, das Problem dort ist eher dass es eine Nische ist und es dafür wenig lohnenswerten Content gibt. Bis vor nicht allzu langer Zeit waren auch die Headsets viel zu teuer als dass man es für die paar speziellen Anwendungszwecke rechtfertigen konnte.
 
Sind wir hier im Gemüse Forum was sind das für Kommentare?
„RT ist scheisse“ von Leuten deren gpu mehr als 2 Generationen alt ist?
“RT macht jeder aus oder spielt mit low nativ +RT“ wat?
“RTkostet Zuviel Performance und darum kann man es nicht benutzen“ hä?
klar freie Meinung und so …aber es ist halt Quatsch!
Mir gefällt RT mir gefällt frame generation… und mir gefällt das Spiel sehr.
Grade in der Abenddämmerung bringt RT eine schöne Stimmung in dem Spiel.
ka ob Bilder oder yt Videos das immer so gut darstellen können was man selber beim spielen sieht.
Ich hab gestern mit Spider-Man remastered angefangen und war so begeistert
dass ich mir dieses Spiel auch blind gekauft habe.
 
Sind wir hier im Gemüse Forum was sind das für Kommentare?
„RT ist scheisse“ von Leuten deren gpu mehr als 2 Generationen alt ist?
“RT macht jeder aus oder spielt mit low nativ +RT“ wat?
“RTkostet Zuviel Performance und darum kann man es nicht benutzen“ hä?
klar freie Meinung und so …aber es ist halt Quatsch!
Mir gefällt RT mir gefällt frame generation… und mir gefällt das Spiel sehr.
Grade in der Abenddämmerung bringt RT eine schöne Stimmung in dem Spiel.
ka ob Bilder oder yt Videos das immer so gut darstellen können was man selber beim spielen sieht.
Ich hab gestern mit Spider-Man remastered angefangen und war so begeistert
dass ich mir dieses Spiel auch blind gekauft habe.
Geht darum das Raytracing Ultra vs Raytracing medium/low keinen riesigen Unterschied bringt. Man müsste den quasi suchen. Auch bei Raytracing Schatten ist es genauso bzw. noch schlimmer. Raytracing zieht halt Performance und die steigt fast exponentiell zu den Stufen auf ohne wirklichen sichtbaren Effekt zu bringen.
Ich glaube da sind wir uns alle einig das Raytracing die Immersion positiv beeinflussen kann und das richtig gut aussieht, aber je nach Spiel und Detailgrad/Stufe kann es übersteuert wirken oder weniger von Vorteil dafür massiven Verlust bei der Performance bringen.

Aber, alle Games die ich bisher alle testen konnte die Raytracing geboten haben kann ich auch bestätigen oder das Argument nachvollziehen. Raytracing an, aber Detailgrad bzw. Intensität auf niedrig oder medium. Raytracing Schatten nur wenn es sichtbaren Unterschied gibt ansonsten, aus.

Es gibt da sowas wie Schatten hinter nicht sichtbaren Objekten... total useless. Ja für sowas wie Nvididas Screenshot Tool für Ingame Szenen ganz toll fürs Spielen aber uninteressant, weil es nicht sichbare Schatten sind. Das kostet Leistung ohne das man was davon hat.
 
Zuletzt bearbeitet:
Man möge mir vergeben wenn ich es hier auf dem Tablet nicht sehe, aber wurden nur nvidia Karten getestet?
Und anschließen wird gesagt das nvidia Technologie am besten aussieht?

Wirklich?
Ich würde gerne wissen wie FSR oder XESS auf der jeweiligen Hardware mit Herstellertreiber performen.

Oder verstecken sich irgendwo in der neuen Ansicht seit Forenumbau auch Benchmarks mit RDNA2 und ARC?
 
Man möge mir vergeben wenn ich es hier auf dem Tablet nicht sehe, aber wurden nur nvidia Karten getestet?
Und anschließen wird gesagt das nvidia Technologie am besten aussieht?

Wirklich?

Oder verstecken sich irgendwo in der neuen Ansicht seit Forenumbau auch Benchmarks mit RDNA2 und ARC?
Im Prinzip ja. Ich denke oder hoffe die anderen Tests werden hoffentlich noch folgen in Zusammenhang mit Miles Morales.
AMD hat noch seine neue Generation noch nicht draußen und Intel hat ja was, aber nichts was in 4K mithalten könnte.

Man muss gegen halten das nur die neue Generation getestet wurde und ich denke hier ging es erstmal nur um einen allgemeinen Unterschied der Technologien im Vergleich.
Das es natürlich mit der gleichen Karte erfolgt ist, ist relativ ungünstig.
Wäre aber auch schwer mit anderen Karten in den Vergleich zu setzen, da es keine Karte gibt die ähnliche Rohperformance liefern könnte.
Diesen Gedankengang könnte man so nachvollziehen.
 
Man möge mir vergeben wenn ich es hier auf dem Tablet nicht sehe, aber wurden nur nvidia Karten getestet?
Und anschließen wird gesagt das nvidia Technologie am besten aussieht?

Wirklich?
Ich würde gerne wissen wie FSR oder XESS auf der jeweiligen Hardware mit Herstellertreiber performen.

Oder verstecken sich irgendwo in der neuen Ansicht seit Forenumbau auch Benchmarks mit RDNA2 und ARC?
Gameworx-Titel werden ab jetzt nur noch auf der dafür vorgesehenen HW getestet. Damit wird sichergestellt, dass wir stets das beabsichtigte Spieleerlebnis haben. The way itˋs meant to … etc. Passt schon. 😁

ps. Ist eh ein beat them up und gehört damit aus Prinzip besser auf ne Konsole….
 
Vorallem ich MUSS es mit kaufen.
Solche Sachen wie D3-Grafik, Physik und änhliches musste man auch mitkaufen, das nennt sich einfach Entwicklung. Jetzt wird gemeckert, in ein paar Jahren sind die RT Cores wahrscheinlich selbstverständlich bei jedem Hersteller (wie viele andere Techniken zuvor auch).
Klar kann ich es ein- / ausschalten.
Der ganze RT Gedöns macht die
GPUs teurer.
Siehe oben. Spontan sehe ich nicht speziell die RT Cores als Preistreiber, sondern einfach die gieriegen Hersteller, die spätestens seit Corona gesehen haben, was die Kunden bereit sind zu bezahlen. Hier rede ich in erster Linie direkt von den Chipfertigern
Vorallem die Entwicklung mit Brechstange
gefällt überhaupt nicht. 3-4 slot, extra breit,
30cm+
Generell begrüße ich die Entwicklung von größeren und besseren Kühllösungen für die entsprechenden Karten. Eine Mittelklassekarte mit 120W braucht das nicht, aber wenn der 4-Slot Kühler des größten Modells trotzdem passt, warum nicht?
Die 3000er waren schon sehr effizient,
die 4000er sind noch besser. Bringt nur
wenig, wenn man mit aller Gewalt das letzte
Quenchen rausholt.
Hier gebe ich dir dann allerdings recht, diese Entwicklung ist katastrophal. Die Bundesregierung macht Werbung für Preper mit Aufziehradios und die Luxusartikelhersteller hauen solche Sachen raus, die so nicht notwendig sind. Mehr Leistung pro Generation ist notwendig, aber bitte bei höchstens gleichbleibendem Verbrauch, gerne weniger.
Workstationkarten etc. sind davon jetzt mal ausgenommen, wenn dort die Brechstange gebraucht wird
 
Die Bundesregierung macht Werbung für Preper mit Aufziehradios und die Luxusartikelhersteller hauen solche Sachen raus, die so nicht notwendig sind. Mehr Leistung pro Generation ist notwendig, aber bitte bei höchstens gleichbleibendem Verbrauch, gerne weniger.
Workstationkarten etc. sind davon jetzt mal ausgenommen, wenn dort die Brechstange gebraucht wird
Tja, dumm nur, dass diese grünen Träumereien nichts mit der Realität zu tun haben. Jenseits vom Ökosozialismus gelten immer noch die Gesetze der Physik.
 
Ich Frage mich ohnehin schon wieso die Leute auf andere herabschauen und bashen, wenn jemand kritisiert das eine Gamer Karte überteuert ist und mit Gesetzte der Physik und technischem fortschritt kommt etc.

Scheinbar ist dann doch keiner bereit wirklich sich die Oberleistung zu erkaufen die es ohnehin schon über Workstation Karten gibt.
Das ist dann doch wieder zu teuer?
 
Vorallem ich MUSS es mit kaufen.
Klar kann ich es ein- / ausschalten.
Der ganze RT Gedöns macht die
GPUs teurer.
- 1080Ti - 250W - ca. 800€ - 2017
- 4090 - 450W - 1950€ - 2022
Sorry das ist Unsinn...
Wir befinden uns in einer Rezession.
Wenn Olivenoel 100% teurer wird sind dann auch RT cores schuld ?
Manchmal versteh ich die Logik nicht
 
ich bin raus schönen Abend noch
Wolltest Du die Verdrei- bis -vierfachung (so ca. imho) der GraKa-Preise innerhalb der letzten drei Generationszyklen jetzt tatsächlich hauptsächlich mit Inflation/Rezession erklären? :hmm:
 
Wolltest Du die Verdrei- bis -vierfachung (so ca. imho) der GraKa-Preise innerhalb der letzten drei Generationszyklen jetzt tatsächlich hauptsächlich mit Inflation/Rezession erklären? :hmm:
Da sind auch Rendite/Gewinnerhöhung mit Sicherheit dabei. Wenn 25% Kosten Erhöhungen für zugekaufte Produkte Anfälle und Nvidia selbst seine eigenen Kosten nochmal mit 25% drauf schlagen würde.
Kann das niemals den Endpreis verdoppeln, selbst wenn jeder in der Kette +25% Aufschlag rechnen würde.

Als Beispiel eine RTX3080 von vor 2 Jahren mit fiktiven Zahlen.

1668970106541.png

Die Zahlen sind frei erfunden und geschätzt.
Insbesondere die Händler Kalkulation .... ich beziehe mich hier auf die Referenzkarten.
Laut:

Wird die globale Inflation mit durchschnittlich 8,75% betitelt.
 
Da sind auch Rendite/Gewinnerhöhung mit Sicherheit dabei. Wenn 25% Kosten Erhöhungen für zugekaufte Produkte Anfälle und Nvidia selbst seine eigenen Kosten nochmal mit 25% drauf schlagen würde.
Kann das niemals den Endpreis verdoppeln, selbst wenn jeder in der Kette +25% Aufschlag rechnen würde.

Als Beispiel eine RTX3080 von vor 2 Jahren mit fiktiven Zahlen.

Anhang anzeigen 818903
Die Zahlen sind frei erfunden und geschätzt.
Insbesondere die Händler Kalkulation .... ich beziehe mich hier auf die Referenzkarten.
Laut:

Wird die globale Inflation mit durchschnittlich 8,75% betitelt.
Was allerdings auch wichtig ist, das bei Nvidia der Posten"Forschung und Entwicklung" fehlt.

Dann schrumpfen die Handelsspannen nochmals gut zusammen.
 
Was allerdings auch wichtig ist, das bei Nvidia der Posten"Forschung und Entwicklung" fehlt.

Dann schrumpfen die Handelsspannen nochmals gut zusammen.
Die sind Teil der Herstellkosten. Das Produktdesign und Entwicklung sind Teil der Produktion. Vor 4 Jahren gab es noch eine XFX RX580 8 GB für <144€... die wird sicherlich nicht unter selbstkosten verkauft.
Die Herstellkosten kann man noch aufteilen zwischen Fremdfertigung und Eigenentwicklung.
 
Als Beispiel eine RTX3080 von vor 2 Jahren mit fiktiven Zahlen.
@freakyd mag manchmal schwierig sein, sein ursprünglicher Punkt, dass sich nV (und AMD) -sicher unter anderem auch- das ganze AI- und RT-Zeugs mitbezahlen lässt, scheint trotzdem valide. Wobei mich persönlich die avisierten >60% Marge und auch die vermutliche Umlegung der Abschreibungen wegen Miningzockerei da auch schon deutlich eher stören.
 
Wolltest Du die Verdrei- bis -vierfachung (so ca. imho) der GraKa-Preise innerhalb der letzten drei Generationszyklen jetzt tatsächlich hauptsächlich mit Inflation/Rezession erklären? :hmm:
Ich möchte "tatsächlich hauptsächlich" nichts erklären da der Grafikkartenpreis NICHT mein Problem sind.
 
Versteh diese kindlichen Kommentare nicht...
Ich hab mir zum release ne 3090 gekauft für 1500€ die ich für 500€ wieder an
einen netten freund verkauft habe.
So habe ich pro Jahr effektiv 500€ bezahlt das ich eine der schnellsten GPUs habe.
Die 4090 in 2 Jahren für 1k€ zu verkaufen sehe ich auch nicht als Problematisch an.
Man kann sich natürlich auch jedes Jahr ne überteuerte low/mid range Karte für 500€ kaufen
und im Forum richtig Frust ablassen :d
 
Zuletzt bearbeitet:
wenn du meiner Rechnung nicht folgen kannst tut es mir leid.
Tatsache ist das ich effektiv 500€ zahle pro Jahr und das ist aus meiner Sicht NICHT zu viel.
Deine 2080TI war natürlich der bessere deal :coffee2:
...und ja ich bin Schuld das die Preise der GPUs teurer werden xD
 
Zuletzt bearbeitet:
Dein Kommentar ist kindlich ... :wall:

- Die 3090er für 1,5€ vor 2 Jahren war schon überteuert
- Wie du es dann mit deiner Hardware handhabst ... interessiert keinem
- Ebenso sind die 1950€ für die 4090er völlig überzogen

Das sind Tatsachen...

Deine Art und Weise des Konsums, trägt übrigens zu diesen Preisen bei :shot:
wenn du meiner Rechnung nicht folgen kannst tut es mir leid.
Tatsache ist das ich effektiv 500€ zahle pro Jahr und das ist aus meiner sich NICHT zuviel ist.
Deine 2080TI war natürlich der bessere deal :coffee2:
...und ja ich bin Schuld das die Preise der GPUs teurer werden xD
Tja also ich hatte den besten Deal 8-)🤣

Kleiner spaß bei Seite, es ist richtig das High-End Karten noch für gutes Geld über den Tisch gehen.
Auf der anderen Seite haben die meistens so ein hohen Werteverlust teilweise, dass andere sie 1 Jahr später von den Vögeln die bereit waren den überzogenen Preis zu zahlen - für die Hälfte erwerben je nach Model.

In der Regel war es die letzten Generation so: ->High-End Karte wurde eine Generation später von der Performance der Mid-Tier Karte eingeholt. Mid-Tier Karten haben schon immer eine Solide Preis-Leistung geliefert, aber nicht immer. Auf der anderen Seite hast du halt mit einer High-End Karte eine längere Nutzungsdauer, wenn man nicht immer auf Kante am Puls der Zeit bleiben möchte.

Eigentlich müsste die 4060TI für einen günstigeren Preis als die 3080 in etwa die Leistung erbringen, so wie die 3060TI die 2080TI eingeholt hatte.
Ich bezweifle das leider in der aktuellen. Ich erwarte eine UVP von 799€ für die 3060TI.... damit hätte Sie wohl Frame Generation und oder ggf. gleich mehr RAM ggf. schon 12 GB aber wäre schon teuer als die letzte Generation für die gleichen Frames... das wäre schlecht.

Ich denke hier versucht Nvidia den Markt etwas zu manipulieren (ähnlich wie es dank Miningboom gekommen ist) in dem von der neuen Generation die Menge gedrosselt ist und die Mid-Tier Karten erst sehr spät auf den Markt kommen werden. Mindestens aber bis zum release der AMD Karten wird sich nicht mehr viel bewegen.
 
Zuletzt bearbeitet:
also mein Kumpel hat wenig Geld und musste sich ne 3060 für 750€ kaufen (vor ca 2 Jahren)
Als ich ihm meine 3090 für 500€ angeboten habe war er sehr glücklich.
Da er sehr viel mit Blender arbeitet und er den VRAM wirklich gebrauchen kann (nicht zum zocken)
Seine alte 3060 hab ich ihm für 200€ abgenommen (die wieder in den PC eines noch "mittelloseren" Kumpels kommt)
Aus meiner Sicht ist das recyceln unter Freunden sinnvoll.
Ich werde meine Hardware immer los und meine Kumpels sind immer happy über meine Angebote.

Ich denke hier versucht Nvidia den Markt etwas zu manipulieren (ähnlich wie es dank Miningboom gekommen ist) in dem von der neuen Generation die Menge gedrosselt ist und die Mid-Tier Karten erst sehr spät auf den Markt kommen werden.
die 4080 ist doch lieferbar als Mid-Tier Karte...die möchte doch keiner ?!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh