Drei RTX-40-Super-Modelle: Refresh soll zur CES Anfang Januar erscheinen

Warum vergleichst du die 7900XTX mit einer 4070ti, dass macht keinen Sinn, auch wenn der Preis nahezu identisch ist. Bei der reinen Rechenleistung kann man die 7900XTX nur mit einer 4080 vergleichen, ergo auch beim Raytracing.

Ich hätte RT gerne schon öfter genutzt aber meine Karten hatten nie genug Leistung dafür. Den absoluten Mehrwert bietet es natürlich nicht, ist oftmals nur ganz nett.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum vergleichst du die 7900XTX mit einer 4070ti, dass macht keinen Sinn, auch wenn der Preis nahezu identisch ist. Bei der reinen Rechenleistung kann man die 7900XTX nur mit einer 4080 vergleichen, ergo auch beim Raytracing.

Ich hätte RT gerne schon öfter genutzt aber meine Karten hatten nie genug Leistung dafür. Den absoluten Mehrwert bietet es natürlich nicht, ist oftmals nur ganz nett.
Naja den Preis als Vergleich zu nehmen ist doch nicht falsch am ende zählt der Mehrwert pro €. Die Argumentation m ist allgemein Nvidia besser bei Raytracing und das ist nur halb richtig zumindest in der Mittelklasse und unter 700€ sind die definitiv vor AMD. Die DLSS basierten features bei Raytracing sind auch nicht zu verachten.
Raytracing mit Quality DLSS geht schon in Ordnung mit reflex. Aber das ist natürlich kein Heilsbringer immer auf Software Tricks angewiesen zu sein die im Spiel oder Anwendungen integriert werden müssen.

Ich bin mor manchmal bei Nvidias Strategie nicht überzeugt. Was Sinn macht bei budget Karten den DLSS anteil eigentlich aufzublähen. Aber das schrumpft ja auch mit proportion zum RAM und Leistung. Eine 4060 wird nicht optional zu einer WQHD Karte, weil DLSS einfach zu schwach ist.
 
Warum vergleichst du die 7900XTX mit einer 4070ti, dass macht keinen Sinn, auch wenn der Preis nahezu identisch ist.
??? Der Preis ist die Einzige Größe um einen fairen Vergleich herzustellen. Alles andere macht keinen Sinn.

Marketing at it's best.

1703808857899.png


Ich finde es schade, dass sich die Meinung - AMD sei "schlecht" in RT - so bei den Menschen etabliert hat.
Die 4070 Ti liefert in diesem Ausschnitt ganze 6 FPS mehr als die 7900 XTX. Ich betone - 6... ganze Bilder pro Sekunde... Auch bei anderen Spielen sind wir hier im einstelligen FPS-Bereich.
Man vergleicht nicht wieviel fps mehr eine Karte macht anhand der fps, sondern in %. Das sind in Deinem Beispiel übrigens 8 und nicht 6, und das sind, von 38 kommend, 21% mehr Leistung.
Und wenn eine Karte nur 1fps mehr macht als die Andere, die nur 1fps macht, sind das 100%. Aber immer noch nur 1fps mehr ... ich betone - Eins. Einstellig. Oder halt doppelt soviel. Ich betone - doppelt.

Und mir ist völlig egal wer das bessere Produkt bzw. die bessere Preis/Leistung anbietet. Ich stelle hier nur Fakten richtig.
 
Zuletzt bearbeitet:
Die normale Rechenleistung ohne extra Klimbimm ist aber halt bei der 7900XTX und der 4080 vergleichbar.

Du vergleichst ja auch keinen Ford Focus RS mit einem Mercedes A200, auch wenn beide gleich viel Kosten.
 
Der Vergleich hinkt, und Du unterstellst mir etwas. Ich vergleiche immer anhand des Preises, was denn sonst? Ein Auto ist eben mehr als nur die PS des Motors, und eine GPU kaum mehr als die Rechenleistung. Ergo Rechenleistung pro Geld, aber nicht PS pro Geld. Sonst kannst ja einen Motor kaufen und 4 Räder dranschrauben, wird aber sehr windig und gefährlich, schätze ich.

Was machst Du denn wenn die 7900XTX 1500€ kostet und die 4080 500€, oder andersrum? Immer noch vergleichen? Wer wird klarer Sieger? Und womit vergleiche ich die 4090? Die ja dann bei Deiner Logik konkurrenzlos ist?
"Kauft alle die 4090, sie hat die beste Leistung!!" Vertraut mir da einfach 😄 Preis egal.
 
Zuletzt bearbeitet:
Die AMD-Karten sind immer schlechter aber immer noch auf Ampere-Niveau. Also durchaus zu gebrauchen je nach Ansprüchen. Für RT maxed holt man sich eine 4090 und fertig oder verzichtet eben.

Von all den SUPER-Karten scheint gerade die 4070 Ti SUPER ein Fist für jeden Käufer der alten Ti zu sein, denn die kommt anscheinend mit 16 GB GDDRX und hat fast die Specs der alten 4080. Der Preis dazu wird interessant und entscheidet dann auch ob sie irgendwie besser ist. Die 4080 war/ist natürlich viel zu teuer. Unter 1000 € hätte ich glatt eine gekauft. Die XTX ist aber durchaus zu gebrauchen, die Leistung in 4K ist exzellent wenn man RT mal rauslässt. DLSS3 gibt es nur für die 4000er, da dürfen sich also auch NVIDIA-Nutzer dann auf FSR3 freuen, was demnächst offenbar als Modvariante rauskommt (FSR in jedem FSR2-Spiel!). FSR3 kann auch auf Turing oder Ampere laufen. Die Framegen würde ich auf jeden Fall mal testen, ob sie mich dann überzeugt ist eine andere Sache. Wenn es so einfach wäre könnte man sich ja auch eine 4050 für 4K120+ mit RT maxed holen und die höheren Karten wären alle obsolet. So zumindest die Logik mancher die diese Framegen anpreisen. In manchen Spielen bringt sie wohl was, benötigt aber dennoch eine gewisse Grundleistung um flüssig zu laufen.
 
Das ist aber u.a. der Grund für die Preisgestaltung. Gerade die Karten wie 4070ti, 4080 und 4090 kaufen eher Personen, die mit den Begrifflichkeiten etwas anfangen können. Hinzu kommt auch der vermeintlich bessere Ruf der Marke Nvidia. Der Erfolg ist recht eindeutig, bei Absatz als auch Aktienkurs.
Welcher Erfolg?
Der Abnehmer für die Karten ist ein Überwachungstaat, da ist kein Endkunde weit und breit. Und der Aktienkurs kommt daher, dass H100 mit über 90% EBIT Marge verkauft wird, weil es einen KI Run gibt.

Dass Gaming Produkte die zu 99% für KI genutzt werden im Börsenbericht unter Gaming und nicht unter KI gelistet werden ist ne ganz andere Diskussion, hatten wir vor 3 Jahren mit Crypto auch schon.

Wenn du nach Verkaufszahlen gehst, und zwar relativ nach Marktanteil, wirst du sehen dass sich die 4070ti und 4080 zurecht schlecht verkaufen.
Du vergleichst ja auch keinen Ford Focus RS mit einem Mercedes A200, auch wenn beide gleich viel Kosten.
Warum nicht?
Wird doch andauernd gemacht. Dann geht's um FPS/€.
Das ist was mich als Konsument interessiert. Wieviel bekomme ich für mein Geld?
 
Zuletzt bearbeitet:
Ich korrigiere: "schlechter(e) Raytracing Leistung".

Marketing at it's best.

Anhang anzeigen 953335
Meine 7900 XTX zieht bei UWQHD fröhlich 400-450 Watt in Cyberpunk und kommt bei maximalen Einstellungen auf 60fps, FSR auf Qualität, damit liegt sie auf der Höhe der 4070TI von einem Freund, die mit DLSS auf Qualität aber nur etwa. 250 Watt zieht…

Die XTX hat aktuell eine UVP von 1050.- Euro, die 4070TI von 900.- Euro…

Mit Marketing hat das also nicht wirklich was zu tun…
Wie gesagt liegt an den Texturen. Da sind 12GB auch schon knapp. Besonders bremsend ist es mit hochauflösenden Raytracing/pathtracing. Also meine RTX3080 kommt an ihre grenzen ich muss die renderesolution schon runter stellen und die Grenzen sind nicht gpu Leistung sondern das Speicherlimit.
Spannenderweise gestern Abend selber Spielstand fortgeführt, nur noch 10,6 GB im Schnitt, ohne sonstige Veränderung! Dabei ist mir aber aufgefallen, dass direkt beim Laden des Spielstandes auch erst etwa 14GB geladen worden waren, die aber sehr schnell nach wenigen Minuten auf eben ca. 10,6 GB reduziert wurden. Vermutlich hat das Speichermanagement erstmal mehr geladen, als es effektiv benötigt.

Die 4070 TI von oben besagten Kumpel läuft mit etwa 9,9GB, den hatte ich gestern aus Interesse tatsächlich mal gefragt, ob er das mal testen kann bei Gelegenheit, und der sitzt aktuell auch an Phantom Liberty.
 
Lieber Speicher haben als brauchen. Unter 16GB würde ich nix mehr kaufen, zumindest für 4K. Ist ja absehbar das Spiele in Zukunft mehr brauchen werden.
 
@RaceDontPlay
1440p mit upscaler hat ne Renderauflösung von 1080p (nachlesen, ich hab es nicht verfolgt).

Da frag ich mich: was ist dein Punkt?
Dass ne reduzierte Auflösung (DLSS /FSR aktiv) wenig Vram braucht?
Und dass ne 900€ 1080p Karte akzeptabel ist?
Denn in einer höheren Auflösung würde die Karte abschmieren weil der Vram zu klein ist?

Ich kenne das Thema von der 3060ti in 1080p.
Hardware Unboxed hat es mit der 3070 und der A4000 demonstriert. Drehst du Raytracing zu weit auf wird der Vram zu klein und CP2077 schmiert ab.

DAS Problem wird eine 7900xtx so schnell nicht haben.

Davon ab:
Wenn man die Einstellungen so wählt dass das VRAM Thema mehr oder weniger elegant umschifft wird ist klar dass es kein Problem ist. 🤷🏻‍♂️

Wenn ich nur 1 Person und ne Kiste Bier transportieren will ist eben auch ein Polo genauso geeignet wie ein Passat Kombi 🤷🏻‍♂️
 
Zuletzt bearbeitet:
@RaceDontPlay


Da frag ich mich: was ist dein Punkt?
Die Aussage war, dass die 7900 XTX in Sachen Raytracing auf dem Niveau der 4070 TI liegt, und AMD hinsichtlich Ray Tracing daher nicht schlechter sei, als NVidia, und es nur Marketing sei, dass diese Meinung anhalte!

Dem stelle ich gegenüber, dass das erzielte Ergebnis in etwa gleich ist, wohingegen aber die Effizienz aber anders ausschaut! Dazu ist die 4070 TI günstiger!

Und wenn das rote Produkt in der Frage R die selbe Leistung bietet wie das Grüne, aber bei deutlich schlechterer Effizienz und höheren Anschaffungskosten, dann ist es eben in dieser Gegenüberstellung nicht gleichgut, sondern schlechter. Und dann ist es auch keine Frage des Marketing!
 
Die Aussage war, dass die 7900 XTX in Sachen Raytracing auf dem Niveau der 4070 TI liegt, und AMD hinsichtlich Ray Tracing daher nicht schlechter sei, als NVidia, und es nur Marketing sei, dass diese Meinung anhalte!

Dem stelle ich gegenüber, dass das erzielte Ergebnis in etwa gleich ist, wohingegen aber die Effizienz aber anders ausschaut! Dazu ist die 4070 TI günstiger!

Und wenn das rote Produkt in der Frage R die selbe Leistung bietet wie das Grüne, aber bei deutlich schlechterer Effizienz und höheren Anschaffungskosten, dann ist es eben in dieser Gegenüberstellung nicht gleichgut, sondern schlechter. Und dann ist es auch keine Frage des Marketing!
Jetzt mach den gleichen Test mal in Auflösung 2160p.
Oder mach den gleichen Test ohne Raytracing in 2160p.
Oder mach den gleichen Test ohne upscaling in 2160p.

Der Punkt geht nicht gegen deine Daten, sondern gegen dein Testszenario was exakt den Sweet Spot der 4070 heraushebt und darauf basierend die Generalisierung. Was du machst ist Cherrypicking in einem extremen Grenzfall der ein Produkt übervorteilt und darauf eine allgemeine Aussage stützen.
 
Zuletzt bearbeitet:
Ich korrigiere: "schlechter(e) Raytracing Leistung".

Marketing at it's best.

Anhang anzeigen 953335

Ich finde es schade, dass sich die Meinung - AMD sei "schlecht" in RT - so bei den Menschen etabliert hat.
Die 4070 Ti liefert in diesem Ausschnitt ganze 6 FPS mehr als die 7900 XTX. Ich betone - 6... ganze Bilder pro Sekunde... Auch bei anderen Spielen sind wir hier im einstelligen FPS-Bereich.
und genau so vergleicht man eben nicht

die 4080 ist ~48% schneller mit RT als die 7900XTX

die 4070ti ist ~40% schneller mit RT als die 7900XT

das sind deutliche unterschiede
 
Zuletzt bearbeitet:
....ob ..... Hogwarts, ,,, in keinem davon konnte ich annähernd beobachten, dass 12GB nicht ausreichend seien sollen.
Ich halte mich dann doch lieber an dem, was zum Beispiel Computerbase schreibt.

Erwähnt werden muss noch der Grafikspeicher-Durst von Hogwarts Legacy, der seinesgleichen sucht. Erst bei einer Grafikkarte mit 16 GB läuft das Spiel problemlos, mit 12 GB fangen die Probleme bereits an und bei 8 GB muss man die schönsten Oberflächen gar nicht erst ausprobieren. Eine GeForce RTX 4070 Ti kommt bei maximaler Grafik in Ultra HD in Verbindung mit DLSS in Sachen Framerate zwar klar, jedoch werden dann nicht mehr alle Texturen geladen – bei der 900-Euro-Grafikkarte aus dem Januar müssen die Texturdetails reduziert werden.
 
und genau so vergleicht man eben nicht

die 4080 ist ~48% schneller mit RT als die 7900XTX

die 4070ti ist ~40% schneller mit RT als die 7900XT

das sind deutliche unterschiede
Die Frage ist mit ohne DLSS und außer bei der 4080 in einem Szenario wo der RAM nicht mehr ausreicht?

Das wurde schon mal getestet von hwunboxed da war sogar eine 6700XT schneller in Raytracing als eine 3070, weil dort die Luft raus war.

Hochauflösende Texturen > Raytracing.
Da bist du mit AMD grundsätzlich selbst in der Mittelklasse einfach besser dran.
 
Ich halte mich dann doch lieber an dem, was zum Beispiel Computerbase schreibt.

Erwähnt werden muss noch der Grafikspeicher-Durst von Hogwarts Legacy, der seinesgleichen sucht. Erst bei einer Grafikkarte mit 16 GB läuft das Spiel problemlos, mit 12 GB fangen die Probleme bereits an und bei 8 GB muss man die schönsten Oberflächen gar nicht erst ausprobieren. Eine GeForce RTX 4070 Ti kommt bei maximaler Grafik in Ultra HD in Verbindung mit DLSS in Sachen Framerate zwar klar, jedoch werden dann nicht mehr alle Texturen geladen – bei der 900-Euro-Grafikkarte aus dem Januar müssen die Texturdetails reduziert werden.

1. Zwischen 45 und 55 FPS in UltraHD geht zwar irgendwie, ist für mich aber trotzdem weit weg von flüssig.
In deinem genannten Szenario ist zumindest für mich neben dem VRAM auch die Rohperformance der 4070Ti zu schlecht.

2. Das Spiel hatte zu Release ein deutliches Memory-Leak, welches durch diverse Patches mittlerweile behoben wurde.

3. Sich eine 4070Ti zu kaufen, um dann komplett sorgenfrei für die nächsten 3 Jahre in 4k zu zocken ist halt auch irgendwie weltfremd.
Das ist eine solide 1440p Karte, die auch 4K in 95% der Fälle stemmen kann.
 
Im übrigen sind 900€ nicht mehr "viel" für eine Grafikkarte. Wer das glaubt rechnet auch noch in Mark. 1000€ sind Mittelklasse, von mir aus obere Mittelklasse. Die 4090 ist nun mal der Benchmark, das Feld ist nicht mehr so nah bei einander wie zu Ampere Zeiten. NVidia Grafikkarten sind halt keine reinen Pixelbeschleuniger mehr, sondern für viele andere spannende Dinge nutzbar. Deswegen braucht sich der gemeine Gamer keine Hoffnungen machen, dass die Preise dauerhaft auf den Stand vor 2020 zurück kehren.

Die günstigste 4070Ti kostet 819€, wer meint dafür auf ewig 4k zocken zu können glaubt auch an den Weihnachtsmann. Dass AMD halt seine Karten mit Kampfpreisen in den Markt drückt ist eben gut für die, die sich damit anfreunden können. Scheint aber genug zu geben, die das nicht wollen, sonst würde AMD die Teile ja nicht verramschen. Kann mir nicht vorstellen, dass die freiwillig eine der 4080 ebenbürtige Karte für 200€ weniger anbieten.
 
Hochauflösende Texturen > Raytracing.
Sehe ich auch so. Was bringt es, das eine Karte 40% schneller mit RT ist, wenn man innehalten muss um die Unterschiede zu suchen, während matschige Texturen sofort ins Auge springen.

Beim Zocken nur auf die Vram-Auslastung zu gucken, erzählt auch nur die halbe Geschichte. Da wird recht viel getrickst, wenn beispielsweise entgegen der Einstellungen niedriger aufgelöste Texturen genutzt werden, oder die hochaufgelösten nur schrittweise (& sichtbar) nachgeladen werden. 2 Beispiele: Wenn bei Forspoken der Vram ausgeht, wird einfach alles automatisch auf matschig gedreht. Passiert bei der 4060 ab high. Bei Doom (2016) und älteren NV Karten hat es immer eine Sekunde gedauert, bis die vollen Texturen geladen wurden, wenn man die Kamera gedreht hat. Sieht man nicht auf den ersten Blick, aber wenn man es mal bemerkt hatte, war es echt lästig.

Pauschale Aussagen, wie x Gb Vram reichen, weil man ein paar Mal im Afterburner nach der Auslastung geguckt hat, sind daher mit Vorsicht zu genießen.

Unabhängig davon, wäre eine 4070 TI super (was ein Name:rolleyes2:) für ~850€ durchaus eine interessante Karte. Die ersten Preisleaks sind allerdings schon wieder jenseits von gut und böse. Die 4080 ist zuletzt mit Cashback auf ca. 1050€ runter gegangen, da ist es ziemlich sinnbefreit 1100€+ für ein kleineres Modell zu bezahlen...
 
Der Punkt geht nicht gegen deine Daten, sondern gegen dein Testszenario was exakt den Sweet Spot der 4070 heraushebt und darauf basierend die Generalisierung. Was du machst ist Cherrypicking in einem extremen Grenzfall der ein Produkt übervorteilt und darauf eine allgemeine Aussage stützen.
Es ging doch rein um die Aussage hinsichtlich Raytracing, daher braucht man dafür doch auch keinen Vergleich ohne Raytracing machen?

Ich habe CP77 gewählt, weil ich hier direkt aus eigener Erfahrung 4070TI, 7900XTX, 4080 und 4090 vergleichen kann! Bei vergleichbarer Peripherie, denn CPU war immer eine 7800x3D und Ram lief stets mit 6000Mh bei CL30.

Cyberpunk ist hinsichtlich Raytracing aktuell sicherlich mit Alan Wake eines der anspruchsvollsten Spiele!

Man kann aber abseits von CP77 vergleichen:

IMG_2530.jpeg


IMG_2536.jpeg


IMG_2535.jpeg


IMG_2534.jpeg


IMG_2533.jpeg


IMG_2532.jpeg


IMG_2531.jpeg


Die XTX und 4070TI liegen stets nahe beieinander.

Und einfach nur zum Verständnis, ich bezog mich rein auf die Aussage, dass die XTX in Sachen Raytracing gleich auf mit der TI sei. Und in meinen Augen, wenn ein günstigeres Produkt die gleiche Leistung bei mehr Effizienz erzielt, ist dem nicht so!

Klar, in reiner Rasterleistung zieht die XTX davon, aber darum ging es ja nicht!
 
Klar, in reiner Rasterleistung zieht die XTX davon, aber darum ging es ja nicht!
Sollte es nicht aber? NV behauptet zwar konstant, dass RT der shit ist, aber in den meisten Fällen steht der Performance-Einbruch in keinerlei Verhältnis zum erzielten Effekt. Meistens gibt es nur eine Hand voll zusätzliche Schatten oder ein paar mehr Reflektionen für 50% weniger FPS.

Keine Frage, irgendwann wird das mal von großer Bedeutung sein, die Pathtracing-Demo von Cyberpunk sieht stellenweise schon beeindruckend aus, aber es fehlt Rechenleistung noch und nöcher. Aktuell muss man aber richtiggehend suchen um überhaupt zu bemerken, ob RT an ist oder nicht. Da ist es doch ziemlich sinnbefreit sich über irgendwelche RT-Benchmarks den Kopf zu zerbrechen.

Die Diskussion ist ja auch nicht neu. Bei der ersten RTX-Gen ging das ja schon los, nur das die Technologie über die gesamte Lebenszeit der entsprechenden Karten gänzlich bedeutungslos war und die Karten inzwischen soweit abgehängt sind, dass sich niemand mehr dafür intressiert, wie viel FPS eine 2080 mit RT packt. Ich bezweifle, dass es mit den 40er-Karten anders sein wird, wenn RT irgendwann tatsächlich ein handfestes Feature ist.
 
Es gibt schlechte rt Implementierungen und gute.

Zu den schlechten gehören zb.

Jedi survivor
Hogwarts legacy
Avatar


Zu den guten:

Cp77
Dying Light 2
Witcher 3

Pathtracing ist dann nochmal ein anderes Thema und mit dem 0815 rt nicht zu vergleichen.
 
Zu den guten:

Cp77
Hat sich da groß was geändert im Laufe der Zeit? Ich habe zum Release einige Vergleiche angeguckt, und da war das Spiel mit RT ein ganz bisschen hübscher, allerdings waren die Texturen mit dem benötigten DLSS einen Ticken unschärfer, weshalb es im Endeffekt keinen Vorteil gab.

Pathtracing ist dann nochmal ein anderes Thema und mit dem 0815 rt nicht zu vergleichen.
Aber da wird es doch erst interessant. Warum soll man sich von DLSS und FG abhängig machen, wenn der Mehrwert aktuell nur minimal ist?
 
Sollte es nicht aber? NV behauptet zwar konstant, dass RT der shit ist, aber in den meisten Fällen steht der Performance-Einbruch in keinerlei Verhältnis zum erzielten Effekt. Meistens gibt es nur eine Hand voll zusätzliche Schatten oder ein paar mehr Reflektionen für 50% weniger FPS.
Warum sollte in einer Diskussion, in welcher die Leistung zweier GPUs im Anwendungsfall Raytracing behandelt wird, die reine Rasterleistung eine Rolle spielen, die in diesem Anwendungsfall nicht zum tragen kommt?

Hinsichtlich Raytracing kann man unterschiedlicher Meinung sein, und es ist auch abhängig vom Spiel. In Alan Wake, CP77, Witcher 3 und Hogwarts (im Innenbereich) sind die Unterschiede deutlich wahrnehmbar - vorausgesetzt, man setzt die Settings entsprechend hoch. Ich spiele CP77 lieber mit Raytracing bei fixen 60fps, als ohne mit 120.
Optisch ist das ein deutlicher Unterschied für mich, auf den ich Wert lege.

Kann jeder anders sehen, und das akzeptiere ich ohne Weiteres und habe damit kein Problem. Wäre auch ignorant, wenn ich das nicht täte.
 
Welcher Erfolg?
Der Abnehmer für die Karten ist ein Überwachungstaat, da ist kein Endkunde weit und breit. Und der Aktienkurs kommt daher, dass H100 mit über 90% EBIT Marge verkauft wird, weil es einen KI Run gibt.

Warum nicht?
Wird doch andauernd gemacht. Dann geht's um FPS/€.
Das ist was mich als Konsument interessiert. Wieviel bekomme ich für mein Geld?

Nur das es weder Nvidia noch die Aktienanleger interessiert an wen und zu welchen Zweck das Produkt verkauft wird.

Die Einzelkäufer sind so oder so nach eir vor in der Minderheit. Die Meisten kaufen nach wie vor fertige PC, egal ob selbst zusammengestellt bei Caseking, MF,... oder komplett fertig beim MM, Aldi etc.
 
Ich zahle jeden Preis den Lederjacke von mir verlangt solange er eine konkurenzlos schnelle Karte wie die 4090 bringt :)
 
Zuletzt bearbeitet:
(..)Sollte es nicht aber? NV behauptet zwar konstant, dass RT der shit ist, aber in den meisten Fällen steht der Performance-Einbruch in keinerlei Verhältnis zum erzielten Effekt. Meistens gibt es nur eine Hand voll zusätzliche Schatten oder ein paar mehr Reflektionen für 50% weniger FPS.
(..)
Keine Frage, irgendwann wird das mal von großer Bedeutung sein, die Pathtracing-Demo von Cyberpunk sieht stellenweise schon beeindruckend aus, aber es fehlt Rechenleistung noch und nöcher.
Wo fehlt es an Rechenleistung?
Ab einer 4070 lässt sich das Feature uneingeschränkt nutzen.
Wer natürlich 4K und Pathtracing will braucht eine 4090.

Zitat Computerbase: "Für das Spielen mit dem Overdrive-Preset empfiehlt ComputerBase in 1.920 × 1.080 mindestens eine GeForce RTX 3080 oder GeForce RTX 4070. In 2.560 × 1.440 sollte es dann eine GeForce 3090 Ti oder GeForce RTX 4070 Ti sein. Und in 3.840 × 2.160 ist nur eine GeForce RTX 4090 wirklich schnell genug."
 
Hat sich da groß was geändert im Laufe der Zeit? Ich habe zum Release einige Vergleiche angeguckt, und da war das Spiel mit RT ein ganz bisschen hübscher, allerdings waren die Texturen mit dem benötigten DLSS einen Ticken unschärfer, weshalb es im Endeffekt keinen Vorteil gab.


Aber da wird es doch erst interessant. Warum soll man sich von DLSS und FG abhängig machen, wenn der Mehrwert aktuell nur minimal ist?
du musst dir mal RT richtig anschauen ;)

Und mit FG kann man ein CPU limit kaschieren
und mit DLSS Quality in kann man TAA umgehen.

Das hier ist ordentliches RT GI und RT AO und dann sieht man auch einen gewaltigen unterschied

1703854206554.png
1703854221186.png

1703854150297.png
1703854164869.png

1703853991777.png
1703854005253.png

1703853470518.png
1703853485819.png

1703853562020.png
1703853576568.png


 
Zuletzt bearbeitet:
Warum sollte in einer Diskussion, in welcher die Leistung zweier GPUs im Anwendungsfall Raytracing behandelt wird, die reine Rasterleistung eine Rolle spielen, die in diesem Anwendungsfall nicht zum tragen kommt?
Die Frage hat darauf abgezielt, ob der Anwendungsfall RT aktuell überhaupt eine ausreichende Relevanz inne hat.

Optisch ist das ein deutlicher Unterschied für mich, auf den ich Wert lege.
du musst dir mal RT richtig anschauen ;)
Also ich habe mir jetzt einige Vergleichsvideos angeguckt (Cyberpunk, Dying Light2, Harry Potter). Ja es sieht an vielen Stellen anders aus, aber wirklich besser? Bei Dying Light gab es eine Szene, wo ein Baum einen Schatten geworfen hat, das sah mit RT deutlich besser aus. Aber ansonsten ist es aus meiner Sicht eine ziemlich durchwachsene Angelegenheit.

Besonders die Reflektionen sind an vielen Stellen mit RT einfach nur gnadenlos übertrieben. In der Anfangsphase der 3d-Grafik sah alles nass aus, einfach weil noch nicht das Können vorhanden war überzeugende Oberflächen zu gestalten. Bei RT ist es so ziemlich das Gleiche:
1703855605079.png

Das sieht doch einfach so aus, wie als würde der Boden unter Wasser stehen und nicht wie der Boden in einer Burg. Warum sollte ich für sowas FPS abgeben?:unsure:


Wo fehlt es an Rechenleistung?
Ab einer 4070 lässt sich das Feature uneingeschränkt nutzen.
DLSS ist eine Einschränkung. Gibt es aktuell überhaupt ein aktuelles Spiel, bei dem die 4070 RT ohne Upscaling packt?

Wer natürlich 4K und Pathtracing will braucht eine 4090.
Aktuell gibt es keine Consumer-Karte, die ausreichend Leistung für Pathtracing hat. Schon gar nicht in 4k.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh