AMD senkt noch vor der Veröffentlichung die Preise der Navi-Karten (Update)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.


Die Preise sind unsinn.

Bei Alternate zahlste für nen Ryzen 9 3900x etwa 550 euro keine 744 euro bzw. etwa bei den preis vlt 50-60 euro mehr wird der 3950x im september liegen.

Aber der 3800x preis sieht vernünftiger aus ca 390 bzw bei alternate lags bei 450-480.
 
Zuletzt bearbeitet:
Bei Alternate keine Preise gefunden, bzw. die 3. Generation ist noch nicht gelistet. Abwarten. Für den 3900x und 744 Euronen kam mir auch komisch vor. Ich denke dort sollte der 3950x stehen. Ich bin gespannt wie die anderen Anbieter reagieren. :)
 
3,5 GB RAM haben ja geklappt, nechwa? Nach deiner Hanebüchen Logik, hätte also AMD lieber für weniger Performance mehr Geld verlangt, wurde jetzt aber dazu gezwungen die Preise nach unten zu korrigieren weil Nvidia so stark ist? Wer hätte diese überteurten AMD Karten mit weniger Performance gekauft, unterstellst du AMD tatsächlich so wenig Weitsicht?

Wenn du nicht lesen kannst, mach das nicht zu meinem Problem!
Ggü. einer 2060/2070 wäre Navi eben nicht langsamer, AMD versprach "Performance leader in its class" - ohne Super wäre das zutreffend, mit Super jetzt offenbar nicht. Resultat -> Preise runter. Für dich zum Verstehen, ohne Super Turing hättest du da 30/50$ mehr hin gelegt, für das gleiche Produkt, nicht langsamer, nicht schneller, exakt gleich.

Zur 970, was will die in diesem Vergleich? Hätte genau so klappen können, klappte aber nicht. Und jetzt?

Und das du mir unterstellst ich hätte keine Beispiele genannt obwohl ich direkt darunter zwei Beispiele deiner subjektiven Beschreibungen zitiert habe ist mir auch rätselhaft.
Nur blabla ist keine Kritik - Zumal du den Text nicht verstanden hast wie deine Ausführung jetzt zeigt.
Wenn du schon rumstänkern willst, bring gefälligst Fakten und kein ausgedachten und auf Unverständnis basierten Wunschdenken... Oder ist dir das zu viel?
 
Die Art mit der du antwortest zeigt mir das ich wohl einen Wundenpunkt getroffen habe. Das du sagst das eine GPU bei gleicher Performance das exakt selbe Produkt ist, zeugt auch nicht gerade von großem Verständnis. (Treiber, freesync, gsync...)

Ich weiß auch nicht wie leigitim es ist das ein Moderatur seine Meinung in einem Forum kund tut, vielleicht wäre eine Art Disclaimer in der Signatur hilfreich, damit unbedarfte Mitleser nicht auf den Gedanken kommen, dass das von dir gegeben irgendwelche besondere Relevanz oder Objektivität birgt.
 
Die Art mit der du antwortest zeigt mir das ich wohl einen Wundenpunkt getroffen habe. Das du sagst das eine GPU bei gleicher Performance das exakt selbe Produkt ist, zeugt auch nicht gerade von großem Verständnis. (Treiber, freesync, gsync...)

Wunden Punkt? Nein... Mich belustigt eher wie du hier abermals nicht den Text gelesen/verstanden hast und daraus wieder irgend eine Interpretation entsteht mit der du mir versuchst nen Strick drauß zu drehen.
Dummerweise funktioniert das so nicht bei mir.

Ich wiederhole mich:
"Für dich zum Verstehen, ohne Super Turing hättest du da 30/50$ mehr hin gelegt, für das gleiche Produkt, nicht langsamer, nicht schneller, exakt gleich."
Navi hat sich nicht geändert - es bleibt das gleiche Produkt, es bleibt die gleiche Geschwindigkeit. Und nein (extra für dich, weil du es ja offenbar nicht verstehst) Turing ist nicht gleich Navi - was sich (bei Navi) geändert hat, ist der Preis. Und das im Resultat auf den Release der Super Modelle. Wenn du anderer Meinung bist, dann sei es so. Mir persönlich völlig egal. Diesen Unsinn mir hier irgendwas zu unterstellen verbitte ich mir allerdings.

Zum letzten, was soll dieser Unsinn? Willst du mir den Mund verbieten, weil meine Aussage nicht deiner Meinung entspricht? Wenn dass dein Ansinnen ist, dann darfst du dir gern einen anderen Ort zum Diskutieren suchen...
 
Zuletzt bearbeitet:
Natürlich ist der Preis relevant. Je niedriger der Preis, desto mehr Kompromisse sind akzeptabel.

VRAM bedingte Nachladeruckler ändern sich aber nicht mit dem Kaufpreis...
Was akzeptabel ist und was nicht, entscheidet ebenso Jeder für sich. -> was übrigens das Problem hier ist. Denn es wird mit zweierlei Maß gemessen ;)
 
Was ist denn an diesem Feature so besonders und neu?
Meinste echt, dass dieses Feature ein echtes Verkaufsargument gibt?

Reduzierte Latenz, die bei E-Sport-Spielen von einigen Spielern gerne angenommen werden. Und auf Nachfrage hat AMD gesagt, dass es nicht eine einfache Reduktion der Pre-Rendered Frames ist. (Was genau es ist, erfahren wir in 3 Stunden)

Aber hey, wenn du es nicht brauchst und nur Strategiespiele daddelst, ist es wohl kein Verkaufsargument für dich.
Genauso wie RT kein Argument für mich ist, da kein Spiel welches mich interessiert es unterstütz. Und die paar, die in Zukunft relevant sein könnten, tun es mit so krassen Frameeinbrüchen, womit RT wiederum wertlos wird. Aber hey, AMD hat kein RT also muss der Preis drunter liegen. /s

Wie gesagt, nimm dir deine Midrange-Karte im gleichen Preissegment und schalte dort RT an - viel Spaß mit deinen 20 FPS. Oder kauf dir ne 2080Ti und beschwer dich nicht über die Preise.
 
Zuletzt bearbeitet:
..

Und weil die anderen Features wie die Latenzreduktion anscheinend niemanden interessieren, kann AMD die auch gleich wieder rauswerfen. Will ja anscheinend niemand haben. :d

....

Frage mich eh, ob die GPU-Bauer das jemals schnallen.. Der ganze herstellerspezifische Kram mit irgendwelchen Details hat doch noch nie Jemanden interessiert. Aber ich glaube auch nicht, dass sie da viel Geld reinstecken, das werden einfach nur Abfallprodukte sein, die durch die Eigenschaften der Architektur eben mal nebenbei mitanfallen, und die man dann versucht auszuschlachten.
 
VRAM bedingte Nachladeruckler ändern sich aber nicht mit dem Kaufpreis...
Was akzeptabel ist und was nicht, entscheidet ebenso Jeder für sich. -> was übrigens das Problem hier ist. Denn es wird mit zweierlei Maß gemessen ;)
Ist die Karte billig genug, kann mans aber einfacher verschmerzen, mal die Texturen runter zu stellen, damit der Vram noch reicht.

Bei ner 350€ Karte ist sowas leichter zu akzeptieren als bei ner 700€ Karte. Nix zweierlei Maß, aber manche Unzulänglichkeiten akzeptiert man nunmal, wenn man dafür genug weniger hinblättern muss.

Sent from OP6
 
@fdsonne
Ich seh schon ist ziemlich sinnlos mit dir zu diskutieren du zitierst meine Aussage und stellst sie gegen deine Aussage die genau das selbe aussagt und kreidest mir an das ich etwas nicht verstehen würde.

Der letzte Absatz lässt auch ganz schön tief blicken bei dir, bevor ich mir hier noch einen Ban einfange weil ich meine Meinung (wie du) kund tue, überlasse ich dir den Schauplatz.
 
Frage mich eh, ob die GPU-Bauer das jemals schnallen.. Der ganze herstellerspezifische Kram mit irgendwelchen Details hat doch noch nie Jemanden interessiert. Aber ich glaube auch nicht, dass sie da viel Geld reinstecken, das werden einfach nur Abfallprodukte sein, die durch die Eigenschaften der Architektur eben mal nebenbei mitanfallen, und die man dann versucht auszuschlachten.

Ich würde eine out-of-the-box Latenzreduktion jetzt nicht als Abfallprodukt bezeichnen. Spezifische Features - wie RT - sind ja eher schlecht aufgenommen worde und die Hersteller mit solchen Sachen gerne ins Loch, wenns nicht out-of-the-box funktioniert. Nur massive Investitionen in Manpower durch Support haben überhaupt eine Chance sowas in den Markt zu spülen - und auch nur dann, wenns vom Kunden hinreichend benutzt wird.

Deswegen sind 3D sowie zig andere Technologien gestorben - und wenns so weitergeht, hat auch HDR einen schlechten Stand. (Ich hoffe nicht, dass es stirbt, aber die Adoptionsrate ist halt leider sehr gering)

Die anderen Features die eine Entwicklungsintervention benötigen (wie das Schärferstellen des Bildes) sind da wohl eher vom "Wird nicht genutzt" Problem betroffen. Was bei der Latenzreduktion wohl passieren wird, ist eine höhere CPU-Last. Wer eine starke CPU hat, wird sich also über dieses Feature freuen können - und das bedeutend früher, als die Leute, die immer noch auf RT warten.

Ist auch irgendwie ne persönliche Einstellungsfrage: Will ich mehr FPS bei gleichzeitig reduzierter Latenz und bin mit der Grafik zufrieden, oder möchte ich mehr Reflektionen zu Lasten der FPS? Da eine 2080Ti bei 4k grad mal 100FPS schafft, ist RT dort praktisch gestorben - es sei denn, ich find 60Hz okay.

In Zukunft möchte ich aber auf 4k und 144Hz zocken - und da muss Nvidia halt noch gehörig aufbohren - wenn sie mit RT Boden gewinnen wollen. Ansonsten ist es eine Verschwendung von Chipfläche, die der Kunde bezahlen soll (und es seltsamerweise auch bereitwillig tut - obwohl es kaum bis gar nicht genutzt wird - aber hey, nicht mein Geld)
 
@samurro
Du und fdsonne sagt nur aus dem Kontext gerissen das gleiche. Dir scheint es darum zu gehen, dass nicht nur die fps-Lestung und der Preis bei einer Kaufentscheidung relevant sind.
Fdsonne:
Bei ein und derselben Gpu ändert sich nichts an Leistung und Features, nur weil sich der Preis ändert.

Da die Super-Karten keine Features dazu bekommen haben, kann letzteres auch nicht der Grund für die Preisanpassung gewesen sein.
 
Reduzierte Latenz, die bei E-Sport-Spielen von einigen Spielern gerne angenommen werden. Und auf Nachfrage hat AMD gesagt, dass es nicht eine einfache Reduktion der Pre-Rendered Frames ist.

Dann war man ja jahrelang mit einer Nvidia in dem Bereich im Vorteil. Warum hast du denn da nie diese Feature hervorgehoben, sowie du es nun bei Navi versuchst zu pushen?
Auch bei Nvidia konnte/kann man die Latenz nicht nur durch eine Reduktion der vorgerenderten Einzelbilder erreichen, sondern auch noch durch die Anpassung der Threaded-Optimierung. Um dies zu vereinfachen (und wohl auch nen bisschen Marketing), hat Nvidia in den Beta-Treibern diese beiden Einstellungen unter den Punkt Latency zusammengefasst: New Beta driver (ver 435.27 for insider fast) has new Option with name Latency. : nvidia


Genauso wie RT kein Argument für mich ist, da kein Spiel welches mich interessiert es unterstütz. Und die paar, die in Zukunft relevant sein könnten, tun es mit so krassen Frameeinbrüchen, womit RT wiederum wertlos wird. Aber hey, AMD hat kein RT also muss der Preis drunter liegen. /s

Wie gesagt, nimm dir deine Midrange-Karte im gleichen Preissegment und schalte dort RT an - viel Spaß mit deinen 20 FPS. Oder kauf dir ne 2080Ti und beschwer dich nicht über die Preise.

Lieber habe ich die Option, mir selber anzusehen und so eine Meinung zu RT bilden zu können, als dass ich von vornherein gar nicht erst die Chance habe.

Und hau doch nicht bitte immer nur so haltlose und pauschale Behauptungen raus. Oder informiere dich zumindest, bevor du etwas behauptest..

Metro Exodus im Technik-Test: Dichte Atmosphäre, schicke Grafik, Raytracing, DLSS und DirectX 12 [Update 2]
Nvidia GeForce RTX 2060 Super/ RTX 2070 Super: ray tracing performance Eurogamer.net
 
Ich seh schon ist ziemlich sinnlos mit dir zu diskutieren du zitierst meine Aussage und stellst sie gegen deine Aussage die genau das selbe aussagt und kreidest mir an das ich etwas nicht verstehen würde.

Auf diesem Niveau wie dem, was du hier an den Tag legst versuchen mit mir zu diskutieren ist sinnlos, das stimmt. Aber das liegt nicht daran, dass die Diskussion generell sinnlos wäre, sondern dass du hier krampfhaft versuchst mir an die Karre zu pinkeln. Du erfindest hier Behauptungen, die du mir ankreidest - dabei wurde davon nichts gesagt. Du unterstellst mir hier irgendwelchen Stuss, der nirgends gesagt wurde - dabei bist du der, der einfach die Aussage missversteht. Lass es einfach gut sein.

Da die Super-Karten keine Features dazu bekommen haben, kann letzteres auch nicht der Grund für die Preisanpassung gewesen sein.

Hä?
Navi wurde im Preis gesenkt (siehe Threadthema) - was haben da Features von Turing mit am Hut?
Super-Turing ist auf den Namen gesehen sogar teurer als die Vorgänger. (2060 vs. 2060s sowie 2070 vs. 2070s)
Es gab also keine Preissenkung von Turing (wurde auch nirgends meinerseits behauptet) sondern es gab ne Preissenkung von Navi, die das Resultat nach AMDs eigener Aussage auf die Marktsituation war. Hersteller 1 bringt also neue Hardware und Hersteller 2 kann das, was er paar Tage vorher auf der Messe in die Kameras gesagt hat, nicht mehr halten. -> Ergo, Preis runter und fertig.
 
Zuletzt bearbeitet:
Na bei den rx5700ern müssen wir wohl mindestens mal 1-2 Wochen warten, wegen der Preise und auch dem Treiber, die Nvidias sind ja quasi nur ableger vorhandener Chips.

Trotzdem, fdsonne hat recht wenn er sagt, dass die Bewertung des Gesamtpakets subjektiv ist.
Das muss nunmal jeder für sich entscheiden.
Für mich ist z. B. DIE NON-XT total uninteressant, als Besitzer von 1070Ti und Vega 56.
Selbst die XT ist mir eigentlich zu wenig Mehr.

Deshalb halte ich aber gerade die non-XT für durchaus interessant. Die kann wahrscheinlich in nem 900-1000€ build gut passen, da können 2060s schon zu teuer sein.
 
Dann war man ja jahrelang mit einer Nvidia in dem Bereich im Vorteil. Warum hast du denn da nie diese Feature hervorgehoben, sowie du es nun bei Navi versuchst zu pushen?
Auch bei Nvidia konnte/kann man die Latenz nicht nur durch eine Reduktion der vorgerenderten Einzelbilder erreichen, sondern auch noch durch die Anpassung der Threaded-Optimierung. Um dies zu vereinfachen (und wohl auch nen bisschen Marketing), hat Nvidia in den Beta-Treibern diese beiden Einstellungen unter den Punkt Latency zusammengefasst: New Beta driver (ver 435.27 for insider fast) has new Option with name Latency. : nvidia
Weil sich die Latenzreduktionstechniken unterscheiden? Es ist eben NICHT einfach mal pre-rendered Frames rauf und runter. Und wenn du das bei Nvidia mal angeschaltet hättest, wäre deine Performance eingebrochen, GPU seitig. Von daher - jupp, mach ma. ;)



Lieber habe ich die Option, mir selber anzusehen und so eine Meinung zu RT bilden zu können, als dass ich von vornherein gar nicht erst die Chance habe.
Gut, dann bezahl sie auch und beschwer dich nicht.

Zu deinen Benchmarks:
RTX on vs off - findest du auch hier:
https://www.eteknix.com/battlefield-v-rtx-vs-rtx-off-performance-tested/3/
Du verlierst hier circa die Hälfte an Performance mit RTX on. Wenn du bereit bist diesen Trade-off zu bezahlen, dann mach das.
 
Weil sich die Latenzreduktionstechniken unterscheiden? Es ist eben NICHT einfach mal pre-rendered Frames rauf und runter. Und wenn du das bei Nvidia mal angeschaltet hättest, wäre deine Performance eingebrochen, GPU seitig.

Ich habe dir doch eben verlinkt, dass es auch bei Nvidia mehr ist als nur pre-rendered Frames rauf und runter..

Zeig doch bitte einmal Belege dafür, dass die Performanz GPU-seitig einbricht.

Bei diesem Test sieht man, dass Anti-Lag mehr FPS kostet als die Prerendered Frames zu verstellen: Radeon RX 5700 (XT): Radeon Anti-Lag ausprobiert - macht nicht nur Navi geschmeidig


Zu deinen Benchmarks:
RTX on vs off - findest du auch hier:
https://www.eteknix.com/battlefield-v-rtx-vs-rtx-off-performance-tested/3/
Du verlierst hier circa die Hälfte an Performance mit RTX on. Wenn du bereit bist diesen Trade-off zu bezahlen, dann mach das.

Schön, dass du jetzt wieder mit einem veralteten Benchmark um die Ecke kommst, obwohl es Patches für BF V gab, welche die Performance deutlich ausbessert: Battlefield 5: Update steigert Raytracing-Performance deutlich | heise online
Dein Cherrypicking war auch schon einmal besser :hust:
 
@fdsonne
ich wollte eigentlich nur zwischen Dir und samurro "vermitteln", da ich den Eindruck hatte, verstanden zu haben, wie er es meint und das es nicht das ist, was Du meinst.
 
Ich habe dir doch eben verlinkt, dass es auch bei Nvidia mehr ist als nur pre-rendered Frames rauf und runter..
Dann guck dir deinen eigenen Link nochmal selbst ganz genau an und lies nochmal quer.

Die Latenz bei AMD ist durchschnittlich geringer als mit pre-rendered-frames = 1. Es ist eben NICHT das gleiche. Steht in deinem Artikel. Bei Nvidia machts kaum einen Unterschied in der Latenz, bei AMD schon.

Leider fehlt im Artikel die CPU-Last in Zahlen, im Prosa ist es zum Glück aber aufgeschrieben:

In Battlefield 5 sorgt das Deaktivieren von Future Frame Rendering unter DX11 für eine sehr hohe CPU-Last und lässt die Bildraten in den Keller krachen. Mit einem schnellen Prozessor und unter der Direct-X-12-Schnittstelle funktioniert das Feature dagegen gut


Zeig doch bitte einmal Belege dafür, dass die Performanz GPU-seitig einbricht.
Schnelle Google Suche und hier ist ein Eintrag im Battlefield Forum:
https://forums.battlefield.com/en-us/discussion/42847/high-cpu-usage-low-fps-potential-fix/p5

Bei diesem Test sieht man, dass Anti-Lag mehr FPS kostet als die Prerendered Frames zu verstellen: Radeon RX 5700 (XT): Radeon Anti-Lag ausprobiert - macht nicht nur Navi geschmeidig
Jupp - und es hilft dir nur sehr bedingt im Lag-Verhalten bei Nvidia die pre-rendered Frames runterzustellen. Manchmal klappt es, oftmals nicht - siehe deinen eigenen Link oben. Bei AMD hingegen bekommste praktisch immer was raus - zu Lasten der FPS. Wenn dich der Input Lag also wirklich stört, du aber schon über 144 Hz bist, ist das ne valide Option bei AMD Karten.

Sieht für mich unterm Strich also wie ein nützliches Feature aus.



Schön, dass du jetzt wieder mit einem veralteten Benchmark um die Ecke kommst, obwohl es Patches für BF V gab, welche die Performance deutlich ausbessert: Battlefield 5: Update steigert Raytracing-Performance deutlich | heise online
Dein Cherrypicking war auch schon einmal besser :hust:
Nimm dir Metro oder was auch immer als weiteres Beispiel. Du verlierst 15-50%. Ändert nix an meiner Aussage. Du verlierst FPS, genauso wie beim Anti-Lag bei AMD. Du hast die Wahl. Anti-Lag kostet aber nix in der Produktion an Chipfläche - RT hingegen schon. Das bezahlst du also *immer* mit. Auch wenn du es nicht nutzt. Das Anti-Lag aber keine Chipfläche kostet, kanns dir Wumpe sein.
 
Dann guck dir deinen eigenen Link nochmal selbst ganz genau an und lies nochmal quer.

Die Latenz bei AMD ist durchschnittlich geringer als mit pre-rendered-frames = 1. Es ist eben NICHT das gleiche. Steht in deinem Artikel. Bei Nvidia machts kaum einen Unterschied in der Latenz, bei AMD schon.

Willst du mich eigentlich verarschen?
Schau dir meinen Post von Reddit zu dem Beta-Treiber an. Da steht doch eindeutig, bei der letzten Option "Lowest Latency tightens driver synchroniziation...". Die Option "Low Latency" setzt nur pre-rendered Frames auf 1. Die aggressivere Option macht also noch was anderes..



Deine Behauptung war, dass die Performance GPU-seitig einbricht. Dein Link spricht aber eher für ein CPU-Limit. Also kann es die Leistung im CPU-Limit einbrechen lassen, analog zu dem AMD Feature?


Jupp - und es hilft dir nur sehr bedingt im Lag-Verhalten bei Nvidia die pre-rendered Frames runterzustellen. Manchmal klappt es, oftmals nicht - siehe deinen eigenen Link oben. Bei AMD hingegen bekommste praktisch immer was raus - zu Lasten der FPS. Wenn dich der Input Lag also wirklich stört, du aber schon über 144 Hz bist, ist das ne valide Option bei AMD Karten.

Sieht für mich unterm Strich also wie ein nützliches Feature aus.

Die Profis von PCGH haben ja auch bei Nvidia falsch getestet, denn nur die pre-rendered Frames zu verändern, ist nicht die einzige Option, die man hat. Da es aber wahrscheinlich auch schon für IT-Redakteure zu hoch ist, die Treiber auf Low-Latecy zu trimmen, vereinfacht Nvidia dies demnächst unter der Option Latency :bigok:


Nimm dir Metro oder was auch immer als weiteres Beispiel. Du verlierst 15-50%. Ändert nix an meiner Aussage.

Moment mal Kollege. Deine ursprüngliche Aussage war folgende: "Wie gesagt, nimm dir deine Midrange-Karte im gleichen Preissegment und schalte dort RT an - viel Spaß mit deinen 20 FPS".
Diese habe ich widerlegt..
 
Nein, ich will dich nicht verarschen - ich fürchte nur, dass wir aneinander vorbei reden. Wenn der Schaum vorm Mund mal abgelegt werden würde, könnten wir evtl. sogar eine gesittete Diskussion führen, aber ich fürchte, das ist wegen persönlichen Ressentiments nicht mehr möglich. Leider.

Da steht doch eindeutig, bei der letzten Option "Lowest Latency tightens driver synchroniziation...". Die Option "Low Latency" setzt nur pre-rendered Frames auf 1. Die aggressivere Option macht also noch was anderes..
So - und jetzt mal Äpfel mit Äpfel. Auch wenn IGN nicht die beste Quelle ist - es gibt halt wenige Reviews zum Anti-Lag:
https://www.ign.com/articles/2019/07/07/amd-radeon-rx-5700-aa-review-and-benchmarks

Zitat:
AMD notes that this can have an impact on frames per second, but the trade-off in responsiveness is worth it. AMD says it's for GPU-limited scenarios, so we're mostly talking about 4K scenarios as opposed to 1080p where you might be CPU-limited. This is also a user setting that can be turned on or off.
Hast du ne Fette CPU, wo deine GPU limitiert, kannst du Anti-Lag anschalten und hast keine FPS-Einbrüche, weil die CPU (wenn sie genug Kraft hat) das auffangen kann.

Problem: Ist deine CPU nicht fett genug, kommst du ins CPU Bottleneck - besonders bei balancierten Systemen ohne Reserve wäre das eine schlechte Idee. Hast du aber nen fetten 3900X drin, kanns dir theoretisch egal sein. Theoretisch - weil praktisch sind die Spiele heutzutage noch nicht wirklich frei skalierbar. 6-8 Kerne werden so langsam ordentlich ausgelastet, aber die Lag-Reduktion, welche auf UI-Updates ausgelegt ist (und deswegen meistens recht spät im Render-Thread auftaucht) kann dir deinen main() blockieren. Doof.

Bei freier skalierbaren Spielen, wo das UI-Rendering vom Rest entkoppelt wäre könntest du dort aber in die Vollen gehen und machst einfach nen weiteren Thread auf und der Drops wäre gelutscht. Gibts aber leider nur recht selten (Vulkan/DX12 Spiele die nicht nur nen blöden Wrapper drumgebaut haben als Beispiel)

So, gucken wir uns Nvidia an. Das gesamte Video kannst du auch angucken, aber hier der relevante Timestamp:
https://www.youtube.com/watch?v=Yi-_T3vsv-Q&feature=youtu.be&t=1472

Ich vertraue da mal dem Spezialisten, denn ganz durchsehen tu ich hier auch nicht mehr. Aber: Es ist *nicht* das gleiche. Ich bleib dabei.

Deine Behauptung war, dass die Performance GPU-seitig einbricht. Dein Link spricht aber eher für ein CPU-Limit. Also kann es die Leistung im CPU-Limit einbrechen lassen, analog zu dem AMD Feature?
Klar, wenn du dich borderline an beiden bewegst, kann beides einbrechen. Die meisten Systeme sind ja auch so gebaut. Keiner hat ne 2080Ti mit nem 2500k oder nen 9900k mit ner GTX1030 zu Hause stehen.
Aber zurück zum Punkt GPU: Jupp - wenn ich nicht perfekt synchronisierte Engines laufen lasse, bricht auch etwas von der GPU Leistung ein, weil der Befehl zum rendern halt etwas später - dafür synchron kommt. Knall ich mir da oben drauf noch ein CPU-Limit rein, hab ich verloren. Deswegen sollte man CPU Leistungsreserven haben.

Die Profis von PCGH haben ja auch bei Nvidia falsch getestet, denn nur die pre-rendered Frames zu verändern, ist nicht die einzige Option, die man hat. Da es aber wahrscheinlich auch schon für IT-Redakteure zu hoch ist, die Treiber auf Low-Latecy zu trimmen, vereinfacht Nvidia dies demnächst unter der Option Latency

Einen besseren Bench hast du aber auch nicht gefunden. ;)
Wäre natürlich toll da nen Deep-Dive zu haben. So könnten wir uns dann auch diese längliche Diskussion sparen.

Moment mal Kollege. Deine ursprüngliche Aussage war folgende: "Wie gesagt, nimm dir deine Midrange-Karte im gleichen Preissegment und schalte dort RT an - viel Spaß mit deinen 20 FPS".
Diese habe ich widerlegt..
Wut? Nimm dir ne 2070 Super auf 1440p und mach Metro ohne RT an. Dann nochmal mit. Jetzt vergleiche.

edit: Hier ein schöner Test von Igor, der das mal mit/ohne RT beleuchtet hat:
https://www.tomshw.de/2019/02/15/metro-exodus-der-grosse-rtx-on-und-off-benchmark-fuer-die-geforce-rtx-2060-2070-2080-und-2080-ti-mit-dlss-analyse-und-mehr-igorslab/2/

Wenn du damit zocken willst, okay. Ich würds nicht mehr auf ner Midrange-Karte.
 
Zuletzt bearbeitet:
Nein, ich will dich nicht verarschen - ich fürchte nur, dass wir aneinander vorbei reden. Wenn der Schaum vorm Mund mal abgelegt werden würde, könnten wir evtl. sogar eine gesittete Diskussion führen, aber ich fürchte, das ist wegen persönlichen Ressentiments nicht mehr möglich. Leider.

Ich habe eher das Gefühl mit einer Wand zu reden, da ich jetzt schon mehrmals wiederholt habe, dass auch bei Nvidia nicht nur die pre-rendered Frames verändert werden, sondern es da noch mehr gibt. Du hast aber trotzdem weiter auf bei Nvidia ist es nur pre-rendered Frames = 1 verharrt..


(Vulkan/DX12 Spiele die nicht nur nen blöden Wrapper drumgebaut haben als Beispiel)

Und da funktioniert Anti-Lag (noch?) nicht. :fresse:


So, gucken wir uns Nvidia an. Das gesamte Video kannst du auch angucken, aber hier der relevante Timestamp:
https://www.youtube.com/watch?v=Yi-_T3vsv-Q&feature=youtu.be&t=1472

Ich vertraue da mal dem Spezialisten, denn ganz durchsehen tu ich hier auch nicht mehr. Aber: Es ist *nicht* das gleiche. Ich bleib dabei.

Warum verlinkst du mir einen Part, wo die über Fast-Sync bei Nvidia reden, obwohl das Latency-Feature etwas anderes macht??

Es muss jetzt nicht unbedingt das Gleiche sein. Das will ich auch nicht sagen, aber ich denke, dass sich beide Vorgehensweisen schon ziemlich ähneln werden. Zumal ja beide wohl eher im CPU-Limit eher zu Performanceverlust führen als im GPU-Limit.


Wäre natürlich toll da nen Deep-Dive zu haben. So könnten wir uns dann auch diese längliche Diskussion sparen.

Oh ja und ich würde dann auch gerne sehen, wie viel an deinen abenteuerlichen Erklärungen wirklich dran ist. Hoffentlich wird dann auch einen Vergleich zwischen Anti-Lag und Nvidia "neuen" Feature Latency geben. Nicht das da auf einmal Fast Sync oder nur die Reduktion der pre-rendered Frames mit Anti-Lag verglichen werden.


Wut? Nimm dir ne 2070 Super auf 1440p und mach Metro ohne RT an. Dann nochmal mit. Jetzt vergleiche.

edit: Hier ein schöner Test von Igor, der das mal mit/ohne RT beleuchtet hat:
Metro Exodus igor´sLAB

Wenn du damit zocken willst, okay. Ich würds nicht mehr auf ner Midrange-Karte.

Laut deinem Test schafft sogar die 2060 mehr als deine zu vor behaupteten 20FPS und widerspricht dir :fresse:
Und mit DLSS läuft es doch auch angenehm. Also was ist dein Problem?
Bitte verlink jetzt nicht die veralteten Berichte über die unscharfe DLSS-Implementierung, denn diese wurde per Patch gefixt.
 
Ich habe eher das Gefühl mit einer Wand zu reden, da ich jetzt schon mehrmals wiederholt habe, dass auch bei Nvidia nicht nur die pre-rendered Frames verändert werden, sondern es da noch mehr gibt. Du hast aber trotzdem weiter auf bei Nvidia ist es nur pre-rendered Frames = 1 verharrt..

Bezugnehmend auf deine erste Antwort:
Dann war man ja jahrelang mit einer Nvidia in dem Bereich im Vorteil. Warum hast du denn da nie diese Feature hervorgehoben, sowie du es nun bei Navi versuchst zu pushen?
Da Nvidia und AMD hier was unterschiedliches machen mit unterschiedlichen Ergebnissen.

Und da funktioniert Anti-Lag (noch?) nicht. :fresse:
Jupp. Und bis es funzt isses ein no-feature, genauso wie es bei RT der Fall war/ist.



Warum verlinkst du mir einen Part, wo die über Fast-Sync bei Nvidia reden, obwohl das Latency-Feature etwas anderes macht??
Es muss jetzt nicht unbedingt das Gleiche sein. Das will ich auch nicht sagen, aber ich denke, dass sich beide Vorgehensweisen schon ziemlich ähneln werden. Zumal ja beide wohl eher im CPU-Limit eher zu Performanceverlust führen als im GPU-Limit.
Schön, da sind wir beide endlich mal einer Meinung. Warum also der ganze Stress?

Oh ja und ich würde dann auch gerne sehen, wie viel an deinen abenteuerlichen Erklärungen wirklich dran ist. Hoffentlich wird dann auch einen Vergleich zwischen Anti-Lag und Nvidia "neuen" Feature Latency geben. Nicht das da auf einmal Fast Sync oder nur die Reduktion der pre-rendered Frames mit Anti-Lag verglichen werden.
Ich denke, da wird was kommen. Das ist für einige Leute interessant und ein Review wert. Wird aber erst dann möglich sein, wenn Anti-Lag auch unter Vulkan/DX12 läuft. Bis dahin Füße still halten.

Laut deinem Test schafft sogar die 2060 mehr als deine zu vor behaupteten 20FPS und widerspricht dir :fresse:
Und mit DLSS läuft es doch auch angenehm. Also was ist dein Problem?
Bitte verlink jetzt nicht die veralteten Berichte über die unscharfe DLSS-Implementierung, denn diese wurde per Patch gefixt.
Persönliche Präferenz ist dann wohl das Problem. Ich zock nicht mit unter 30 FPS 1% low - da krieg ich Pickel von. Und DLSS ist ebenfalls extrem subjektive Präferenz. Die meisten sind davon nicht sehr angetan, um es gelinde auszudrücken.
 
Da Nvidia und AMD hier was unterschiedliches machen mit unterschiedlichen Ergebnissen.

Das steht ja noch gar nicht fest. Aber mir scheint es so, dass Anti-Lag von AMD so etwas ähnliches ist, was man bei Nvidia (schon lange) durch anpassen der beiden Optionen "Pre-rendered Frames" und "Threaded-Optimierung" erreichen kann. Denn genau diese beiden Optionen werden demnächst unter dem Punkt Latency zusammengefasst. Vielleicht wird da dann auch noch etwas von Nvidia optimiert, sodass dies besser zusammenarbeitet.

Also wie bereits gesagt. Ich denke nicht, dass beide Vorgehensweisen genau gleich sein werden, aber schon sehr ähnlich.


Schön, da sind wir beide endlich mal einer Meinung. Warum also der ganze Stress?

Ich sehe keinen Stress, nur musste ich mich zigmal wiederholen..


Persönliche Präferenz ist dann wohl das Problem. Ich zock nicht mit unter 30 FPS 1% low - da krieg ich Pickel von. Und DLSS ist ebenfalls extrem subjektive Präferenz. Die meisten sind davon nicht sehr angetan, um es gelinde auszudrücken.

Man muss aber auch bedenken, dass eine 2060 für 1440p allgemein, also auch ohne RT, schon ziemlich schwachbrüstig ist. Mir persönlich wäre auch eine 2070 noch zu schwach.
Und bei dem Benchmark wurde mit dem Ultra-Preset getestet. Da könnte man bestimmt durch schlaues Tweaking der Settings noch ein bisschen an Leistung herausholen, ohne allzu große Kompromisse bei der Grafik in Kauf nehmen zu müssen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh