2070 Super oder RX 6700 XT?

Nicolai1892

Experte
Thread Starter
Mitglied seit
24.05.2017
Beiträge
1.361
Ort
Rodgau
Hallo alle zusammen,

ich habe ein "Problem", und zwar bin ich von den neuen Grafikkarten ziemlich angetan, auch wenn die Preise mir nicht zusagen.

Ich habe hier eine RTX 2070 Super Aorus ohne Rechnung, aber mit OVP, welche ich in der Bucht bestimmt für 600-650 loswerden würde.

Ich zocke sowas wie Warzone in WQHD, da hätte ich schon gerne mind. 144fps, da mein Monitor dafür vorgesehen ist.
Meine 2070 Super schafft hier "leider nur" 120.


Meine Frage nun:
Lohnt sich das Upgrade auf eine RX 6700 XT ? Falls ja, welches sind gute Custom Modelle ? Red Devil und Nitro+ häbe ich ins Auge gefasst.
Die Karte wird sehr wahrscheinlich vertikal verbaut, daher ist mir die Beleuchtung vorne wichtig, da ist die 2070 Aorus ja eigentlich unschlagbar 😅 Temperaturen haben mich aber bei der 2070 gestört, 70 Grad ist nicht wirklich schlimm, aber unter 60 gefällt mir halt einfach besser!

Welche Custom Modelle sind also zu empfehlen? Mit guter Kühlung und Bling Bling vorne 😅

Vielen vielen Dank vorab!

Viele Grüße
Nicolai
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meiner Meinung nach lohnt sich der Umstieg nicht. Habe ebenfalls eine RTX 2070 Super. Wenn dann lieber eine RX 6800 XT.
Allerdings ist auch das nicht unbedingt sinnvoll und wenn man momentan die Verfügbarkeit mit einrechnet, dann eh nicht.

Aber in Tests kann man sehen, dass die RX 6700 XT im Vergleich zur RTX 2070 Super sich ungefähr gleich platziert bzw. auch in einigen Punkten sich etwas schlechter präsentiert.
 
Den Test habe ich auch schon gelesen.

Aber habe in diversen Benchmarks gesehen, dass die 6700 XT je nach Modell 10grad kühler und beispielsweise bei Warzone in wqhd an die 140-150 fps haben soll.
 
Laut Papier bekommst dass mit der 2070S auch hin. Habe selbst aber bei Warzone das Problem dass ich bei Maximum vielleicht 120 FPS hinbekomme. Liegt aber glaube ich mehr am Spiel als an der Hardware.
Ich würde dir raten wenn dann die 6800/6800XT zu holen. Die ist nicht wesentlich teurer und der Umstieg lohnt sich dann schon mehr.
Wenn du natürlich eine 6700 XT zum UVP findest, dann spricht nix dagegen, da du für die 2070S wahrscheinlich mehr raus bekommst als du ausgibst.
 
Warzone ist komplett unoptimiert und auch extrem CPU-Lastig da eben große Map und viele Spieler.
Nur für sop ein Spiel würde ich jedenfalls nicht meine GPU tauschen nur damit man dann 20 FPS mehr hat und man eh schon bei 120 FPS liegt.
 
War jetzt nur ein Beispiel mit dem Spiel dass ich am meisten spiele. Spiele auch noch Black Desert Online und ähnliches, wo eine schöne Optik viel ausmacht.
 
Wie ist die GPU Last deiner RTX 2070 bei Warzone? Würde mich nicht wundern wenn die dort auch nicht bei ca. 99 % ist. Nachdem was ich alles gesehen habe ist AMD viel besser als Nvidias Ampere bei der GPU Last durch die Bank weg. Die Fps sind dadurch je nach Titel viel höher und es gibt keine nennenswerte Ruckler. Ich habe es mit einer RX6900 XT vs. RTX 3090 getestet. Bin immer noch sehr erschrocken. Nvidia mag anscheinend auch kein PCIe 4.0 sonderlich.

Ich teste nachher auch mal Warzone. Bin schon gespannt was die RTX 3090 dabei an GPU Last generiert. Ist Warzone DX12? Nur bei DX 12 hatte meine 3090 statt 50 - 77 % mehr als 90 % GPU Last.
 
Ist nicht auch Black Desert ein MMORPG? Dann ist das auch sehr CPU Lastig
 
Warzone hat volle GPU Last, ist auch DX12, DX11 Titel laufen mit 50 - 70 % GPU Last mit einer 3090:


Ander Spiele (DX11 oder niedriger) sind ein low fps Mikrorucklerparadies.
 
Warzone hat volle GPU Last, ist auch DX12, DX11 Titel laufen mit 50 - 70 % GPU Last mit einer 3090:


Ander Spiele (DX11 oder niedriger) sind ein low fps Mikrorucklerparadies.

Welche CPU hast du denn? Würde mich mal interessieren, dass würde möglicherweise meine Performance chrashes erklären (Ryzen 5 3600X)
 
Einen 5900X @ 4,5 GHz all core.

Aber daran scheint es nicht zu liegen es ist wohl ein Treiberbug. Ich habe gestern schon Maximum Performance eingestellt und auch übernommen. Heute nachdem ich gestern den Treiber und Windowsupdate neuinstalliert habe wieder.

Und es scheint irgendwie ein Bug vorzuliegen, dass der Nvidia Treiber die Einstellung nicht immer umsetzt:





Finds eh eine Frechheit, dass das nicht automatisch so eingestellt wird. Was soll denn der normale Nvidianutzer dazu sagen, wenn je nachdem wie der Würfel gefallen ist und welcher Treiber installiert ist, einfach mal die GPU Usage unter jeglichem Niveau ist. Mikroruckler gibt es immer noch. Also so flüssig wie AMD ist es immer noch nicht. Und die FPS sind auch nicht so hoch.
 
Zuletzt bearbeitet:
Bei mir schmiert das Spiel ab sobald ich mehr als 50 Prozent Vram Nutzung einstelle. DEV Error 6328. Passiert weder bei Cyberpunk noch sonst irgendwo.
Wie du sagst, komplett voll mit Bug‘s.

Alle paar Tage muss ich auch die Einstellungen wieder richtig einstellen. Merkt sich das Spiel wohl nicht ^^
 
Man muss erstmal darauf kommen woher der Fehler kommt. Und wenn es schon beim Nvidia Treiber anfängt, dann sind die Verdächtigungen anderer Komponenten allesamt kostspielig und zeitaufwendig und machen einen warnsinnig, weil sie zu nichts führen. Man kommt sich vor wie im Irrenhaus. Die Mikroruckler sind bei BF V natürlich immer noch vorhanden. Aber das scheint auch ein Nvidia Treiberproblem zu sein.
 
Man muss erstmal darauf kommen woher der Fehler kommt. Und wenn es schon beim Nvidia Treiber anfängt, dann sind die Verdächtigungen anderer Komponenten allesamt kostspielig und zeitaufwendig und machen einen warnsinnig, weil sie zu nichts führen. Man kommt sich vor wie im Irrenhaus. Die Mikroruckler sind bei BF V natürlich immer noch vorhanden. Aber das scheint auch ein Nvidia Treiberproblem zu sein.

Ich habe auch schon jede Menge Zeit investiert und bin auf Fehlersuche gegangen. Mein Fazit war auch: Sicherlich die Treiber. (Netzteil und Board wurde auch getauscht). Die Ruckler sind bei BF5 auch da, geht also nicht nur dir so.

Von AMD GPUs hört man aber auch ab und an Treiberprobleme, zumindest früher war das so. Wie ist das mittlerweile?
 
BF V läuft butterweich und smooth mit der RX6900XT. Da kommt Nvidia nicht dran. Das Hauptproblem von AMD sind ja die Nvidia Titel mit Nvidia libraries (u.a. Cyberpunk und Control) dass die RT Performance nicht besonders ist und DLSS (Bildqualität ist fraglich, aber mehr FPS :d) nicht supported wird und man auf entsprechende Konsolentitel oder AMD Titel mit FidelityFX warten muss. Ansonsten laufen die meisten Spiele mit AMD RDNA2 sehr gut.

Man muss sich also entscheiden. Grundfunktionen laufen einwandfrei, dafür aber weniger Features im Moment. Oder mehr Features und dafür spacken Grundfunktionen aka Mikroruckler und bis Ultra HD je nach Titel weniger FPS. Von Abwärme und Stromverbrauch ganz zu schweigen.

Rein finanziell würde ich auch sagen lieber AMD. RX6900XT ist viel günstiger als eine RTX 3090. Habe zwar eine Founders und eine Strix (für ~2,5K Euro :d) aber die Differenz ist derzeit 1200 Euro. Dafür kann ich mir locker die nächste Gen gratis kaufen. Die dann hoffentlich bug(freier) läuft, weil statt Computearchitektur eine reiner Gamerarchitektur (wie Maxwell) rausgebracht wird. Sind nur noch maximal 1,5 Jahre bis zum nächsten Release.
 
Zuletzt bearbeitet:
Oder mehr Features und dafür spacken Grundfunktionen aka Mikroruckler
Was aber sicher keine allgemeingültigkeit hat. Ich hab weder bei der AMD Karte I9 7920X/RX 6800 noch bei der Nvidia Karte R9 3900X/RTX 3070 Ruckler.
Wer da spielt und nicht weiß was verbaut ist, wird da keinen Unterschied feststellen. Oder Du spielst STALKER, dann bist Du mit keiner Grafikkarte gegen Ruckler gefeit :d.

Edit:
Vielleicht ist es bei den großen Ampere Karten anders, da die doch schwerer auszulasten sind als die kleine RTX 3070.
 
Ich habe keine Ahnung welche Auflösung du verwendest. Ich nutzte 3440 x 1440 @ 180 Hz, 3840 x 1600 @ 144 Hz und 3840 x 2160 @ 120 Hz (ab und an auf einem 120 Hz Oled Fernseher). Es kann sein dass das Problem bei niedrigeren Auflösungen / Refreshraten nicht so dramatisch aussieht. Ich war bei BF V (u.a. mit einem 3900X, 9900K) in Zusammenhang mit einer RTX 2080 Ti immer der Meinung die Ruckler kommen von der Gameengine. Da kann Nvidia doch nichts für. Gleiche Probleme mit einem 5900X und RTX 3090.
 
Ich bin auch mit der 2070S (9700k) unterwegs.. in Warzone droppe ich da eigentlich garnicht.. 140 locked von GSync
 
Finde dem Modus für geringere Latenz so geil vom NV, der bringt FPS nicht nur zum Schwanken und Ruckeln sondern lässt PC abstürzen.

Und ich hab ne alte Pascal nur, wo früher alles perfekt lief. Erst ab der 2000er Serie lässt NV dermaßen nach.
 
Ja. Die 1080 Ti war noch geil. Die 2080 Ti und 3090 machen mich wahnsinnig. Es betrifft ja nicht perse alle Games. Aber einige und mich nervt das wenn es nicht flüssig ist.

Geringe Latenz (ultra low latency) glitschte bei mir. Wie als wenn man sich auf einem seifigen Untergrund bewegt. Ganz merkwürdig. Was soll die Option bewirken?
 
nde dem Modus für geringere Latenz so geil vom NV, der bringt FPS nicht nur zum Schwanken und Ruckeln sondern lässt PC abstürzen.

Seit Big Navi versucht Nvidia halt überall Leistung heraus zu kitzeln, um die Jünger bei der Stange zu halten. 🤷‍♂️
 
glitschte bei mir. Wie als wenn man sich auf einem seifigen Untergrund bewegt
Das hab ich auch zusätzlich festgestellt. Die Option ist für die Tone.


Seit Big Navi versucht Nvidia halt überall Leistung heraus zu kitzeln, um die Jünger bei der Stange zu halten. 🤷‍♂️
Wenn es aber das Spielen unmöglich macht, sehe ich damit keine Mehrleistung darin.
 
Besonders wenn die Grafikkarten je nach Spiel Hitching oder stuttering haben hört bei mir der Spaß auf. Habs jahrelang bei der RTX 2080 Ti ertragen. Die hat aber nur ca. 1400 Euro gekostet und nicht wie eine Strix 2500 Euro. Da hängt meine Schmerzgrenze ganz niedrig. Es gab damals kein BigNavi sondern nur eine Vega. Die war wirklich nicht gut. Rein die FPS betrachtend.
 
Soll NV so weiter machen, ich schaue mir das bis RTX4000 da ist noch ne weile an. Wenn sich da nichts bessert bin ich das erste mal bereit AMD meine kohle zu geben.

Erstmal müssen aber eh die Preise dahin wo sie hingehören.

3060 für über 600€ :stupid:
 
Ich habe keine Ahnung welche Auflösung du verwendest.
Mit der RTX 3070 verwende ich einen 2560x1440p 165Hz FreeSync Premium pro Bildschirm und wie gesagt keinerlei Probleme.
Beitrag automatisch zusammengeführt:

Erst ab der 2000er Serie lässt NV dermaßen nach.
Alles durchgetestet?
Weder mit Pascal noch Turing, oder Ampere Probleme. Von dermaßen nachlassen kann m.M.n überhaupt keine Rede sein. Auch von den "großen Problemen" der Radeon -Treiber bin ich bis jetzt verschont geblieben.
Wenn man natürlich nach den Problem Threads geht....äh, dann darf man ja weder AMD noch Nvidia nutzen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh