Nvdia 3090 oder AMD 6900XT

Tom29a

Profi
Thread Starter
Mitglied seit
04.01.2021
Beiträge
91
Moin, wenn ihr die Qual der Wahl hättet zwsichen 3090 FE und 6900XT FE, welche würdet Ihr in einem AMD Ryzen 7 3700x, der evtl. mit dem 5900X ersetzt wird einbauen. Ich nutze den Rechner hauptsächlich zum zocken von Egoshootern und habe einen Monitor der 3440x1440 mit 144hZ macht. Jetzt habe ich letztens erfahren das z.B. BF V erst ab nativen 4K DLSS untersützt, also bringt mir das in dem Spiel ja mal gar nichts....
Seid bitte neutral in Eurer Meinung ohne Fanboyseite :-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde sagen RX6900XT weil die bugfreier ist und die 3090FE würde ich abgeben. Spart ca. 1000 Euro ein. Mache ich sofern ich noch des Rätsels Lösung mit den Mikrorucklern finde auch. Dann kostet die RX6900XT custom nur 300 Euro.

Stehe vor der selben Wahl. Besonders bei BF V nervt mich die RTX 3090 mit ihren Mikrorucklern und weniger FPS übelst. Außerdem musst du bei der Nvidia im Treiber maximale Leistung auswählen und hoffen dass der Nvidia Treiber die Einstellung anwendet. Ansonsten hat die GPU nur 50 - 70 % Last und dementsprechend einen hohen Fps Verlust.
 
Ja ich habe aktuell noch eine AMD R290 mit 4GB und spiele auf FHD mit niedrigsten Auflösungen. Die Karte ist von Sapphire und tut treu ihren Dienst seit ca. 8 Jahren.
Die Nvidia RTX 3xxx-Ruckler bei BF V sind mir auch schon aufgefallen. Besonders am Anfang muss die sich quasi erst mal einruckeln bis es vernünftig läuft. Das non plus ultra (nur ein Gedankenspiel macht ja keiner wirklich 8-)) wäre natürlich, wenn man beide GPU´s an 2x X16 anbinden könnte und wechselt hin und her je nach Spiel. Also z.B. 3080 und 6800XT, die reichen ja eigentlich vollkommen aus dafür.
Ich spiele ja immern noch mit dem Gedanken einer 3080Ti, aber bis die da ist und man eine bekommt ist das Jahr ggf. schon rum....
Nvidia hat schon ein paar coole Features wie DLSS bei den Karten inkl. Software etc. , aber mal erhlich es gibt auch nicht wirklich so eine Riesenauswahl an Spielen, die das unterstützen und dann noch diese Einschränkung wie bei BF V erst ab nativen 4K funktioniert DLSS es.....

Die 16GB gegen die 10/12 sind natürlich auch ein Argument, wobei die GDDR6x ab 3080 natürlich auch verlockend sind.... Wenn ich jetzt eine 3080Ti mit 12GB bekommen könnte würde ich glaube ich beide Karten wieder abgeben. Voll das Luxusproblem ich weiss, aber seht es mir nach ich habe 8 Jahre nicht aufgerüstet.....
 
Verlockend ist es vielleicht theoretisch. Aber praktisch sicherlich nicht. Du musst erstmal eine RTX oder RX relativ günstig bekommen. Der FE Drop ist schon ein paar Tage her.

Auf dem Sekundärmarkt wird es sehr kostspielig und lohnt sich gar nicht sofern man nicht gerade Dargobert Duck ist.

GDDR6X wird sehr heiß und neigt zum Throtteln. Lebenserwartung ist eventuell kritisch. Ich hatte 1 x Ameisenwar auf einer RTX 2080 Ti mit kaputtem Vram. Ich möchte das ungern noch mal haben.
Da hatte es eine andere Ursache aber die Karte war hin und war wochenlang in der RMA. Man müsste Infos von Minern bekommen wie lange GDDR6X Dauerbelastung aushält bis er abdampft.
Ich hoffe die Infos kommen bald.
 
Kann leider nur für 3 Monate sprechen..
Meine "Zombiemod"-3090 (shunts und andere spielereien) läuft seit 3 Monaten im Miningbetrieb. In der zeit habe ich mehrfach Paste/Pads getauscht (nicht weil es nötig war sondern zum experimentieren)
Letztes mal war vor 1 Woche.
Nach dem Reinigen sieht die Karte aus wie neu. Keine verfärbungen am Ram oder Leistungseinbußen beim benchen.
Was nur auffällt sind die mitgenommenen Pads. Habe viele Fabrikate bereits getestet. Auch Jene die angeblich nicht "Ölen" sollen.
Bis jetzt war die Karte immer halb verschmiert durch das Öl der Pads.. Also Ja die werden verdammt heiss. Jedoch nicht unter normalen Bedingungen.

Würde fast dafür unterschreiben, dass die Karte beim Spielen keine Ram Probleme hat.
Um ganz sicher zu sein kann man hier noch 10€ Kühlrippen auf die Backplate kleben.

Ich selbst würde eine 3090 der 6900xt immer vorziehen. Alleine von den Features her. Shadowplay, RTX Voice, RT(noch), DLSS, NVENC.
Wenn Geld eine Rolle spielt halt die 6900xt. Leistungstechnisch ist da eh fast kein Unterschied.

Vom Wiederverkaufswert der 3090 ganz zu schweigen :p
 
Nun gut ich habe auch mal bei Asus nachgefragt, wegen deren Line Up TUF 24//7, welches ja vemuten lässt die wären für den Betrieb rund um die Uhr ausgelegt. Lt. Aussage Asus ist dem nicht so. Man hat aber auch keine weiteren Informationen zur Verfügung gestellt. Ja ich denke generell, das die Karten im Miningbetrieb relativ schnell auf sind, da die Speicher die hohen Temperaturen zwar ausshalten, aber davon auch sehr strapaziert werden. Wenn ich sowas machen würde wäre denke ich ein Schichtbetrieb unter moderater Last der Speichertemperatur für die Karten eine bessere Lösung, aber ich denke die meisten wollen nur schnell Rendite machen. Die Frage ist wie lange das noch möglich ist. Hab da was von ETH 2.0 gehört die das MIning mehr oder weniger obsolete machen zumindest für diese Kryptowährung.

Ein Miningrig ist irgendwie verlockend, aber auch mit Kosten und Aufwand verbunden. Man muss es ja auch steuerlich anmelden, wenn man regelmässigen Gewinn damit macht.
 
@Yume

Die RTX 3090 hat Features. Ist aber leider eine Bugschleuder. Siehe mein Thread (da habe ich auch noch andere Problemthreads von Ampere auf nvidia.com verlinkt). Die Architektur scheint nur bei hohen Auflösungen (ab Ultra Hd) je nach Gameengine gut ausgelastet zu sein. Ansonsten ist Mikroruckler und Ruckelparade angesagt. Finde es eine Frechheit seitens Nvidia. Ich möchte jedes Spiel flüssig spielen. Nicht nur die auf die Ampere Architektur (oder auch die vorherigen NV Architekturen (Turing)) anspringt.

Die alte Serie war auch schon betroffen, nur da wusste wohl mangels ernsthafter Konkurrenz wo es dran liegt.



Eine RTX 3090 Strix geht heute zurück und der Rest an 3090ern die hier noch rumfliegen wird verkauft.
 
Hmm. bin mir nicht sicher ob es perse an der 30X0 Serie liegt.

Bei mir gab es bis Dato keine Auffälligkeiten. Spiele aber auch nur auf 172Hz in 1440p.

Aber ja habe schon von den Berichten gelesen.. M;an sollte es nur nicht auf die Allgemeinheit schieben :p


Kann natürlich auch gut sein das mein altes Auge es nicht warnimmt
 
Hast du mal mit einer AMD RX6900XT gegentestet? Ich wollt es auch nicht glauben und habe meinen ganzen PC untersucht und umgebaut. Ne, die Nvidia will nicht.

Und dann ist mir der Gedanke gekommen, dass Ampere nicht immer gut ausgelastet wird. Wie ein Motor der 10 Zylinder hat, aber nach Lust und Laune nur 5 oder sogar weniger laufen wollen.

Ich habe heute sogar noch undervolted + 1500, 1800, 1900 MHz GPU Takt eingestellt um zu schauen ob es nicht an meine 750 Watt Corsair Netzteil liegt. Ne, liegt es nicht. Die Graka zieht sich ja bei anderen Games auch ihre knappen 400 Watt konstant.

Eigentlich unsinnig, aber man will alles testen bevor man zu einem Fazit kommt.



Ich wette da steckt ein riesiger Rattenschwanz hinter.

Das haben nämlich schon einige festgestellt. Das es Anwendungsbereiche gibt. Da ist eine RTX 3080/90 langsamer als eine viel ältere, eigentlich viel langsamere Grafikkarte und das nicht nur weil alte, "schlechte" Cpus verwendet wurden.

Ich nehme mich davon gar nicht aus. Ich würde normalerweise auch nicht prüfen ob die Grafikkarte volle Fps bringt oder nicht. Hauptsache ist relativ "flüssig". Inwiefern ich nun hinters Licht geführt wurde, ist ohne Vergleich zu anderen Gpus für Ottonormalo auch nicht möglich.
 
Zuletzt bearbeitet:
Nein

Habe in den letzten Jahren keine AMD angefasst. Bei den GPU´s. Den Ryzen habe ich im November eine Chance gegeben. Bin hier aber geteilter Meinung.
Habe es eben mal gegooglt. Scheinbar gibt es da wirklich ein Problem. Die Frage ist halt nur wievielen trifft es ? 1%? 5%?

Mir kommt alles flüssig vor daher suche ich da jetzt nicht nach Mikroruckler :d

Edit:
Mit nicht ausgelastet. Reden wir hier über "gpu usage"? da liegt ich nie unter 95-100%
Vielleicht ist es wirklich eine Kombination vom ganzen System.
 
DX12 Titel sind generell wohl nicht betroffen. Da wird die Nvidia ordentlich ausgelastet.

DX11 und darunter sind wohl ein Problem (noch mehr ohne hohe Auflösung wie 3840 x 2160). Insbesondere bei Ryzen Cpus. Warum auch immer. Intel Cpu Nutzer berichten teils von selbigem.

Ich kanns mangels Intel System nicht prüfen. Kann natürlich auch sein das der Nvidia Treiber vorwiegend AMD Cpus @ DX 11 oder darunter nicht (immer je nach Anwendung) ordentlich auslastet.

Alleine an der CPU Auslastung liegt es auch nicht. Denn die Mikroruckler/Ruckler passieren auch wenn eine sehr hohe GPU Last anliegt. Sehr merkwürdig.

Nvidia äußert sich in ihrem Treiberthread auf nvidia.com nicht zu den Problemen. Nur Standardtipps. Mehr gibt es nicht.
 
Zuletzt bearbeitet:
Ich habe in einigen Games relativ schlechte Performance.. Habe es bis jetzt immer auf die Ryzen-CPU geschoben (5800x)

Sei es bei Cyberpunk max 80fps (1080p low settings) anstat in Benchmarks 120++ FPS. auf Anschlagg bei 1440p hab ich hier 70+ fps
Anno 1800 40-60fps (1440p max settings)

Shooter aka Warzone, Fortnite, CSGO hingegen laufen bei 172+ FPS bzw 300+ fps in CSGO

Aber alles ohne Mikroruckler
 
Ich habe einen 5900X egal ob stock oder 4,5 GHz all core. Selbes Problem. Ich bemerke jedoch das meine Games nicht annähernd so flüssig laufen wie mit der Radeon RX6900XT. Die FPS sind teilweise auch fast halbiert. Siehe BF V bei 3440 x 1440 @ DX11.

Du kannst deine Gamesessions bei denen du meinst es gäbe keine Ruckler mit CapFrameX aufzeichnen. Ich habs jetzt nicht im Kopf, wie viele der o.g. Titel verwenden DX12? CS GO nein, das weiß ich.
 
Bf5 läuft auch mit dx12 einfach besser. War schon immer so. Meine 3090 klebt an der 144fps grenze bei wqhd ultra settings.
 
Das haben nämlich schon einige festgestellt. Das es Anwendungsbereiche gibt. Da ist eine RTX 3080/90 langsamer als eine viel ältere, eigentlich viel langsamere Grafikkarte und das nicht nur weil alte, "schlechte" Cpus verwendet wurden.
Das die 3090 im Vergleich mit der 6900xt mit "schwächeren" CPUs schlechter performen tut, finde ich jetzt auch nicht gerade gut. Hab aktuell noch einen Ryzen 7 1700@3,8 GHz den ich fürs erste, mit meiner kommenden 6900xt in WQHD noch weiter betreiben will. Das erste was ich machen werde, ist bei den Games den MSI Afterburner mit laufen lassen :d
 
@Sir Qlimax

Die Auslastung und Fps ist mit DX12 defintiv deutlich besser. Die Performance bezüglich Ruckler nein. BF V läuft auf einer RX6900XT bei DX 11 bombig. Fast 100 % mehr Fps wie eine RTX 3090.#

Gerade noch mal getestet. DX12 teils 97 % GPU Last und 160-177 FPS (Fps lock) bie uwqhd. Aber immer noch sehr ruckelig.
 
Zuletzt bearbeitet:
Mit der 3080 hat es geruckelt. Bei meiner 3090 läuft's wie Butter... Kann nicht klagen.

BFV läuft auf AMD generell besser.
 
Treten die Probleme nur bei 3080 und besser auf ? Evtl. liegt es an den Temperarturen des Speichers ? Bin kein Entwickler, aber zu heiss dann kommt es doch automatisch zum throtteln...
Beitrag automatisch zusammengeführt:

@Botli ich würde das mal bei Igo´rs Lab als Thema platzieren. Der kennt sich nun wirklich aus mit Graka´s
 
Das habe ich auch noch vor. Bin nur noch nicht dazu gekommen.

Der Thread ist auch sehr interessant:


Die meisten Leute die nicht wirklich Ahnung haben, raten gerne dazu das Netzteil rauszurupfen und gegen ein 1000 - 1200 Watt Netzteil zu ersetzen. Das bringt m.M.n. nur etwas wenn die Grafikkarte egal bei welchem Direct X nicht voll ausgelastet werden kann und die Leistungsaufnahme, Auslastung und Taktfrequenz wild schwankt.

Die Probleme werden nicht nur bei der 3080 auftreten. Die Temperaturen des Speichers waren bei meinen Games auch nicht sonderlich hoch. 70 - 80 °C. Daran wird es nicht liegen. Irgendwas verursacht kurzweilige Framedrops (um ca. 10 oder mehr FPS) und dann ruckelt es. Komischerweise ruckelt es ab und an auch ohne Framedrops (ok, ich kenne den Updatezyklus vom Afterburner nicht), vielleicht ist da trotzdem ein Framedrop der nicht aufgezeichnet wird :(.

Hier müsste man sich auch mal die Nutzerberichte anschauen:

 
Zuletzt bearbeitet:
Ich habe in einigen Games relativ schlechte Performance.. Habe es bis jetzt immer auf die Ryzen-CPU geschoben (5800x)

Sei es bei Cyberpunk max 80fps (1080p low settings) anstat in Benchmarks 120++ FPS. auf Anschlagg bei 1440p hab ich hier 70+ fps
Anno 1800 40-60fps (1440p max settings)

Shooter aka Warzone, Fortnite, CSGO hingegen laufen bei 172+ FPS bzw 300+ fps in CSGO

Aber alles ohne Mikroruckler
Hört sich für mich nach einem CPU-Problem an, 80-90 FPS (Cyberpunk/1080p/low) macht mein alter i7 3770k in Kombination mit einer GTX 1080 auch, wobei die GPU mit Low-Settings nur auf 70 Prozent Last läuft.
Ich würde mal nen CPU-Test machen (z.B. CPU-Z) und falls da alles ok ist, den Arbeitsspeicher überprüfen.
 
Die GPU Auslastung wäre bei ihm und bei dir die Cpu Auslastung interessant. Aber warum soll die neue Ryzen Cpu so schlecht performen? Kann ich mir gar nicht vorstellen. Ich kann mir eher vorstellen, dass deine Cpu im Limit hängt. Oder Cyberpunk ist nicht Ryzen optimiert. Davon habe ich bei meiner Recherche zum RTX 3090 Problem auch schon gelesen.

Beim Cinebench R20 Single und Multithread läuft meine so schnell wie sie soll.

Wer Zeit und Lust hat kann sich diese Berichte mal zu Gemüte führen:


Finds sehr erschreckend. Besonders weil kein Fix in Sicht ist und Nvidia zumindestens bei VR das Problem eingeräumt hat. Angeblich soll das mittels Treiberupdate behoben worden sein. Gibt trotzdem noch Berichte dass es nicht behoben worden ist.
 
Zuletzt bearbeitet:
Hört sich für mich nach einem CPU-Problem an, 80-90 FPS (Cyberpunk/1080p/low) macht mein alter i7 3770k in Kombination mit einer GTX 1080 auch, wobei die GPU mit Low-Settings nur auf 70 Prozent Last läuft.
Ich würde mal nen CPU-Test machen (z.B. CPU-Z) und falls da alles ok ist, den Arbeitsspecher überprüfen.
Habe mehrere Ram-Settings durchprobiert. Auch 3 verschiedene Kits. 3200->4000MHz cl14-cl18 alles durch. 16 und auch 32GB 2 oder 4 Riegel.

Im Grunde stört es mich nicht. auf 1440p und alles max limitiert eh meist die GPU aber habe trotzdem Monate bisher den Fehler gesucht.

CB20 sind normale Punkte. 61xx MC und 62x SC
GPU-Z auch normaler Wert
Memtest mehrere Stunden durchlaufen lassen.
Aida64 sagt mir ~55-60ns latency

Zudem habe ich mit und ohne PBO sowie allcore 4.5-4.7 GHz getestet

System ist aktuell: Asus x570 e-gaming (mehrere Bios versionen durch), 3800 cl16 DR, 5800x, 3090. Ich muss anmerken, dass ich einen CCD2 5800x habe.. also Ryzen Master spinnt hier auch rum und zeigt mir die Cores nicht.

Einer der Gründe wieso ich die ersten 2 Monate von dem System nur am testen war und meine Freude auf das 5800x upgrade schon lange verflogen ist.

SRY für Oftopic :d

edit hier noch PR und TS results. habe von den anderen keine screens.

Aber im Endeffekt auch egal... aktuell wird man eh bestraft wenn man Games laufen lässt anstatt anderen Dingen nachzukommen ^.^
 
Zuletzt bearbeitet:
Stehe vor der selben Wahl. Besonders bei BF V nervt mich die RTX 3090 mit ihren Mikrorucklern und weniger FPS übelst. Außerdem musst du bei der Nvidia im Treiber maximale Leistung auswählen und hoffen dass der Nvidia Treiber die Einstellung anwendet. Ansonsten hat die GPU nur 50 - 70 % Last und dementsprechend einen hohen Fps Verlust.

Problem hatte ich bisher bei allen Karten, wenn SAM/rBar aktiv ist. Selbst mit einem reinen AMD System ruckelt es mir zu stark, trotz guter FPS, wenn SAM aktiv ist. Habe es daher deaktivert. Anfangs dachte ich, dass es an Intels Umsetzung von rBar liegt (10600k + 6900XT). Aktuell nutze ich einen 5600x und die 6900XT und habe das Problem noch immer. Mit deaktivierten SAM ist das Geruckel deutlich weniger.

Das Problem, dass BF5 am Anfang der Partie ruckelt ist normal. Da müssen wohl erst die ganzen Shadder und sowas geladen werden. Das Problem hatte ich bisher bei allen meiner letzten Karten (3070, 3080, 3090 und 6900XT).

Ich bin btw. von einer 3090 auf eine 6900XT umgestiegen. Für den aktuellen Preis der 6900XT bekommt man sehr sehr viel Leistung für das aufgerufene Geld. Eine 3080 ist langsamer, verbraucht mehr Strom und ist noch einmal ein gutes Stück teurer. Wenn man nicht unbedingt VR spielt, minern möchte oder spezielle Nvidia Features benötigt, sind die AMD Karten der bessere Tip.
 
SAM hatte ich bei meiner RX6900XT nicht aktiviert. Bei Nvidia gehts im Moment mit einer 3090 sowie so noch nicht bei jedem Hersteller:


Bei mir ruckelt es nicht nur am Anfang bei BF V, sondern fortlaufend. Bei der 6900XT habe ich das Problem gar nicht. Hast du eine Referenz oder custom RX6900XT?

Ich habe nur eine 6900XT Red Devil getestet.

Wie sind deine Beobachtungen zwischen 3090 und 6900XT bei anderen Titeln? Mich interessieren insbesondere DX 11 oder weniger Titel.

So kann man sich stuttering auf einer RTX 3090 vorstellen:


Das Video stammt auch von einem RTX 3090 Nutzer. Die harten Ruckler sind natürlich heftig und kommen von den starken GPU usage drops.

Aber besonders die kleineren Stottereffekte ab und an kommen mir sehr bekannt vor.

@Yume

Das passt zu deinem Problem:


Könntest du bitte nachschauen ob deine gpu usage gravierend steigt wenn du auf Ultra Hd gehst? Und natürlich wären die FPS interessant.

Auch ein interessanter Thread leider nicht weiter fortgeführt:



Minute 14:30

Und hier bezüglich Netzteile bei 3090:


Auch Igor sagt, so lange das Netzteil nicht ausschaltet passiert nichts. 750 Watt werden nur kritisch wenn man sich einen sehr stromfressenden Intel 10900k beispielsweise einbaut.

Das sollte auch stutzig machen:


Ich habe das nach mehreren Durchläufen DX12 bei BF V auch festgestellt. Drossel ich die GPU auf 1500 MHz max. (muss noch mal die Zwischenschritte bis 1800 MHz testen) ist die Auslastung konstant bei 98 % und es gibt weniger Ruckler. Es ist also besser die RTX 3090 nicht zu übertakten, sogar noch zu untertakten damit man smoothere Frametimes hat? Das doch ein Witz, man kauft sich eine 1500 Euro Gpu und dann taktet man sie runter, damit man nicht so viele Probleme mit Stottern hat? Abgesehen davon sind die Fps dann nur noch Witz verglichen mit einer 6900XT @ ~2,5 GHz.

Ich habe mir gerade mal den Test angeschaut:


Nvidia kann häufig erst ab 3840 x 2160 Frametime Variance auf AMD Niveau abliefern.

Den Thread kann man sich auch mal durchlesen:


Da kommen direkt Erinnerungen an eine 2080 Ti mit dem gleichen Problem auf.

"I bet the most on nvidia drivers" und der hat einen 10900K:

 
Zuletzt bearbeitet:
@Tingeltangel.Bob

Kann gut möglich sein. Die Nutzer sind richtig angepisst:


Bin schon gespannt was Nvidia antwortet. Nvidia hat ja unter dem Post Informationen von dem Nutzer angefordert.

Nvidia Forenmods haben den Beitrag gelöscht:


Das Video zum Post:


Die Kommentare darunter sind interessant.

Der Sache muss ich auch mal nachgehen. Ich habe auch das Gefühl das die Stutter zunehmen umso höher die GPU Usage ist.
 
Zuletzt bearbeitet:
Wie sind denn so Eure Erfahrungen mit der 6900XT FE. Wie hoch könnt ihr die übertakten, ohne das Sie abstürzt und was bringt es an Leistungszuwachs ?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh