RTX 3080 vs 6900xt

Also ich stand/stehe vor der selben Entscheidung. RTX3080 vs. RX6900xt
Rein objektiv lässt sich das kaum entscheiden, wenn beide vergleichbar viel kosten...
Konnte mich auch keiner von A oder B überzeugen.
Frames geben sich schließlich gut die Waage. Was die 3080 bei RT an Plus hat, hat die 6900xt in einigen nicht-RTX games an +.

Im Grunde ist die 6900 "stärker", aber die 3080 der bessere "Allrounder", wenn man auch RTX spielt.

Hab mich am Ende auch, wenn auch rein subjektiv, für die 6900 entschieden
Aber 3080 liegt noch hier und es überfällt mich vielleicht nochmal zu tauschen XD

Zur nächsten Generation 2022 sind ohnehin beide "überholt"
Die 3080 wegen ihres abartigen Verbrauchs und kleinem VRAM, die 6900 wegen der RT-Leistung 🤷‍♂️
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zur nächsten Generation 2022 sind ohnehin beide "überholt"
Die 3080 wegen ihres abartigen Verbrauchs und kleinem VRAM, die 6900 wegen der RT-Leistung 🤷‍♂️
Eben mit rdna3 wird eine komplett auf auf RT optimierte Architektur kommen wenn diese dann ähnlich effizient wie rdna2 wird könnte amd den Sack zu machen.
 
Eben mit rdna3 wird eine komplett auf auf RT optimierte Architektur kommen wenn diese dann ähnlich effizient wie rdna2 wird könnte amd den Sack zu machen.

Zen 4 in 5 nm und RDNA 3 bis Ende 2022​

Bereits auf dem Financial Analyst Day 2020 zeigte AMD einen ersten Ausblick in Form einer Roadmap, die die Zukunft bis Ende 2022 grob skizzierte. Bis Ende 2022 sollen die neuen CPU- und GPU-Architekturen Zen 4 und RDNA 3 erscheinen.
Zumindest müssen die jetzigen Karten erstmal noch knapp 2Jahre rum kriegen !

Darum hoffe ich jetzt mal das Super Resulution ein voller Erfolg wird !
Nach dem was AMD versprochen hat ist die Munition für die 6000ner Serie ja noch längst nicht verschossen und man befindet sich was die Feature betrifft noch nicht mal am Anfang der neuen 6000ner Gen was ihr Potenzial angeht!

Mit Resident Evil 8 wird ein wenig der Anfang gemacht und die 6000ner Serie wird erst noch reifen was die Möglichkeiten angeht!

Durch XBOX und PS5 sind meine Erwartungen auch hoch .
Ende diesen Jahres könnte die 6000ner Serie nochmals deutlich besser dastehen wie jetzt!
 
Zuletzt bearbeitet:
Was ihr bei eurem Vergleich vergessen habt. Die RTX 3090 (vermutlich auch die 3080) haben das "geile" Mikroruckeln. Ich hatte etliche RTX 3090 alle haben dieses beschissene Mikroruckeln gehabt. Findet man auch einiges unter Google. Die RX 6900 XT ruckelt bis auf ganz wenig Ausnahmen (sehr rar und dann auch nur soft) nie. K.A. ob das bei Nvidia mit dem zu aufgeheizten GDDR6X zu tun hat. So etwas geht bei dem Preis gar nicht.

Ich meine ja klar, die Radeon hat kein so schnelles Raytracing bei den Nvidia Titeln, da die meisten Spiele eh Konsolenports sind mit DXR für RDNA2 spielt das bis auf vielleicht Cyberpunk und Control nicht so die große Rolle. Fidelity FX kommt vermutlich auch nur für Konsolenports und AMD RDNA2.

Das Video finde ich interessant:




Außerdem heizt euch so eine Nvidia die Bude kaputt im Sommer. Die frisst über 100 Watt mehr wenn eine RTX 3090 unter Volllast ist. Im Winter ist so eine Heizung ganz nett. Im Sommer kann man dann kaum noch ohne zig Ventis und am besten Klimaanlage zocken.
 
Zuletzt bearbeitet:
Oh ja dachte die kommen schon Ende diesen Jahres. :unsure:
Ende 2022 ist recht spät da dürfte NVIDIA schon längst ihre neuen Karten haben oder?
Ja, wenn dann wieder in Samsung 8 nm, gute Nacht :sleep:. Ich hatte eigentlich vor mir ein neues Laptop mit RTX 3080 Mobile zu kaufen und staunte nicht schlecht wie lahm die ist. Etwa halb so schnell wie eine RTX 3080 Desktop. Maximal kastrierter Chip mit nur ca. 17 Mrd. Transistoren im Samsung 8 nm Prozess. Wenn Nvidia bei dem ineffizienten Fertigungsprozess nicht die Notbremse gezogen hätte dann würde der Akku des Laptops in extrem kurzer Zeit leer gesaugt werden und die Grafikkarte müsste wegen viel zu hoher Abwärme drosseln. Bin gespannt was AMD im Laptopbereich zu bieten hat. Die lahme Nvidia Krücke dürfte leicht zu schlagen sein.
 
Oh ja dachte die kommen schon Ende diesen Jahres. :unsure:
Ende 2022 ist recht spät da dürfte NVIDIA schon längst ihre neuen Karten haben oder?
Ne glaub nicht wenn keine Fertigungkapa frei sind!
Max 7nm könnten die gehen was sich wohl nicht mehr lohnt dort wird man auch 5nm wollen!
Bis 5nm breit für alle zur Verfügung steht wird noch etwas Zeit vergehen würde mich nicht Wundern Anfang 2023
 
5 nm Samsung ist dann wie 7 nm TSMC?

Das Geruckel bei Nvidia soll häufig an der DPC latency liegen. Der Treiber spackt wohl rum bzw. verträgt sich nicht mit Windows.
Habe danach nie gesucht. Sehr interessant. Es gibt Leute mit einwandfreier Latenz bei denen es trotzdem ruckelt. U.a. aufgrund sehr kurzweiligen Framedrops.
Keine Ahnung warum keine Fachzeitschrift diesen Problemen auf den Grund geht. Was nützen hohe Fps, wenn es zu Mikrorucklern/Rucklern kommt? Ich habe mir das bei den 3090ern seit Oktober angeschaut.
Mir ist erst aufgefallen, dass es an den 3090 liegen muss, als ich zur 6900XT RD gewechselt bin. Ich habe nach der Erkenntnis gar keine Lust mehr nach Nvidia zurück zu wechseln. Raytracing hin oder her. Abgesehen davon bekommt man gute customs aktuell nicht unter mindestens 2400 Euro (bei Mindfactory :d, MF Beharren auf Beweislastumkehr nach 6 Monaten bei 2400 Euro muss nicht sein), bei ordentlichen Shops kosten die 2600 Euro und mehr.
 
Zuletzt bearbeitet:
Ne NV hat sich bei 5nm TSMC was reserviert soweit ich gelesen habe!
 
Und nachher gehen sie wieder nach Samsung. 5 nm Samsung hat mir beim Snapdragon 888 schon gereicht. Heizung mit Abschaltung oder starke Framedrops durch Throtteling bei längerer Last durch Spiele im Smartphone muss nicht sein. Da ich kaum auf dem Smartphone zocke für mich erstmal nicht das Thema. Die Wärmeprobleme (Smartphone wird sehr warm) treten aber auch im Alltag auf. Im Winter vielleicht als Handwärmer ganz nett. Aber für den Gaming PC geht so eine ineffiziente, stromfressende Wärmeschleuder gar nicht.
 
Ich spiele nur Warzone. Da ist der RAM auch nahezu voll, aber absolut 0 Ruckler. Vllt ist dein gddr6 Vram zu lahm 😜
So sehe ich das auch, Speicherinterface und GDDR6X sind relevant denn der Speicher ist ja nicht statisch belegt sondern dynamisch und somit der billigere GDDR6 halt immer mal wieder der Flaschenhals im Gegensatz zum GDDR6X mit deutlich breiterem Interface. "Nachladeruckler" passt da sehr gut rein... Aber erkläre das mal den nüchternen Zahlenvergleichern die Reservierung und Auslastung nicht unterscheiden können.
 
Warum Zahlenvergleicher ? Der GDDR6X Speicher ist schneller auf dem Papier stimmt du vergisst aber das diese extrem heiß wird und dadurch sich drosselt von der Langlebigkeit ganz abgesehen.. Ich habe lieber etwas was langsamer ist aber dafür länger hält 😉
 
So sehe ich das auch, Speicherinterface und GDDR6X sind relevant denn der Speicher ist ja nicht statisch belegt sondern dynamisch und somit der billigere GDDR6 halt immer mal wieder der Flaschenhals im Gegensatz zum GDDR6X mit deutlich breiterem Interface. "Nachladeruckler" passt da sehr gut rein... Aber erkläre das mal den nüchternen Zahlenvergleichern die Reservierung und Auslastung nicht unterscheiden können.

Ich hatte 3090 und RX6900XT zu Genüge. Es ist vollkommen egal ob es eine 3090 oder RX6900XT vom Speicher und Speicherinterface her ist. AMD braucht dankt Infinity Cache kein breiteres Speicherinterface. Der GDDR6X wird sehr heiß und die Nvidia läuft nicht so flüssig wie RX6900XT Red Devil und TUF. Obs an den Treibern oder der Hardware liegt ist egal. Ich mag Gestotter und Geruckel generell nicht. Wenn ich so viel Geld rausknalle dann ist jeglicher Ruckler zu viel. Selbst wenn RTX 3090 genauso flüssig wäre wie die AMD RX 6900 XT würde ich die nicht vorziehen. Dazwischen liegen locker 1000 Euro. Quasi nur für RT und DLSS. Letzteres ist optisch sowie so verbuggt besonders in Bewegung (schön Geflacker). Und ohne DLSS läuft RT auch nicht flüssig. Da beißt sich die Katze leider in den eigenen Schwanz. Optische Aufwertung kollidiert mit optischer Irritation (ums gnädig auszudrücken).
 
Zuletzt bearbeitet:
Länger wie die Garantie läuft lass ich so eine Karte sicher nicht im Rechner. Aber wenn du in 10 Jahren noch damit zocken willst ok.
 
Reicht ja schon. Einige hatten bereits nach ein paar Monaten Grafikfehler. Kann natürlich von der individuellen Verarbeitungsqualität und Wärmeableitung der Grafikkarten sich unterscheiden ob die Graka die Grätsche macht oder nicht und wie lange es sich dauert. Die Strix soll jedoch halbwegs vernünftige Pads besitzen. Das macht mich stutzig. Ich denke auch, dass es zwischen 3080 und 3090 einen Unterschied geben wird. Die Vram Module auf der Rückseite der 3090 ohne Wärmeableitung über den Gpu Kühler werden weitaus mehr Probleme machen.
 
Es geht ja nicht um 10 Jahre Nutzung ich möchte auch nicht behaupten das der Speicher von Nvidia schnell kaputt geht das alles wissen wir noch nicht aber Fakt ist damals bei der RTX 2080 haben alle geheult von wegen der minderwertige GDDR6 Speicher von Micron und jeder wollte eine Karte mit dem "guten" Samsung Bausteinen die aktuellen GDDR6X Speicher sind von Micron wie gesagt es muss nichts heißen aber diese werden eben extrem heiß und es ist halt was neues wo in den realen Bedingungen in einer Dachgeschoss Wohnung im Sommer keinen dauerbetrieb gesehen hat Amd verbaut eben die bekannte altbewährte GDDR6 Speicher von Samsung

Ich konnte beide Karten ausgiebig testen die rtx 3080 und die 6900xt den Speicher Vorteil habe ich nicht bemerkt
 
Ja, weiß ich noch. Meine 2080 Ti hat nach 4 Monaten ohne das ich viel gezockt habe die Grätsche gemacht. Grafikfehler vom Speicher. Die hatte auch Micron Ram. Die Austauschgrafikkarte hatte auch Micronram aber wohl anders verlötet. Die hielt bis zum Schluss. Das Verlötungsproblem der 2080/2080 Ti von damals ist ungleich des Temperaturproblems von GDDR6X.

RTX 3090 Strix:


Ich meine wenn es keine GPU Verknappung gäbe, dann könnte man sofern man die Nvidia Features so geil finden würde, 3-6 Wochen Austauschzeit riskieren. Aktuell wird man bei defekte Grafikkarte aber erst mal sehr lange warten bis der Austausch erfolgt.

Außerdem finde ich dass die Auslastungsprobleme von Ampere bei Wqhd und Uwqhd ein absolutes Nogo sind. Mit 50 - 90 % Gpu Last und niedrigeren Fps sowie starken Framedrops und entsprechenden Rucklern zu spielen geht gar nicht. Aber das ist ein Architekturproblem mit ihren vermurksten FP32 Einheiten.

Hinzu kommt bei Nvidia der extreme Stromverbrauch. Mindestens 100 Watt über RX6900XT. Wer im Sommer gerne eine Sauna als PC Zimmer haben will darf gerne Nvidia nehmen. Wenn Nvidia sich endlich mal von dem lausigen Samsung 8 nm Prozess (verbesserter 10 nm Prozess) verabschieden würde, dann könnte es etwas daran ändern. Will man seitens Nvidia nicht. Warum auch? Es wird trotzdem gekauft.

Aktuell ist es anzuraten so viel Geld wie möglich zu behalten und auf RDNA 3 und "Ampere next" zu warten. Es sind nur noch ca. 1 Jahr.
 
Zuletzt bearbeitet:
Also das mit den 100w halt ich für fragwürdig, eine RX6900xt custom liegt auch >320W und heizt dann nicht minder wenig.
Nur die Referenz-Karte, ja die wirkt geradezu "sparsam", auch wenn es nur 20w dif. sind.
Mit einem ultra-Übertakter-Bios bei manchen RXT3080 (450w) sollte man da glaub ich nicht vergleichen :d

Die Diskussion mit den Mikro-Rucklern ist ebenso so eine Sache... Die RX6900xt ruckelt auch ab und an, teils auch mehr als "mikro"
In meinem Fall lief die 3080 subjektiv runder als die Radeon.
 
3080TUF läuft hier seit einigen Monaten 24/7 durch @90-92c GDDR6X @96MH
Hätte gern weitere 10TUF. Falls jemand einen Rat hat..
 
@Tacmichi

Die RX 6900 XT TUF OC hatte 272 Watt bei Volllast. Die RTX 3090 Strix zog sich @ stock fast 400 Watt, die 3090 FE mit max. möglichem PT mit Stock Taktraten auch. Also mal eben fast 128 Watt+. Das hat deutliche Auswirkungen auf die Raumtemparatur.

@Tacmichi

Referenz gehabt?
 
Zuletzt bearbeitet:
@Tacmichi

Die RX 6900 XT TUF OC hatte 272 Watt bei Volllast.
Bei Radeon wird doch nur der Chip-Verbrauch ausgelesen, wenn ich mich da recht entsinne? also +VRAM & co. kommt on Top
Daher zeigt ja auch die Referenz (nur) 255 Watt an, obwohl sie gesamt 300w zieht
Bei Nvidia wird halt direkt die TGP angezeigt
getestet:
3080 Tuf 320w
3080 Strix 330-340w
6900 Ref 255w = rd.300w
6900 XFX Merc 275-280 = rd. 320-330w
 
@Tacmichi:

Die 6900XT Referenz liegt auf dem Niveau einer 3080FE/6800XT im Verbrauch unter Last.
Dies kann zwar je nach Custommodell noch etwas variieren, aber im großen und ganzen tun die sich nicht viel.
Wie es bei RT aussieht kann ich leider nicht sagen, da sollte der Verbrauch steigen vermutlich.
 
@Tacmichi

Die RX 6900 XT TUF OC hatte 272 Watt bei Volllast. Die RTX 3090 Strix zog sich @ stock fast 400 Watt, die 3090 FE mit max. möglichem PT mit Stock Taktraten auch. Also mal eben fast 128 Watt+. Das hat deutliche Auswirkungen auf die Raumtemparatur.

@Tacmichi

Referenz gehabt?

Also wenn du eine zusätzliche Wärmeabgabe von 130 Watt als deutlich in deinem Raum merkst, dann muss dein Raum sehr sehr winzig sein. Bei einer Größe im Bereich 15-20 m^2 wirst du das nicht merken. Diese 130 Watt mehr entsprechen in etwa der Wärmeabgabe von einem Menschen im "idle" Zustand.
 
Bei Radeon wird doch nur der Chip-Verbrauch ausgelesen, wenn ich mich da recht entsinne?

Deswegen musst du zu dem Wert den GPU-Z anzeigt auch noch 45-50 Watt addieren ;).

Die 6900XT zieht deutlich weniger als eine RTX 3090. Zu einer RTX 3080 die stock (mit minimalen Powertarget (Werkseinstellung bei Referenzdesign)) läuft verhält sich das natürlich anders. Wenn eine Ampere ihr Leistungsvermögen mit einem hohen PT voll ausspielen will genehmigen sie sich sehr viel Strom. Der Samsung Fertigungsprozess ist leider der Pferdefuß von Ampere. Die Nvidia Compute GPUs werden bei TSMC in 7 nm produziert. Warum wohl?

@derzipfel

Natürlich merkt man das, sofern man länger spielt (also länger als 45 Minuten). Hänge dir mal eine 100 Watt und eine 30 Watt Glühbirne zusätzlich in dein Zimmer dann wirst du merken was ich meine ;).
Der Raum ist ca. 14 m^2 groß.
 
Zuletzt bearbeitet:
Also wenn du eine zusätzliche Wärmeabgabe von 130 Watt als deutlich in deinem Raum merkst, dann muss dein Raum sehr sehr winzig sein. Bei einer Größe im Bereich 15-20 m^2 wirst du das nicht merken. Diese 130 Watt mehr entsprechen in etwa der Wärmeabgabe von einem Menschen im "idle" Zustand.
Sitzt du nackt vorm Rechner? ;) Mit Kleidung sind es ehr 60-70W ;)

Ansonsten lässt sich das ja recht einfach berechnen und man braucht relativ wenig Energie, um einen Raum aufzuwärmen (jetzt mal ab davon, dass der Raum sich ja auch wieder abkühlt):

Code:
Masse Luft:
Fläche * Höhe * 1,20 kg/m3

Energie um Raum 1° zu erwärmen (in Wh):
Masse Luft * Wärmekapazität Luft * 0.28


Bei uns also:

14m3 * 2.50m * 1.20 kg/m3 = 42kg

42 kg * 1.005 (kj / kg * K) * 0.28 = 11.82 Wh
 
Zuletzt bearbeitet:
Stomverbrauch LOL
ja ist wirklikch wahnsinnig relevant bei 20min Gaming am Tag *kappa*
 
Meine 3080 hat keinerlei Mikroruckler. Vielleicht greift es deswegen niemand auf weil es eher ein Nieschenproblem ist. Der RAM wird durch die Bauweise des TUF-Kühlers ja auch 1a auf Temperatur gehalten.

Zocke in den letzten Wochen ziemlich intensiv und verschiedene Games querbeet und bisher 0 Probleme.
 
Einfach mal darauf achten in wie vielen Threads der Bot(li) das immer gleiche reinschreibt, dann sieht man recht schnell dass er sicher nicht eine Lösung für seine Probleme sucht, sondern nur Leute die ihm bei seiner "Missionierung" unterstützen. Klappt halt nicht wirklich, deswegen steht das jetzt auch in fast jedem GPU Thread ;)
 
Meine 3080 hat keinerlei Mikroruckler. Vielleicht greift es deswegen niemand auf weil es eher ein Nieschenproblem ist. Der RAM wird durch die Bauweise des TUF-Kühlers ja auch 1a auf Temperatur gehalten.
Wie viel Temperatur hast du maximal erreicht und welcher Wert wird überhaupt angezeigt? Ein Mittelwert der sich aus den kumulierten Einzeltemperaturen aller Vram Module ergibt oder das heißeste Vram Modul?

Zocke in den letzten Wochen ziemlich intensiv und verschiedene Games querbeet und bisher 0 Probleme.

Ich habe da andere Erfahrungen gemacht, Periodisch konnte man ohne Ruckeln zocken. Aber leider nichts aud Dauer. Die Nvidia Treiberthreads sind voll mit diesen Meldungen. Es ist von Game zu Game unterschiedlich wie stark das Problem ausgeprägt ist. Ich meine es hängt mit der Gpu Last zusammen. Wird die Gpu nicht zu 99 % ausgelastet bzw. schwankt die Auslastung deutlich dann ruckelt es. Nicht jedes Game ist davon betroffen. Es wird auch vermutet das Nvidia Probleme mit dem Sheduling der neuen FP 32 Einheiten hat.

Ob Nvidia einen Fix anbietet bleibt abzuwarten.
Ich habe aber aktuell keine Lust zu warten. Deswegen habe ich mir die RX 6900 XT TUF installiert und habe die Nvidia RTX 3090 verkauft. Bin für 2500 Euro pro Karte kein Betatester.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh