Endlich wieder ein Duell auf Augenhöhe: Radeon RX 6800 und Radeon RX 6800 XT im Test

Kein Märchen sondern leidliche Erfahrung die sich mit 25 Jahren IT Erfahrung immer wieder bestätigt haben. Nicht mit der Next Gen - sondern mit der vorletzten. Wie zuletzt bei erscheinen der 30xx Treiber für die GTX10xx Reihe. Plötzlich sind es überall 10-15 FPS weniger.

Ich hab 35 Jahre Erfahrung im Stuhlgang haben. In verschiedensten Ausführungen, deswegen ist meine Meinung besonders relevant..

Oder checkst du bei dir in deinem Job Graka Treiber? Oder bist du dann doch nur im Helpdesk und wechselst die Batterien der Funkmäuse?

Nix für ungut aber das ist ne ziemlich sinnlose Aussage, nur Behauptung mit fraglicher Quelle.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Thema Verfügbarkeit: Kurz nach 15:00 Uhr bei MF ... 5 Karten pro Hersteller waren lagernd ... Lächerlich
Nice dass AMD wieder zurück im oberen Graka-Performance Segment ist.
 
wann kommt die 6900xt?
 
Schön, dass AMD endlich wieder im High-End-Segment konkurrenzfähig ist. Ich hatte von der 6800XT allerdings etwas mehr Performance erwartet. Jetzt bin ich noch auf die 6900 gespannt - ich denke aber, dass sie ein Stück unterhalb der 3090 bleiben wird. Da mir bei AMD DLSS fehlt, werde ich so oder so bei nvidia bleiben. Allerdings bin ich froh, dass es nun wieder mehr Konkurrenz gibt.
 
Kein Märchen sondern leidliche Erfahrung die sich mit 25 Jahren IT Erfahrung immer wieder bestätigt haben. Nicht mit der Next Gen - sondern mit der vorletzten. Wie zuletzt bei erscheinen der 30xx Treiber für die GTX10xx Reihe. Plötzlich sind es überall 10-15 FPS weniger.
Wann hört dieser Unfug endlich auf.
Getäuschte und selektive Wahrnehmung, das ist der einzige Grund für dein "Feststellung".

Wurde schon zig-fach widerlegt.
Lässt sich auch selber ganz geschwind nachprüfen.
Alten Windows Built + alten Treiber, und dann die FPS checken!

"Treiber machen meine Karte langsam" stimmt auf jeden Fall nicht. Gibt immer wieder einzelne Ausreißer, die aber im Anschluss sofort wieder behoben werden.
 
Schön, dass AMD endlich wieder im High-End-Segment konkurrenzfähig ist. Ich hatte von der 6800XT allerdings etwas mehr Performance erwartet. Jetzt bin ich noch auf die 6900 gespannt - ich denke aber, dass sie ein Stück unterhalb der 3090 bleiben wird. Da mir bei AMD DLSS fehlt, werde ich so oder so bei nvidia bleiben. Allerdings bin ich froh, dass es nun wieder mehr Konkurrenz gibt.


Kritisierst du dann auch alle 1000000000 Spiele ohne DLSS, dass sie kein DLSS bieten?
 
Uh schöne Karte für 1440p, aber nicht bei den aktuellen Preisen...
 
Kritisierst du dann auch alle 1000000000 Spiele ohne DLSS, dass sie kein DLSS bieten?
Ich hab in seiner Antwort gar keine Kritik gesehen.
Wenn er DLSS nutzen will, hat er halt nur eine Option. Das ja eher ne Tatsachenanalyse, als ne Kritik.

AMD sagt "DLSS" ist doof und ruiniert die Qualität.
Auch AMD: "Wir arbeiten an einer DLSS Technologie".

Wenn das nachgereicht wird, ändert sich der Punkt. Aber ohne Info WANN das ist, stellt DLSS einen großen Kaufanreiz dar.
Extremfall Minecraft: 23 vs 100 fps zwischen 6800XT und 3080. Ohne DLSS sinkt der Vorteil auf "nur" 93%,... Raytracing und / oder DLSS sind aber weiterhin ein massiver Vorteil für Team Grün, den man nicht einfach wegreden kann.
Manchen mag das egal sein, deswegen ist es aber nicht jedem egal.
 
Dass ist nun schon eher unerwartet, bei 16GB VRAM. Für 1080P und 1440P würde ich die BigNavi sofort anhand der Balken empfehlen,... aber da sind 16GB ja doch eher ein reiner Preistreiber. Komisch.
Gibt es da ein Review, dass Vermutungen zu den Gründen anstellt?
In den Video von Igor vermutet er, dass bei 4K der Cache nicht ganz reichen und ein gewisses Bandbreitenlimit zum VRAM vorliegen könnte.
Es wurde bei ihm zumindest wohl der Pressetreiber, wie er selbst erwähnt, verwendet. Evtl. verbessert sich das noch mit einem folgenden Treiber. Genau wie ggf. RT. Muss man abwarten.
Nvidia hat ja auch ziemlich schnell nachgebessert, wenn auch aus anderen Gründen.

Cunhell
 
  • AMD hat nen riesen Schritt gemacht und kann dem Hype fast gerecht werden!
  • Manchmal wird die 3090 geschlagen, beeindruckend
  • Allgemein scheint die relative Leistung gegenüber NVidia zu fallen, je höher die Auflösung wird. Das ist schade, weil gerade da die 16GB helfen würden.
  • Wenn SAM wirklich von Intel und NVidia auch zeitnah kommen, können sich einige der Reviews komplette Retests anzun, oder werden nutzlos.
  • Der Kühler scheint brauchbar zu sein, was sehr überraschend ist, aber genial, weil er toll aussieht. So ne GPU kann man sich guten Gewissens einbauen.
  • Raytracing wie befürchtet eher mau
AMD ist überhaupt wieder im Spiel. Das vergessen hier manche wohl immer noch. Die 5700 XT war ein Vorgeschmack, davor gab es nur Enttäuschungen. Die Vega war an sich gut wenn man günstig an eine rankam, die meiste Zeit waren die Karten aber extrem überteuert und darüber hinaus noch deutlich schlechter als zB eine 1080 Ti die man sogar zum Preis einer Vega 64 hätte bekommen können. Dass RT nicht funktioniert hatte ich erwartet, es funktioniert auch auf NVIDIA immer noch nicht. Außer man möchte upscalen und Einstellungen reduzieren (Auf seiner 2000 € Karte...).
wird sicher bald ne aufgebohrte 3070 + andere aufgebohrte karten von nvidia kommen um amd wieder wieder staub fressen zu lassen
Sicher wird die kommen, nur wird die auch jede Menge Kohle fressen.
Schönes Ding. Buschfunk munkelte was von 3080 Performance und das bringt die 6800XT auch. Je nach Titel etwas mehr oder weniger, dafür besseres OC Potential als die Konkurrenz und endlich sind die Referenz-Karten mal kein Fön mehr.

*Besenschrank leert und einen Salzstreuuer dazupackt*
So meine lieben "Können froh sein, wenn sie die 2080Ti packt" Kumpanen. Guten Hunger!
2 x 5700 XT-Leistung, genau das hatte ich erwartet. Die Frage ist jetzt nur ob sich die 6800 XT mit einer 2080 Ti lohnt. Aber bald kommt ja die 6900 und dann gibt es jede Menge Userbenches mit OC und Custom-Karten.
Ich hab 35 Jahre Erfahrung im Stuhlgang haben. In verschiedensten Ausführungen, deswegen ist meine Meinung besonders relevant..

Oder checkst du bei dir in deinem Job Graka Treiber? Oder bist du dann doch nur im Helpdesk und wechselst die Batterien der Funkmäuse?

Nix für ungut aber das ist ne ziemlich sinnlose Aussage, nur Behauptung mit fraglicher Quelle.
Er hat schon recht, allerdings auf eine andere Weise. Ich dachte früher auch dass die Treiber nachlassen, das tun sie auch, allerdings bleiben alte Optimierungen erhalten. Wenn eine neue Generation kommt hört die Optimierung der alten auf, das sieht man sehr gut wenn man zB die 1080 Ti mal vergleicht: Als Turing rauskam stand die oft vor der 2070(S), jetzt liegt sie meistens dahinter, aber nur in neuen Spielen die danach erschienen sind. Hier muss man AMD mal echt loben, denn bei denen ist das nicht so. Ich habe seit Jahren eine AMD-Karte hier im Betrieb, nur der High-End-PC lief fast durchgehend grün.
In den Video von Igor vermutet er, dass bei 4K der Cache nicht ganz reichen und ein gewisses Bandbreitenlimit zum VRAM vorliegen könnte.
Es wurde bei ihm zumindest wohl der Pressetreiber, wie er selbst erwähnt, verwendet. Evtl. verbessert sich das noch mit einem folgenden Treiber. Genau wie ggf. RT. Muss man abwarten.
Nvidia hat ja auch ziemlich schnell nachgebessert, wenn auch aus anderen Gründen.
Übertakten kann man den Speicher auch, meine Hoffnung wäre dass bald noch eine richtige SE mit 18 Gbps GDDR6 kommt. Den soll es glaube ich geben. Damit kämen die Karten in Sachen Speicherbandbreite wenigstens an die 3080 heran.
 
Warum performt Ampere in den Ubisoft Titeln so schlecht?
Selbst die 6800 ist schneller als die 3090 in 1080p in WD Legion und AC:V.
 
Aber ohne Info WANN das ist, stellt DLSS einen großen Kaufanreiz dar.
Extremfall Minecraft: 23 vs 100 fps zwischen 6800XT und 3080. Ohne DLSS sinkt der Vorteil auf "nur" 93%,... Raytracing und / oder DLSS sind aber weiterhin ein massiver Vorteil für Team Grün, den man nicht einfach wegreden kann.
Manchen mag das egal sein, deswegen ist es aber nicht jedem egal.
Würde ich gerne auch als großen Vorteil mal erleben, aber bislang gibt es kein Spiel was mich interesiert, was DLSS supporten würde. Die Hoffnung das es über Hairworks & PhysX hinaus geht habe ich zwar, aber hier stellen sich dieselben Fragen: Ob & wann?

Es ist für viele Leute eben noch kein realer Vorteil & nvidia lässt solche Sachen gerne mal wieder fallen für das nächste einzigartige Gimmick.
 
Die 6900XT ist aber mal total überteuert. Die 6800XT bietet zur normalen 6800 noch 8 CU mehr, mehr PT, mehr Takt und einen besseren Kühler für 70€, die 6900XT nurnoch 8 CU mehr für 300€. Sie ist im absoluten Idealfall, bei 100% Skalierung (die wir bei Shadern nie haben) und wenn trotz gleichem PT und mehr CU der gleiche Takt gehalten werden kann, 11% schneller für 46% Aufpreis. Ich gehe eher von <10% aus.
Die 6800er gefallen mir gut. Die Nachteile bei RTX und DLSS betreffen mich nicht, da die von mir bevorzugten Genres da bisher nichts von mitbekommen haben.
 
Warum performt Ampere in den Ubisoft Titeln so schlecht?
Selbst die 6800 ist schneller als die 3090 in 1080p in WD Legion und AC:V.
Erinnert mich ein wenig an Batmann, wo jede AMD Karte auf 25 FPS beschränkt war. Aber ja da ist was dran
 
In den Video von Igor vermutet er, dass bei 4K der Cache nicht ganz reichen und ein gewisses Bandbreitenlimit zum VRAM vorliegen könnte.
Es wurde bei ihm zumindest wohl der Pressetreiber, wie er selbst erwähnt, verwendet. Evtl. verbessert sich das noch mit einem folgenden Treiber. Genau wie ggf. RT. Muss man abwarten.
Nvidia hat ja auch ziemlich schnell nachgebessert, wenn auch aus anderen Gründen.

Cunhell
Danke.
Das klingt nach einer unschönen Variante, die AMD noch in den Hintern beißen könnte.
Dann wäre der Trick mit dem billigen, dafür massiven VRAM genau da nach hinten losgegangen, wo der massive VRAM erst anfängt einen Sinn zu ergeben.

AMD ist überhaupt wieder im Spiel. Das vergessen hier manche wohl immer noch.
Sie sind definitiv wieder mit im Spiel.
Aber noch mit sehr schwankenden Ergebnissen.

Ich hoffe die 6900XT kann da noch ne ordentliche Schippe drauflegen, damit der "TI" / "Super" refresh nicht direkt wieder den Wind aus den Segeln nimmt.
Aktuell ca. gleich auf bei Raster, erreicht eine große Zielgruppe. Die Anzahl an Käufern, die explizit für Cyberpunk ne GPU wollen (und dann RT erwarten), darf aber auch nicht unterschätzt werden.

Verfügbarkeit mal außen vor, da aktuell ja erst mal gar keine GPU von gar keinem Anbieter verfügbar ist. ;-)
 
In den Video von Igor vermutet er, dass bei 4K der Cache nicht ganz reichen und ein gewisses Bandbreitenlimit zum VRAM vorliegen könnte.
Die Hit Rate ist bei einem 128 MB großen Cache für höhere Auflösungen kleiner als für geringere Auflösungen. Das wird einen Einfluss haben.
 
Es ist für viele Leute eben noch kein realer Vorteil & nvidia lässt solche Sachen gerne mal wieder fallen für das nächste einzigartige Gimmick.
Nun, es sind schon mehr Spiele als PhysX je hatte vermutlich,... zudem ist es kein "NVidia Ding", sondern ein "AMD, NVidia, Intel, Microsoft"-Ding, dass auch in beiden neuen Konsolen ist.
Wenn mal ausreichende Leistung vorhanden ist, gibtes keinen einzigen Nachteil mehr, dafür massive Vorteile in Optik, Aufwand, Entwicklungszeit, Realismus usw.

Fallengelassen wird da sicher gar nichts.
Aber klar: Wenn einen keines der Spiele juckt, dann ist das aktuell sekundär. Sagte ich ja. So war es Anfangs bei Rasterspielen auch. "Brauch ich nicht!" "Will ich nicht!" "Supported eh kaum ein Spiel!"
Für mich kommt mit Cyberpunk ja auch erst das erste richtig relevante Spiel mit RT. Allerdings ist das auch ein Titel, für den ich früher ein komplettes System gebaut hätte. Auch heute würde ich das noch, wenn Hardware verfügbar wäre. ;-)
 
Die 6900XT ist aber mal total überteuert. Die 6800XT bietet zur normalen 6800 noch 8 CU mehr, mehr PT, mehr Takt und einen besseren Kühler für 70€, die 6900XT nurnoch 8 CU mehr für 300€. Sie ist im absoluten Idealfall, bei 100% Skalierung (die wir bei Shadern nie haben) und wenn trotz gleichem PT und mehr CU der gleiche Takt gehalten werden kann, 11% schneller für 46% Aufpreis. Ich gehe eher von <10% aus.
Die 6800er gefallen mir gut. Die Nachteile bei RTX und DLSS betreffen mich nicht, da die von mir bevorzugten Genres da bisher nichts von mitbekommen haben.
Ja, darum bin ich mir auch nicht mehr sicher. Die 6800 XT als Custom mit fettem Powertarget wird sich am Ende sicher höher takten lassen. Die Leistung ist aber auch so schon beeindruckend. Die Verfügbarkeit auch: Auf Kleinanzeigen wieder Angebote von 1 - 10 K. Gut dass ich mir die Ti gekauft habe, so macht das Warten Spaß.

Stimmt das mit Minecraft? Ich habe dank Microshaft und Oculus leider nur die Java-Version, die lief aber auf der HTC Vive und 5700 XT nicht besonders... Die Testversion der Bedrock-Edition hatte eine extrem gute Performance, hunderte FPS bei 48 Chunks Sichtweite, diese ist nur nicht VR-kompatibel.

Bei BFV bin ich mir nicht mehr sicher ob diese komischen Drops die man manchmal hat überhaupt am RT liegen, ich habe es gestern mal testweise ohne (DX12) versucht. Manche sagen DX11 liefe dort besser. Aber was ist das dann für ein Marketingargument, wenn immer Features angepriesen werden die nicht einmal auf einer grünen Karte anständig laufen? BFV war ja das Kronjuwel des Turing-Launches, ich habe schon im Test / Patchnotes gelesen dass da zu Launch nichts zu verpassen war.
 
Nein, das ist ein Irrglaube. Die höherwertige GPU wird sich immer mindestens genausohoch takten lassen, die zusätzlichen 8 CU belasten das PT nicht so sehr, dass der maximal erreichbare Takt bedeutend niedriger wäre, aufgrund der GPU-Güte vielleicht sogar höher. Effizienter ist bei gleichem Chip immer die Karte mit mehr aktiven Einheiten, nur eben nicht immer bezüglich P/L.
 
Das wird man sehen. Die 3090 skaliert aber auch nicht besonders gut und die 6800 XT zieht bereits weit über 300 W, die 6900 XT wird sicherlich schon @stock auf die 400 W peaken. Lassen wir uns mal überraschen.
 
Kritisierst du dann auch alle 1000000000 Spiele ohne DLSS, dass sie kein DLSS bieten?
Nö, da aber gefühlt jedes 2. kommende Game damit erscheint gibts ausreichend bis 1-2 Jahren. Mit Control, WD Legion, Wolfenstein und Death Stranding hat sich dies schon gut präsentiert. Jetzt kommt Godfall, Cyberpunk und nach dem Launch von AMD noch weitere dazu. Denn die meisten werden wohl bei Nvidia bleiben, da die Verfügbarkeit ebenso schlecht ist und die Karten nicht unbedingt schneller als ihr Pedant sind.

BTW kritisierst du AMD auch dafür, dass sie in ihren Marketingfolien suggeriert haben, das NVIDIA Portfolio zu zerlegen?
Beitrag automatisch zusammengeführt:

Warum performt Ampere in den Ubisoft Titeln so schlecht?
Selbst die 6800 ist schneller als die 3090 in 1080p in WD Legion und AC:V.
Hast ja bei PCGH schon festgestellt, seltsamerweise dreht sich das in 4K ja wieder zu Gunsten von Nvidia. Seltsam ist es in der tat, wie ne invisible wall....
 
wie befürchtet reicht das schmale Si und der als achsotoll angepriesenen Infinity Cache in 4K leider eben doch nicht, klar es sind keine Welten aber es kostet Performance und da das schon bei der 6800Xt der Fall ist kann ich mir eine 6900XT gleich sparen, was nützt mir das bisschen mehr Rohleistung wenn dann die Speicherbandbreite limitiert, oder hab ich da nen Denkfehler ?

ansonsten tja für fhd und qhd kann man mit den neuen Amds nix falsch machen, besonders schön finde ich das man endlich mal ne rundum gute Ref rausgebracht hat mit sehr gutem Board und schön leisem Kühler, leider hat man halt allen 4K Gamern mit dem mickrigen Speicherinterface wieder ein schönens Ei gelegt. Schade und natürlich die Verfügbarkeit ist einfach wieder unter aller Sau.

Für wenn RTX wichtig ist, da muß aber meiner Meinung nach defintiv bei Nvidia bleiben, denn da reicht es wie erwarztet nur für die 2080ti bzw 3070 da wird auch eine 6900XT nicht viel drann ändern können.

Ich bin zwiegespalten ob der 4K Leistung mit dem Speicherbandbreitenproblem, aber genau das hab ich seit der ersten Vorstellung vermutet/befürchtet, vielleicht eh besser das es mich heute im Amd Shop wieder mal nach Paypal rausgehauen hat :fresse2:
 
Warum performt Ampere in den Ubisoft Titeln so schlecht?
Selbst die 6800 ist schneller als die 3090 in 1080p in WD Legion und AC:V.
Ubisoft trägt nen AMD Schild. Fast im jedem aktuellen Game wird mit AMD Geworben.
 
Es handelt sich hier, wie gesagt (!) um einen Extremfall (!).
DLSS funktioniert in Minecraft besonders gut, aber auch ohne DLSS hat die 3080 mehr als die doppelte avg FPS in 4k.

Screenshot 2020-11-18 172916.png




Ähnlich in 1080p:
Screenshot 2020-11-18 173127.png


Nochmal:
Das ist ein Extremfall, also steinigt mich nicht wegen "selektiver Benchmarks".
Es ist explizit selektiv gedacht, um zu zeigen, dass RT und DLSS durchaus Argumente für eine 3080 sind, egal wie nah dran die BigNavis in Rasterleistung sind.

Auch die 3d Mark RT Benches sind mehr als deutlich.
 
Schöne Karte, aber a) sind 649USD nicht 649€ und btens... bin ich frustriert keine bekommen zu haben.
Bleiben nur die Mondpreise der Reseller (und die werden es nicht).
 
Warum performt Ampere in den Ubisoft Titeln so schlecht?
Selbst die 6800 ist schneller als die 3090 in 1080p in WD Legion und AC:V.
Die Spiele haben irgendein massives Problem. Meine 3090 wird in Valhalla nicht voll ausgelastet und verbraucht 100W weniger als in anderen Games.... und nein, es liegt auch kein CPU Limit vor.
 
Kein Märchen sondern leidliche Erfahrung die sich mit 25 Jahren IT Erfahrung immer wieder bestätigt haben. Nicht mit der Next Gen - sondern mit der vorletzten. Wie zuletzt bei erscheinen der 30xx Treiber für die GTX10xx Reihe. Plötzlich sind es überall 10-15 FPS weniger.

Wie willst Du das auch "merken"? Ich habe auch eine 1070. Ohne FPS Anzeige in AAA Titeln hätte ich es jenseits der 90-100 FPS auch nicht bemerkt. Gerade in CoD MW konnte man es vor wenigen Monaten deutlich bemerken. Vorher straigt um die 110-120 FPS bei gleichen Einstellungen (FullHD / ULTRA). Nun eher 85-105 FPS.

Kann natürlich mehrere Ursachen haben. Schlampigere Unterstützung/Optimierung für ältere Karten. neue Features im Treiber die für alte Karten nur unnützer Ballast sind (RTX), Absicht (Marketing).......erstaunlich ist das dieses Phänomen vor Jahren erstmalig auftrat als es nur noch Universaltreiber gab und nVidia nicht mehr für jede Generation separate Treiber rausgab.

Wie wäre es denn mit DDU und danach den alten Treiber wieder installieren?
Ziemlich einfach zu realisieren und wenn deine Aussage dann der Wahrheit entspricht, kannst du gerne Benchmarks loggen und dem Forum kundtun. Eventuell noch bisschen auf Twitter eskalieren und für Aufmerksamkeit sorgen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh