Radeon RX 6000: AMD liefert weitere Benchmarks und will Raytracing- und AI-Werte nachliefern

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.151
radeon-rx-6000.jpg
In der vergangenen Woche präsentierte AMD die Radeon-RX-6000-Serie in Form dreier Modelle: Der Radeon RX 6800, Radeon RX 6800 XT und Radeon RX 6900 XT. Diese sollen NVIDIAs Ampere-Karten kräftig auf die Füße treten und durch die Bank mindestens genauso schnell sein, wie ihre Gegenstücke. Bereits zum Start lieferte AMD einige Benchmarks, auf die man natürlich nicht vollständig vertrauen sollte, die aber eine grobe Richtung vorgeben.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gefällt mir alles sehr gut, für mich wird die 6800 reichen, hoffe Anfang Januar eine ergattern zu können.
 
@HWLUXX
Gibt es evtl. mal auch VR Benchmarks von den Karten? Das fehlt mir irgendwie heutzutage - Immer nur normal aufm Display gebenched. Viele würde aber auch so nen Standardset interessieren, wie die in 3D Performen. Da gibt es manchmal interessante Ausreißer :)
 
Krass ... Dass RDNA2 gut wird, war fast klar, aber so gut? Selbst wenn eine 6800XT am Ende keine 3090 angreift, so wird die 3080 doch ordentlich in die Schranken gewiesen! Wenn dann ggf. nächstes Jahr der VRAM der 3080 zu knapp wird, und AMD die Treiber besser weiterentwickelt, wird der Abstand eher noch größer. Ich hoffe, dass da Custom Karten kommen, die bei mir ins ITX Case passen. Ich will für all den Scheiß den Nvidia in den letzten Wochen da so abgezogen hat, denen nicht auch noch Geld für eine 3080 FE (denn die würde, auch mit dem Kühlkonzept, ehrlicherweise perfekt passen) geben. Abgesehen davon, dass die wohl eh nie wirklich lieferbar sein wird ...
 
Zuletzt bearbeitet:
Joar, mit der Bandbreite an Spielen ist dann das Thema "Cherry Picking" auch vom Tisch - bleibt halt nur noch die Metrik (average FPS vs max FPS - niemand bei Sinnen misst in max. FPS)

Sollte aber trotzdem als grobe Leistungsübersicht reichen, um ne Vorstellung zur Konkurrenzfähigkeit zu Nvidia zu haben.

Raytracing wurde hier schon tot-diskutiert:
- Klassischer Modus kann praktisch genauso gut aussehen, wenn man den nicht künstlich nerft
- Performanceverlust ist noch zu krass, als dass es ohne DLSS/Fidelity-FX nutzbar wäre
- DLSS ist nicht perfekt - in sich schnell ändernden Szenen bzw. Szenen mit Natureffekten (Nebel, Regen, Dreck) gibts halt noch temporale Artefakte

RT wird irgendwann die Zukunft sein, ist derzeit aber kein kaufentscheidendes Argument (zu mindest für mich)

Ja, mit DLSS on sieht das alles hübsch für Nvidia aus, mit DLSS off auf einmal nicht mehr.

AMD hat da auch ne Lösung, aber die muss es erstmal durch das Marketing-Bling-Bling schaffen.
 
Ich schaue mir in aller Ruhe die Benches am 18.11 sowie am 8.12 genau an, und entscheide mich dann, 2021 obs 6800XT oder sogar das Top Modell wird.

Ampere ist so oder so raus, schon wegen meinem Monitor, der mit NVIDIA g-sync compatible einfach schrecklich funktioniert.

Leistung spricht zum Glück nicht mehr nur für NV.
 
Ja, mit DLSS on sieht das alles hübsch für Nvidia aus, mit DLSS off auf einmal nicht mehr.

AMD hat da auch ne Lösung, aber die muss es erstmal durch das Marketing-Bling-Bling schaffen.
Ja das könnte noch Lustig werden, vor allem weil ja spekuliert wird das AMDs RT Lösung nicht so dolle sein soll.
Der Leak sagt irgendwie was anderes, aber es ist auch irgendwo Clever von AMD sich da zurück zu halten, was Leaks angeht.
Ob es dann am Ende etwas nützt, bleibt abzuwarten!
In jedem Fall ist es wohl für alle ein Gewinn das da endlich mal Bewegung in den Markt kommt und auch die kommenden Entwicklungen (SAM, RTX i/o bzw. das Äquivalent von AMD/MS usw.) deuten an das da in nächster Zeit ziemlich viel bewegt wird!
 
Fehlen nur noch Stabilität / Temperatur / Verbrauch. Denke 2021 könnte mein erster AMD Komplettrechner entstehen.
 
Die große Frage ist doch ob man DLSS und RT braucht/nutzt oder nicht. Ich brauche es z.B. nicht, sondern nutze in den meisten Spielen die "klassische" Beschleunigung. Und dort sieht RDNA2 sehr gut aus.

Was ich mich darüber hinaus noch frage: Wie steht die 6800 gegen die 3070 wenns um die Effizienz geht. Immerhin ist die 3070 mit 220W angegeben während die 6800 mit 250-260 gelistet ist...
 
Unglaublich starke Aufholjagd von AMD. Werde das aber nächstes Jahr ganz nüchtern neu evaluieren. Nehme das was mir mehr bringt für mein Geld, unterm Strich ist mir egal ob Intel + Nvidia oder AMD dran steht.

@Tzk
Genau das ist es. Einfach nur Balken gucken ist nicht ^^
 
An der RT leistung wird man treiberseitig noch viel machen können deshalb denke ich wartet amd damit koch bis zum release/review.
 
Ja, mit DLSS on sieht das alles hübsch für Nvidia aus, mit DLSS off auf einmal nicht mehr.

AMD hat da auch ne Lösung, aber die muss es erstmal durch das Marketing-Bling-Bling schaffen.
Auf lange Sicht könnte es für AMD besser werden. Letztendlich haben die neuen Konsolen auch RT Funktionen für Spiele - Und da AMD die HW bereitstellt, wird evtl. RT für AMD Karten im PC auch in Zukunft besser optimiert. WIr werden sehen. Es wird aber ab jetzt Spannend, auch für die nächste Generation
 
Was ich mich darüber hinaus noch frage: Wie steht die 6800 gegen die 3070 wenns um die Effizienz geht. Immerhin ist die 3070 mit 220W angegeben während die 6800 mit 250-260 gelistet ist...
Das ist halt noch ein Fragezeichen?
Die großen stehen ja ziemlich gut da, was die Performance pro Watt angeht, besonders die 6900Xt sieht auf dem Papier richtig gut aus!
Was die Kleine angeht, die liegt Leistungsmäßig ja etwas über der 3070/2080ti... vielleicht schon in Erwartung einer 3070 ti?
Es kommt ja noch eine 6700Xt die vermutlich eher so in der Gewichtsklasse der 3070 boxt, aber da gibt es außer Spekulationen noch nicht viel!
Wenn aber die Angaben von 50% mehr Leistung gegenüber RDNA 1 stimmen, wird es wohl darauf hinauslaufen!
 
Ich hoffe auch, dass die Karten die Erwartung erfüllen, oder dass sie zumindest einer 3080 ebenbürtig sind und lieferbar sind. Ich bin ein großer von Verfechter Hypes zu ignorieren (z.B. für jeden Preis eine 3080 ergattern). Aber da mein neues System jetzt schon seit August auf eine Grafikkarte wartet wär es schon schön, wenn man für die kommenden Wintermonate eine hätte...
 
Yo, für klassische Beleuchtungsmethoden sieht AMD extrem stark aus und hat Nvidia sowohl in max. Leistung als auch in P/L so ziemlich in der Tasche. RT ist halt auch irgendwie an die CUs gekoppelt und da würde ich halt eher zur 80CU Variante greifen. Wer sich nicht für RT interessiert oder es nur mal zum austesten an/ausschalten will, der kann auch zur 350€ günstigeren Version greifen.
 
Ich kann mir nicht vorstellen das es so krasse unterschiede von 72 auf 80 CUs geben wird. Sind doch gerade mal 8 CUs weniger.
 
Ich kann mir nicht vorstellen das es so krasse unterschiede von 72 auf 80 CUs geben wird. Sind doch gerade mal 8 CUs weniger.
Es werden nicht alle CUs für RT benutzt. N Typ von AMD hat gesagt, dass ~20CUs dafür (im Durchschnitt) aufgewendet werden. Im Verhältnis kann da also mal 1-2CUs mehr rauskommen, je nachdem wie gut/schlecht die restlichen Shader ausgelastet sind. Ich erwarte da tatsächlich noch nen sichtbaren Sprung. (aka ~10% bessere RT Performance)

Edit: Falls nicht, muss ich nochmal in den µArch deep-dive und nach den Tomaten suchen.
 
Kann also nur die Zukunft zeigen, ob die 6900XT länger als 68XX durchhält ^^
 
Och, wer sich ne 6900XT wird wohl nicht "so schnell" in Wechsellaune sein. Hier muss ich auch mal ganz hart betonen, dass RDNA3 weniger als 1 Jahr entfernt ist. Das wird mit der 6000'er Serie also eher... kurzlebig. Anderseits ein schönes Sammlerstück, da es wohl die letzte monolitische GPU von AMD sein wird.

Wer also noch mit seiner alten Karte gut kann und noch bis zur next-gen warten kann, dem würde ich das fast ans Herz legen. Ansonsten - wenn man die Knete hat 1x im Jahr die GPU zu wechseln...
 
SAM erfordert neuste chipsatzmobo+CPU....
habe hier eine von AMD künstlich gedrosselte X470 mobo mit 3900x
will sagen, X470(mit PCIe4.0, falls AMD es erlauben würde) + 3900x könnten SAM ebenso

...die können mich mit solch einer plumpen erpressung gerne mal am a lecken
 
12% ca. also ähnlich wie bei 6800Xt zur 6900XT.... :unsure:
Ist ja prozentual auch kein Unterschied bei den CUs ;)
Ja 12% sind schon was. Schauen wir mal was letztendlich bei den Tests tatsächlich rauskommt.

Och, wer sich ne 6900XT wird wohl nicht "so schnell" in Wechsellaune sein. Hier muss ich auch mal ganz hart betonen, dass RDNA3 weniger als 1 Jahr entfernt ist. Das wird mit der 6000'er Serie also eher... kurzlebig. Anderseits ein schönes Sammlerstück, da es wohl die letzte monolitische GPU von AMD sein wird.

Wer also noch mit seiner alten Karte gut kann und noch bis zur next-gen warten kann, dem würde ich das fast ans Herz legen. Ansonsten - wenn man die Knete hat 1x im Jahr die GPU zu wechseln...
Und das ist sicher, dass AMD schon 2021 die nächste High End rausknallt, statt Mittelklasse?
 
SAM erfordert neuste chipsatzmobo+CPU....
habe hier eine von AMD künstlich gedrosselte X470 mobo mit 3900x ...die können mich mal mit solch einer plumpen erpressung gerne am a lecken
SAM funktioniert seit 7 Jahren auf Linux. Troll wo anders. (Das funktioniert dort sogar mit Intel CPUs)
 
Ich kann mir nicht vorstellen das es so krasse unterschiede von 72 auf 80 CUs geben wird. Sind doch gerade mal 8 CUs weniger.
Im Hinblick auf die 3080 und 3090 ist das in der Tat wenig. 3090 hat 82 SM, 3080 hat 68, das sind 20% Differenz. Bei AMD sind es nur ~10%. Trotzdem ist die 3090 nur magere 10% vor der 3080... Ich bin sehr gespannt ob die Skalierung bei AMD besser aussieht, insbesondere da die TBP identisch bleibt....
 
SAM erfordert neuste chipsatzmobo+CPU....
habe hier eine von AMD künstlich gedrosselte X470 mobo mit 3900x
will sagen, X470(mit PCIe4.0, falls AMD es erlauben würde) + 3900x könnten SAM ebenso

...die können mich mal mit solch einer plumpen erpressung gerne mal am a lecken
Naja andere sind Froh (gewesen) das der 3900X auf dem X470 Board läuft und sie nicht mit jeder CPU Generation auch ein neues Board kaufen mussten :hust:Intel:hust:
Außerdem wird da nichts künstlich gedrosselt, sondern du bekommst einen Mehrwert wenn die drei Komponenten (CPU, Chipsatz und GPU) aktuell sind!
Der liegt aber mal grad im Messbaren Bereich, nach allem was man so liest...
 
Sieht doch alles super aus, kann den 18.11 kaum erwarten!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh