Big Navi wird noch größer: AMD Radeon RX 6900 XT im Test

Die RX 6900XT liefert wie die anderen RDNA-2 Modelle ganz ordentlich ab. Ich bin wirklich immer noch etwas baff darüber, ich hätte nie und nimmer damit gerechnet, dass AMD so viel Druck in Sachen Performance auf Nvidia ausüben könnte. Da passt es ja ganz gut, dass ich mir zum Arbeiten kürzlich einen Ultrawide-Bildschirm mit FreeSync-Kompatibilität gekauft habe, der meinen alten Gaming-Monitor, welcher G-Sync unterstützt, ersetzt. So kann ich mich beim nächsten Kauf frei zwischen AMD und Nvidia entscheiden.

Die meiner Meinung nach interessanteste Karte momentan ist die RX 6800XT. Ich feiere die hohen Taktraten und das OC-Potential schon ein wenig. Schade nur, dass die Verfügbarkeit auf dem Markt momentan generell so schlecht ist und das bisschen, das eben vorhanden ist, zu völlig überhitzten Preisen über die Theke geht. :-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist Quatsch - auch im RealLife liegt die 2080Ti meist knapp hinter der 3070 (Aorus Master). Lediglich der VRAM wäre eine Diskussion wert. Aber selbst mit der Brechstange komme ich nicht über 50% Auslastung in aktuellen AAA Titeln.
FE oder Custom vs. Custom? Das sollte man auch immer beachten.
 
Also ich schwanke extrem zwischen einer 3090 und einer 6900xt. Eigentlich ist mir die 3090 aber zu teuer und die Linux Kompatibilität zu schlecht, aber sie scheint etwas besser lieferbar zu sein.
Ich will aber nicht immer neu booten müssen zum zocken.

Da da sowieso ein Wakü Kühler drauf kommt:

Seh ich das richtig, dass man auch bei der 6900xt das Power Limit nicht weiter anheben kann?
Bei der 3090 geht das zwar, aber die laufen so am Limit dass es ohnehin nichts bringt?!?

Wäre es möglich dass es von der 6900xt noch Custom Karten gibt durch die man mehr Strom jagen darf oder wird das seitens AMD unterbunden?

Ich will hier nicht über Sinn und Unsinn streiten, hier geht es fast ausschließlich um Spieltrieb Befriedigung. Wenn ich schon ne Wakü betreibe die >600w kühlen kann, dann soll die gefälligst auch Mal was zu tun kriegen. :xmas:
 
Hätte die 6900xt mal vernünftiges Raytracing, dann würde ich vielleicht sogar wechseln. Aber so es ist enttäuschend, wenn man Raytracing möchte. (bitte keine Diskussion, wie man Raytracing findet)
 
wieso enttäuschend? das war doch von anfang an zu erwarten und ist nun keine überraschung.
 
Naja, kam nur so in mir hoch, weil ich die 6900XT schon okay finde und den Wunschgedanken hatte, dass die Leistung der 6900XT auch in Raytracing mithalten können würde.
 
@KurzGedacht
Igor hat gerade ein Video zum Thema 6900 und WaKü herausgebracht. Hab es nicht komplett gesehen, da mich WaKü nicht sonderlich interessiert, aber deine fragen sollten dort beanwortet werden.
 
wieso enttäuschend? das war doch von anfang an zu erwarten und ist nun keine überraschung.
Etwas kann auch enttäuschen, ohne überraschend zu sein.
Für mich war auch das RT der Sargnagel. Zwar schon bei den initialen Tests, aber ich hatte auch insgeheim auf ein kleines Wunder bei der 6900 gehofft. Ist halt nicht eingetreten.

Solide GPU für dickes Geld, ohne WOW-Effekt für mich. Also halt enttäuschend.
In zwei Jahren dann evtl. mit der next Gen der beiden Lager.
 
Ich frage mich immer woher diese Wundererwartung kommt.
Auf den ersten Folien zur 6900 stand schon, dass es nur mit SAM knapp zur 3090 reichen könnte. Und anhand der Tests der 6800 und 6800 XT konnte man sich doch auch schon ausrechnen wie schnell die 6900 XT wird. Alles war bekannt. Kein Platz für Wunder, einfach nur mehr Ausführungseinheiten. Und mehr OC Spielraum, falls der Chip es zulässt.
 
Kleine Idee einfach das Powerlimit der FE einstellen dann sollte kein Unterschied sein
 
Hätte die 6900xt mal vernünftiges Raytracing, dann würde ich vielleicht sogar wechseln. Aber so es ist enttäuschend, wenn man Raytracing möchte. (bitte keine Diskussion, wie man Raytracing findet)
Du darfst nicht erwarten, das jemand der eine neue Funktion in sein Produkt einbaut gleich so gut ist wie einer der schon in zweiter Generation die Funktion verwendet. Ich denke das AMD RT wird über Zeit schon besser. Die kommen nicht nach mit der Treiberoptimierung, ich tippe mal bis zum Frühjahr wird das meiste optimiert worden sein und die Performance wird ansteigen.
Auch bei Nvidia läuft nicht alles rund, RTX+DLSS und einige Schärfefilter scheinen Glitches und optische Bugs hervorzurufen.

Wenn man sich anschaut wie die 5700xt angestiegen ist. Sie war am Anfang auch nicht so gut und ist über Zeit besser geworden.
 
Amd geht meiner Meinung den richtigen weg. Die erste Raytracing gen von Amd ist schneller als die erste von Nvidia und das nur durch Rechenleistung, die auch genutzt werden kann, wenn das spiel kein Raytracing benötigt.


Wenn ich die Freie Wahl hätte würde ich eine RX 6800 kaufen, nur gerade kauft man was da ist, wenn der Preis stimmt....
 
Man muss AMD Respekt zollen, was sie im Vergleich zu RDNA hinbekommen haben.
Der wahre Game Changer ist hier noch DLSS, da ist die Hoffnung in AMD und Microsofts DirectML.
 
Hin und wieder kann die Radeon RX 6900 XT die Konkurrenz schlagen, aber im Grunde wäre es auch verwunderlich, wenn AMD eine Karte für 1.000 Euro so positionieren würde, dass sie ein Modell für 1.500 Euro schlägt – jeweils die unverbindliche Preisempfehlung angenommen.

Das ist gar nicht verwunderlich sondern Normal.
AMD hat bei Intel schon im Prozessor Segment günstigere Preise angegeben für mehr Leistung. Im Grafikkarten Segment wird sich das mit der Zeit auch bei AMD einpendeln ,vorallem gegen Nvidia.
Vielzu lang hat Nvidia keine Konkurrenz zu Ihren Produken gehabt. Jetzt haben sie diese und es wird sich zeigen inwiefern sie dann mit dem Druck klarkommen.

Positiv hervorheben muss man an dieser Stelle, dass AMD die Leistung der Radeon RX 6900 XT mit einem Power-Budget erreicht, welches auch für die Radeon RX 6800 XT verwendet wird. Sprich: Die 300 W TDP-Limit bleiben in etwa erhalten, in den Spitzen liegen die beiden großen Big-Navi-Karten gleichauf. An den Verbrauch einer GeForce RTX 3090 reicht sie nicht heran, aber eben auch nicht an deren Leistung. Insofern passt die Skalierung in Leistungsaufnahme und Performance.

Sehe ich etwas anders.
Bei den AMD GK ist noch mehr Luft nach oben als bei den knapp Dimensionierten Nvidia Karten.
Ich denke das Nvidia baldeinen neuen Überzüchteten GK Chip auf den Markt werfen werden um den Abstand zu AMD zu vergrößern. Irgendwann wird das nicht mehr gehen und dann sind AMD und Nvidia gleichauf. DA wird sich zeigen wer die besseren Verkaufszahlen liefert !
Eines weiß ich heute schon,Nvidia wird dies nicht sein !


Bereits die ersten beiden Big-Navi-Karten im Referenzdesign konnten durch eine leise und effektive Kühlung überzeugen. AMD hat für das Axialdesign, den Aufbau des Kühlers und die Lüftersteuerung gute Entscheidungen getroffen, die allesamt dazu führen, dass die Big-Navi-Karten im Referenzdesign leise sind und das Optimum der Leistung abrufen können.
Ein Punkt an dem Nvidia mit Ihrer 3XXX Serie nicht heranreichen !
Somit geht der Punkt an AMD !
Es ist Bekannt ds viele Nvidia GK Modelle keine Leisetreter sind.
Mehr als bei den AMD Modellen.

Die Kühlung der Radeon RX 6900 XT hat mit dem rund 340 W an Abwärme offenbar keine großen Probleme und bleibt extrem leise. Für diese Leistungsklasse sehen wir hier eine der leisesten Karten, die wir bislang testen konnten.

Ein Punkt wo ich gehofft habe das dies an Nvidia geht , Leider habe Ich mich da geirrt.
Die meisten Gamer wollen einen Leisten PC haben ,damit würde das eher für AMD GK sprechen als für Nvidia.
Keiner will einen Staubsauger neben sich am Monitor oder unterm Tisch stehen haben.
Da nutzt das etwas mehr an Leistung recht Herzlich wenig.

Sehr gut gefallen uns alle Big-Navi-Karten, wenn es um das Overclocking geht. Dabei ist die Radeon RX 6900 XT keine Ausnahme. Bis zu 2.700 MHz GPU-Takt konnten wir im manuellen Overclocking erreichen, was einem Leistungsplus von etwas mehr als 10 % entspricht. Der gewillte Nutzer kann hier einfach noch sehr viel experimentieren und das Maximum der Hardware ausloten.

Generell würde ich das nicht mit dem Kühler machen den der Hersteller auf die GK gesetzt hat. Wenn eigene Kühlung Bauen oder an eine WaKü betreiben.
Bei meinen 2 AMD RX 5XXX XT habe ich eigene Vollkupfer Kühler mittels CNC Hergestellt. Die GK bleiben schön kühl also unter 50°C bei Vollast.
Schade nur das die Hersteller solche Kühllösungen ( oder ähnliche) nicht anbieten die auch Leistungsfähig sind solche Abwärme zu Beherrschen.

Vor 2021 wird sich die Situation auch nicht weiter entspannen. Ganz im Gegenteil, alles deutet derzeit darauf hin, dass die Komponenten der Grafikkarten teurer werden – angefangen von der GPU, der Fertigung des PCBs, bis hin zu den einzelnen Komponenten.

Ich hoffe nur das die Kühllösungen sich endlich mal auf Voll Kupfer Versionen einstellen und diese schlechten Aluminium Kupfer Kombinationen ablösen.
Oder Vernünftige Kupfer WaKü Lösungen einsetzten ohne AIO nur der Kühler aus einem Block Kupfer hergestellt.
 
Etwas kann auch enttäuschen, ohne überraschend zu sein.
Für mich war auch das RT der Sargnagel. Zwar schon bei den initialen Tests, aber ich hatte auch insgeheim auf ein kleines Wunder bei der 6900 gehofft. Ist halt nicht eingetreten.

Solide GPU für dickes Geld, ohne WOW-Effekt für mich. Also halt enttäuschend.
In zwei Jahren dann evtl. mit der next Gen der beiden Lager.
ganz erstnhaft?
das problem liegt in dem fall aber bei dir und nicht bei amd... auch nicht bei nvidia.
manche erwartungen (kleines wunder?!) sind eben einfach nur eins, unrealistisch.
 
ganz erstnhaft?
das problem liegt in dem fall aber bei dir und nicht bei amd... auch nicht bei nvidia.
manche erwartungen (kleines wunder?!) sind eben einfach nur eins, unrealistisch.
Ich habe auch nie etwas anderes behauptet, oder?
Ich sage doch: Gutes Produkt, nur eben nicht gut genug FÜR MICH.
 
Ich hoffe nur das die Kühllösungen sich endlich mal auf Voll Kupfer Versionen einstellen und diese schlechten Aluminium Kupfer Kombinationen ablösen.
Oder Vernünftige Kupfer WaKü Lösungen einsetzten ohne AIO nur der Kühler aus einem Block Kupfer hergestellt.
Ich hoffe nicht. Es braucht keinen Vollkupferkühler für erstklassige Kühlleistung. Heutzutage setzt man Material schlau dort ein wo es gebraucht wird. Und verschwendet kein Silber an Kühlfinnen.
Warum gibt es denn keine Vollkupfer-Tower-Kühler die den D15 um Längen unterbieten bei den Temperaturen?
 
Man wird wohl April noch eine Referenzkarte bekommen, denn AMD hat den Produktionszeitraum zeitlich "entgrenzt." Bis dahin bekommt man wohl eh keine ab.
Beitrag automatisch zusammengeführt:

Hätte die 6900xt mal vernünftiges Raytracing, dann würde ich vielleicht sogar wechseln. Aber so es ist enttäuschend, wenn man Raytracing möchte. (bitte keine Diskussion, wie man Raytracing findet)
Könnte auch sein, daß der große Rückstand eher ein softwareseitiges Problem darstellt: Zum einen, daß die Spieleentwickler schlampen, zum anderen auch daß die Treiber unausgereift sind. In Modern Warfare z.B. liegt die RX 6900 XT nur 10 % hinter der RTX 3090 (2.560 × 1.440, RT ein).
 
Zuletzt bearbeitet:
Könnte auch sein, daß der große Rückstand eher ein softwareseitiges Problem darstellt: Zum einen, daß die Spieleentwickler schlampen, zum anderen auch daß die Treiber unausgereift sind. In Modern Warfare z.B. liegt die RX 6900 XT nur 10 % hinter der RTX 3090 (2.560 × 1.440, RT ein).

Würde ich unter "Wunschdenken" verbuchen.
Die schwankenden Unterschiede sind einfach darin begründet, dass RT nicht einfach nur EINE SACHE ist und AN / AUS hat, sondern eben verschiedene Effekte.
Ganz grob überschlagen sieht es so aus, dass der Abstand geringer ist, je billiger die RT Effekte sind,... und größer wird, desto mehr Effekte kommen, bzw. wenn die aufwendigeren Effekte benutzt werden.

Da wird sicher kein Wundertreiber reichen. Was sie da machen können, kann Nvidia auch machen und dann ist es in Relation doch wieder gleich im Abstand.
Die "schlampenden Spieleentwickler" sind auch eher ein Milchmädchenargument immer. Was Entwickler über APIs optimieren können ist mehr als nur begrenzt. APIs sind genau dafür da, dass sich die Entwickler eben NICHT darum kümmern müssen / können. Sie fragen Aktion A ab, die API liefert Aktion A und AMD hat irgendwie dafür zu sorgen, dass Aktion A zur Verfügung steht.

Wenn das anders wäre, würde kaum ein Spiel je fertig werden. Stell Dir vor als Entwickler müsste man von jedem Hardwarehersteller die Arbeit machen und irgendwie für deren Hardware optimieren, statt dass die Hardwarehersteller für ihre eine Sache das Zeug korrekt erledigen. Das wäre unwirtschaftlich und uferlos.

Was man in der Realität an "Optimierung" machen kann, geht eher in eine andere Richtung.
Man kann evtl. Features weglassen z.B. Schon ist es "optimiert". Aber dann ist es halt auch weg. ;-)
Sehr gängige Features, die aus verschiedenen Unterfeatures bestehen, kann man evtl. auf anderen Wegen erreichen... DA kann noch am ehesten eine Optimierung "für AMD" gemacht werden. Wenn ich Feature A auf den Wegen a,b,c oder d erreichen kann,... wähle ich halt den für AMD vorteilhaftesten Weg.
Bei RT gibt es aber nicht X Wege zum Ziel, sondern zwei. Der eine kostet sau viel Performance, der andere ist einfacher und schicker, kostet aber "sau viel Performance" x 5, läuft also auf keiner aktuellen Hardware. ;-)
 
Naja, ich kann nur so viel sagen:

Wir haben uns von Anfang an mit dem Thema Raytracing beschäftigt und das in nahezu jeden Spiel auch ausprobiert. Das geschah aber nicht, weil NVIDIA das wollte, sondern weil wir neue Techniken immer unter die Lupe nehmen - egal von wem sie kommen.

Für das Raytracing war abzusehen, das es nicht mehr verschwinden wird. DXR ist eine offene Schnittstelle, die früher oder später alle ansprechen werden (AMD und NVIDIA tun dies ja nun). Von daher war es nur logisch da am Ball zu bleiben.

Uns gegenüber hat NVIDIA aber zu keinem Zeitpunkt geäußert, dass es Samples nur noch gibt, wenn wir Technik XY beleuchten. Vielleicht war das auch gar nicht nötig, weil wir das Thema schon behandelt haben. Das kann ich aber nicht sagen.
 
Zuletzt bearbeitet:
Wenn man Hinter die Kulissen wird man vermutlich rausfinden das a) nicht stimmt oder b) andere Gründe gab. Das ist wie das Kind das etwas beim einkaufen aus dem Einkaufswagen wirft weil es keinen Lolli bekommt.
 
Oder das es c) einfach stimmt.
Kann alles sein. 🤗
 
Naja, man muss nicht bei allem was einem nicht passt, gleich eine Verschwörung vermuten. 😉
 

Anhänge

  • C45A2BFF-2FB7-43D0-98F3-0E48EFB4B78E.png
    C45A2BFF-2FB7-43D0-98F3-0E48EFB4B78E.png
    77,8 KB · Aufrufe: 118
NVIDIAs offizielles Statement:

omg sind die bei NV peinlich... vor 3-4 wochen hat HUB noch ne umfrage gemacht, wo nur 23% dran interessiert sind, RT benches zu sehen...
NV probiert mal wieder die pressefreiheit zu untergraben... wie schon damals, wo alle ausser heise den wisch unterschrieben haben und NV in arsch gekrochen sind :stupid:
 
@Silberfan Könntest du den Fanboy bitte noch ein wenig mehr raushäng lassen? ;)
omg sind die bei NV peinlich... vor 3-4 wochen hat HUB noch ne umfrage gemacht, wo nur 23% dran interessiert sind, RT benches zu sehen...
NV probiert mal wieder die pressefreiheit zu untergraben... wie schon damals, wo alle ausser heise den wisch unterschrieben haben und NV in arsch gekrochen sind :stupid:
Lol, es geht hier nicht darum dass NV verbieten will dass die über ihre Karten berichten, sondern dass sie ihnen keinen Vorabsamples mehr geben. Sie können immer noch im Laden eine kaufen und reviewen.
Niemand kann NV dazu zwingen jemandem solche Samples zu geben und ich finde es korekt dass die Bedingung gilt, auf alle Features einzugehen. 23% sind auch alles andere als wenig.
Wenn bei AMD der SAM suport nicht gebencht worden wäre, wär das Geschrei auch gross.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh