Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Also ich finde es schade das die Leistung hinter den Erwartungen zurückbleibt, und das als 4090 Besitzer. Aber nun versteht man auch die Präsentation von AMD und die dort herrschende (unterschwellige) Stimmung. Sie wussten sie haben keine guten Chancen. Die Raytracingleistung ist schon ziemlich enttäuschend, gerade im Hinblick auf die 3090ti.
Aber was mir beim angucken des Tests hier auffällt: die Karte skaliert ganz komisch. Ob das mit Treibern oder was auch immer zu tun hat wäre mir als potenziellem Käufer völlig Wumpe, ich kaufe was verkauft wird. Und irgendwie scheint das Produkt unausgereift.

Manche Ergebnisse sind ok und wie erhofft, andere komplett enttäuschend, versteh ich nicht. Das mit der Idle Stromaufnahme ist ... kompliziert. 6 fach im Vergleich zur 4080/4090. Okay, kann man machen. Warum allerdings hier keine Tabelle gezeigt wurde von Leistungsaufnahme/Leistung in Relation zu 4080/4090 versteh ich nicht. Fehlt aus meiner Sicht. Auch Durchschnittswerte für WQHD und 4K in Relation zu Preis für alle Karten, fehlt mir um das alles in Relation zu bringen.

Aber gut, für mich nicht die erhoffte Karte, für andere scheinbar auch nicht. Werden viele wohl doch wieder Nvidia kaufen was das Ungleichgewicht nicht verändert. Kann man nur noch über den Preis regeln seitens AMD.

@Samy355
Sei doch einfach froh DAS sie dabei sind. Würden sie fehlen gäbe es die genau entgegengesetzte Beschwerde. Also irgendwas ist ja immer in SchlandLand. Hauptsache meckern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD ist zurück! Hatte man bei der Radeon-RX-6900-Serie nicht den Eindruck, dass AMD seinen Konkurrenten NVIDIA wirklich angreifen kann, sieht dies für die Radeon RX 7900 XTX und Radeon RX 7900 XT schon deutlich besser aus.
Der Satz im Fazit macht irgendwie gar keinen Sinn. Die 6900XTX war der 3090 deutlich näher (in ausgewählten Settings gar minimal in Front) als die 7900XTX der 4090 :confused:
 
1670860983327.png


Die Tabelle ist total realitätsfremd und stimmt niemals!
Eine 6900Xt mit 6W im Idle? LOL !!! Wo genau werden die denn gemessen?

7900XT mit 16,5W ?

1670861150792.png


Hardwareluxx war auch mal besser !

AMD schafft es nicht im IDLE Strom zu sparen! Auch das war schon immer so...
 
@Don ich fände es cool, wenn ihr noch dedicated was zu Leistung / Watt machen könntet in Zukunft.
Viele (fast alle) anderen Reviews gehen da massiv drauf ein und es ist oft auch das spannenste ehrlich gesagt.

Im Endeffekt ist die reine FPS Anzeige ja,.. nicht sooo relevant. Man kennt die grobe Leistung der GPU und hat ja meist ein cap aktiv.
Welche GPU das aber ggf. mit 50% weniger Strom macht, ist doch gerade in Deutschland extrem relevant, oder? Hier kostet Strom ja teils 5x so viel, wie in anderen Ländern.

Beispiel, dass mir sehr gut gefallen hat von Digital Foundry:

Screenshot 2022-12-12 171304.png



Man sieht sehr schön, dass ALLE neuen GPUs an Effizienz gewonnen haben. Sowohl ADA, als auch RDNA3.
Auch die Joules pro Frame-Sache empfinde ich als relativ intuitiv. Prozentual ist zwar nett, aber "was bedeutet das für den Geldbeutel?" als zweite Metrik: Super.
 
wäre top wenn Ihr noch einen Test nachschieben könntet mit der RX7900xtx auf einem 13900k mit schnellem ram, mir scheint es so das AMD viel länge im CPU limmit hängt wie Nvidia.
wäre super ;) wenn nicht dann eben wenn die x3D cpus kommen
 
Unter Last kommt die Radeon RX 7900 XT auf eine Lautstärke von 36,6 db(A) und ist somit extrem leise. Die Radeon RX 7900 XTX ist mit 39,7 dB(A) zwar etwas lauter, aber noch immer recht leise. Beide Karten sind also in Anbetracht der erwarteten Leistung in der Lautstärke gut aufgestellt und bieten keinerlei Anlass zur Kritik.

Igor kommt auf ganz andere Ergebnisse:

...so dass das Betriebsgeräusch eine Von-Bis-Geschichte ist, die zwischen 43,4 dBA und 39,9 dBA schwankt.
Die Radeon RX 7900XT kann das besser, obwohl auch sie alles andere als leise ist. Die fast 40,0 dBA sind jetzt auch nicht wirklich schön. Dafür ist der Kühler halt kleiner als bei den ganzen (deutlich leiseren) GeForce-Karten.
 
2022 endet wie es angefangen hat.
7900 XTX, 7900 XT 7800 XT,
Weckt mich sobald 4080 für 799,- XTX für 629,- und XT für 499,- verfügbar ist.
 
Zuletzt bearbeitet:
Und mich hat man als Troll / AMD basher tituliert, als ich schon vor Tagen / Wochen schrieb:

- 7900XTX wird sich mit der RTX4080 Kopf an Kopf Rennen liefern (was optimistisch meiner seits war)
- Konkurrenz ist gut für den Kunden (fucking Märchen)

Red fraction weint bittere Trennen :lol:
 
Und mich hat man als Troll / AMD basher tituliert, als ich schon vor Tagen / Wochen schrieb:

- 7900XTX wird sich mit der RTX4080 Kopf an Kopf Rennen liefern (was optimistisch meiner seits war)
- Konkurrenz ist gut für den Kunden (fucking Märchen)

Red fraction weint bittere Trennen :lol:
dich nimmt doch schon lange keiner mehr für "voll" ;)

und es heißt "Tränen" du rechtschreib legastheniker
 
Red fraction weint bittere Trennen :lol:
Nicht wirklich, die XTX geht schon klar für 1000€ hast oft die gleiche Leistung wie eine 4080/4090 aber zahlst 500€ bis 800€ weniger und Raytracing, DLSS und co brauchen und wollen viele nicht.

Werde definitiv wohl eine 7900XTX kaufen alleine schon weil NVidia mit ihrem preisen komplett Psycho ist und ich hatte die letzten 10 Jahre im NVidia Karten. :bigok:
 
Kommt drauf an ob ein oder mehrere Monitore. Bei einem Monitor zieht meine 7-8W im idle, mit 2 schon 30+

Deine Karte zieht mehr! Denn 6W ist nur die Chippower, ohne z.B. den RAM Verbrauch. Eine Grafikkarte zieht im IDLE c.a. 20W komplett. Davon sind 6W nur der GPU Chip.
Den realen Verbrauch einer Grafikkarte wirst Du hier nicht zu sehen bekommen, dafür achten die Hersteller viel zu sehr auf "verschleierte" Werte um den Kunden zu verwirren.
 
Nicht wirklich, die XTX geht schon klar für 1000€ hast oft die gleiche Leistung wie eine 4080/4090 aber zahlst 500€ bis 800€ weniger und Raytracing, DLSS und co brauchen und wollen viele nicht.

Werde definitiv wohl eine 7900XTX kaufen alleine schon weil NVidia mit ihrem preisen komplett Psycho ist und ich hatte die letzten 10 Jahre im NVidia Karten. :bigok:
wie auch immer du auf 1000€ für ne XTX kommst, die XTX kostet als Ref 1149€, die Customs eher mehr, eine 4080 bekommt man ab 1330€
Also sinds real weniger als 200€ Unterschied
 
Han noch keinen Test gesehen, der ne schnellere CPU als eine 12900K verwendet.
Igor testet mit einer 7950X.

Wahrscheinlich war das die AMD Vorgabe, mit einem Core12 zu testen. Da mit einem Core13 die Nvidia Karten zu schnell werden und der Abstand zu AMD dann zu groß.
 
Zuletzt bearbeitet:
Nicht wirklich, die XTX geht schon klar für 1000€ hast oft die gleiche Leistung wie eine 4080/4090 aber zahlst 500€ bis 800€ weniger und Raytracing, DLSS und co brauchen und wollen viele nicht.

Werde definitiv wohl eine 7900XTX kaufen alleine schon weil NVidia mit ihrem preisen komplett Psycho ist und ich hatte die letzten 10 Jahre im NVidia Karten. :bigok:
sie kostet aber keine 1000 Euro..
 
Hab mal paar Games testweise gegen gechecked, was den Stromverbrauch in einem normalen 60FPS / Maxed / 4k setting angeht:

Screenshot 2022-12-12 174307.png
Das ist in Ark. Sehr bescheiden optimiert, aber GPU UVed auf die sichtbaren 2370MHz. In Summe ist das System (CPU ist ein 5950X) damit bei bummelig 230-235 Watt.
Die meisten anderen Spiele zeigen nur 80-150 Watt bei der GPU. Wobei Cyberpunk mit 280 Watt der Ausreißer nach Oben ist.

Nun zeigen manche Reviewer bei RDNA 3 schon IDLE im DESKTOP 150 Watt.
Vergleiche:
Screenshot 2022-12-12 174047.png


Wie kann AMD so was jedes einzelne Mal wieder und wieder passieren?
Die haben doch die Werbetrommel gerührt, noch und nöcher, was sie für eine tolle Effizienz haben?!
Nicht nur ist ADA effizienter (deutlich teils), sondern im IDLE kommt RDNA 3 schon auf Verbrauch, den eine ADA GPU unter Last zeigt (mit V-Sync, FPS cap natürlich, aber wer spielt schon uncapped,...).

Mir einfach unverständlich dieser Punkt.
Das soll jetzt nicht mal RDNA3 bashing sein, sondern eher direkt an AMD gehen: Das ist ja nun nicht das erste Mal. Und wenn ich schon so derbe auf die Effizienzkeule haue, sogar die Konkurrenz durch den Dreck ziehe ala "da brauchst neues Netzteil für!" - dann muss ich doch zumindest in dem Bereich meine Hausaufgaben gemacht haben, oder?
Wir VERMUTEN ein Treiberproblem, aber es könnte ja auch ein Architekturding sein. Das Chiplet-Design ist neu. Wir kennen die Stärken von den Slides, aber Schwächen hat das sicher auch,... hoffen wir einfach, dass bei dem Stromverbrauch wirklich nur die Treiber zicken und nicht das Design.

Und echt Asche auf das Haupt des AMD Marketings hier.
 
Mit der 4090 alles richtig gemacht ;)
Gerade im Enthusiastbereich verliert AMD bei dem Release deutlich an Boden (7900XTX vs. 4900) im Vergleich von vor 2 Jahren zur (6900XT vs. 3090)

Wenn der Preis stimmt dann verkaufen sich die Karten trotzdem
der Unterschieb beträgt ja auch nur lächerliche 850€ :ROFLMAO::ROFLMAO::ROFLMAO:
Beitrag automatisch zusammengeführt:

Der Satz im Fazit macht irgendwie gar keinen Sinn. Die 6900XTX war der 3090 deutlich näher (in ausgewählten Settings gar minimal in Front) als die 7900XTX der 4090 :confused:
und der Preisunterschied von 850 € nie größer :rolleyes2:
 
Wie erwartet:

Rasterization etwa auf 4080 Niveau, bei AMD-freundlichen Titeln kratzt man an der 4090
RT Leistung in aktuellen Games ca. auf 3090 Level, in syntethischen benchmarks sehen wir ~170% mehr Performance bei der 4090 (= zukünftige Games, die mehr RT ermöglichen/fordern).

Insgesamt ein erfreulicher Sprung (bei selbem Preis), allerdings liegt AMD jetzt ca. 1 1/2 Generationen zurück in RT Leistung, ob/wie man hier wohl nachbessern kann?

Erbärmlich ist leider (wieder) der schlechte idle+multi monitor+video playback Wattverbrauch, das ist kein Problem der neuen Karten, das ist ein Problem der gesamten Navi Reihe. Ich bezweifle ernsthaft, dass AMD hier treiberseitig kurzfristig nachbessern kann, wenn man bedenkt, dass dieses ernsthafte Problem seit Jahren ignoriert/ nicht gelöst wurde. Auch die Zen4 Reihe hat große Probleme mit Idle/Playback Verbrauch (insb. interne GPU), scheinbar könnte hier also ein tiefergehendes Problem in der Architektur/Chiplet-Design stecken?

Die Effizienz insgesamt ist leider kein großer Fortschritt zur vorherigen NAVI Generation, insb. die Performance-Targets aus der Präsentation (50% +) konnten hier kaum gehalten werden, realistisch in WQHD sind eher 35%.

3544e1ab3f8157846036c1a98d873e1eaba73e508fd28f9d9264412087e3a683.png

4aea5b8a670e83e55fc190b651f1c7eca549364ce950cac6e63d1ff213237d44.png

Screenshot 2022-12-12 172508.jpg


Vorsichtig sollte AMD auch dabei sein, sich über NVIDIAs Leistungsaufnahme lustig zu machen.

Wenn ich mir hier sowas anschaue...

1670864542191.png
 
der testparcour ist irgendwie im eimer

valhalla ist ein vorzeige amd titel

guardians of the galaxy ist ganz strange unterwegs....
 
Hab mal paar Games testweise gegen gechecked, was den Stromverbrauch in einem normalen 60FPS / Maxed / 4k setting angeht:

Anhang anzeigen 827319
Das ist in Ark. Sehr bescheiden optimiert, aber GPU UVed auf die sichtbaren 2370MHz. In Summe ist das System (CPU ist ein 5950X) damit bei bummelig 230-235 Watt.
Die meisten anderen Spiele zeigen nur 80-150 Watt bei der GPU. Wobei Cyberpunk mit 280 Watt der Ausreißer nach Oben ist.

Nun zeigen manche Reviewer bei RDNA 3 schon IDLE im DESKTOP 150 Watt.
Vergleiche:
Anhang anzeigen 827320

Wie kann AMD so was jedes einzelne Mal wieder und wieder passieren?
Die haben doch die Werbetrommel gerührt, noch und nöcher, was sie für eine tolle Effizienz haben?!
Nicht nur ist ADA effizienter (deutlich teils), sondern im IDLE kommt RDNA 3 schon auf Verbrauch, den eine ADA GPU unter Last zeigt (mit V-Sync, FPS cap natürlich, aber wer spielt schon uncapped,...).

Mir einfach unverständlich dieser Punkt.
Das soll jetzt nicht mal RDNA3 bashing sein, sondern eher direkt an AMD gehen: Das ist ja nun nicht das erste Mal. Und wenn ich schon so derbe auf die Effizienzkeule haue, sogar die Konkurrenz durch den Dreck ziehe ala "da brauchst neues Netzteil für!" - dann muss ich doch zumindest in dem Bereich meine Hausaufgaben gemacht haben, oder?
Wir VERMUTEN ein Treiberproblem, aber es könnte ja auch ein Architekturding sein. Das Chiplet-Design ist neu. Wir kennen die Stärken von den Slides, aber Schwächen hat das sicher auch,... hoffen wir einfach, dass bei dem Stromverbrauch wirklich nur die Treiber zicken und nicht das Design.

Und echt Asche auf das Haupt des AMD Marketings hier.


Ich weiß gar nicht wo ich anfangen soll, aber die großen Hardwareseiten sind wie ein Musical. Alles voll guter Laune und viel Tanz und Musik. Kritik oder schwierige Fragen darf man da keine Erwarten.
Vl. sollte man auf kleinere Seiten wechseln...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh