Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Nun ja, Framegeneration ist ja aber auch ohne DLSS bzw. DLSS Skalierung und auch ohne Raytracing nutzbar - die meisten verbinden DLSS ja damit, dass in einer niedrigeren Auflösung gerendert und dann eben hochskaliert wird auf die native Auflösung des Bildschirms, was ja AMD mit FSR auch bietet. Viele wissen aber schlicht nicht, dass ich mal als Beispiel genannt "A Plague Tale Requiem" in nativer Auflösung zocken kann, z. B. in UHD, wo die 4080 um die 50 Frames liefert, Framegeneration dazu schalte und dann um die 80 - 90 Bilder habe. Und natürlich lässt sich das dann eben auch zusätzlich noch mit der DLSS Skalierung kombinieren.
Komisch, Nvidia bewirbt DLSS 3.0 sogar als "Frame Generation"
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gerade noch bei Igor geschaut... naja geskippt. Mehr als 10min halt ich das nicht aus,... aber er hat harten Fokus auf Leistung pro Watt.
Da ist Ada um WELTEN vorne.

Wo man vorher nur gehört hat: "Ich kauf AMD, weil Strom!" - was kommt dann nu? AMD frisst nicht nur paar einzelne Watt mehr für die Leistung, sondern gerne mal 50-100 Watt mehr, ohne UV Potential (das Ada auch noch obendrauf hat!),... und dank Bugs wohl auch noch im Idle.

Bei meinem Dual Monitor Setup liegt die 7900XTX im Idle höher, als meine 4090 unter Last in indie games. ;-)
Klar, das fixen die! Aber sowas zum Embargo nicht gefixt zu haben, zerfetzt die Reviews doch derbe lol
 
Zuletzt bearbeitet:
[...] Aber sowas zum Embargo nicht gefixt zu haben, zerfetzt die Reviews doch derbe lol
Man bekommt ab und zu den Eindruck, dass AMD allergisch auf gutes Marketing reagiert. Schon die Präsentation von RDNA3 war ja ein Trauerspiel.
 
Na hoffentlich bessert AMD da bei den Treibern in Hinblick auf die Leistungsaufnahme noch etwas nach. NVidia Karten reagieren deutlich auf ein FPS Limit, während die RDNA3 Karten wohl gar keine Reaktion in Sachen Stromverbrauch zeigen.
Das ist sicher nicht so gewolt von AMD.
 
Lässt die 4090 von der P/L nochmal deutlich schlechter darstehen. Hoffe zu mindestens auf eine kleine Preisanpassung seitens nvidia
An welchem Punkt steht die jetzt schlechter da?

Die AMD Karten lassen maximal die 4080 besser wirken und die 4080 ist so unbeliebt, da die Leistung gegenüber der 4090 quasi 1:1 mit dem Aufpreis skaliert.... Für mich werden eher 4080 und 4090 massiv spannender
 
Lässt die 4090 von der P/L nochmal deutlich schlechter darstehen. Hoffe zu mindestens auf eine kleine Preisanpassung seitens nvidia
Die 4090 beeinträchtigt der Launch sicher nicht.
Die 4080 vermutlich auch nicht.
Allerdings könnte eine 4070 oder 4070 TI dadurch etwas im geplanten Preis fallen!
 
Sitzt das Geld locker und spielt das Preis-Leistungs-Verhältnis keine Rolle, ist die GeForce RTX 4080 die Grafikkarte der Wahl. Die Radeon RX 7900 XTX kommt über den Preis ins Spiel. Auch wenn die Konkurrenz in Teilen besser ist, ist die Radeon RX 7900 XTX in diesen Gebieten keinesfalls schlecht und zeigt spürbare Verbesserungen gegenüber der Vorgängergeneration.

Aber besonders wenn DLSS ins Spiel kommt war die 4080 für mich persönlich die bessere Wahl.
 
Mit der 4090 alles richtig gemacht ;)
Gerade im Enthusiastbereich verliert AMD bei dem Release deutlich an Boden (7900XTX vs. 4900) im Vergleich von vor 2 Jahren zur (6900XT vs. 3090)

Wenn der Preis stimmt dann verkaufen sich die Karten trotzdem
 
Danke für den Test :)

Sehr schade das hier nicht mehr aus dem Multicoreansatz kommt.

Mal schauen wie es sich entwickelt, ob es nochmal eine 50er Generation geben wird oder ob Treiber was bringen.
Richtig ärgerlich: Die Stromaufnahme im Idle, ein dicker Schnitzer bei AMD. Ist ja nicht so, als ob sich das besonders im Multimonitorbetrieb seit Jahren durch die Treiber zieht.

Ich bleibe erstmal bei meiner 6900XT.

Da war der große Sprung mit RDNA 2 wohl auch darauf zurückzuführen das Nvidia die Chips bei Samsung hat fertigen lassen, während AMD auf einen kleineren Node bei TSMC wechselte.
Jetzt zurück bei TSMC macht sich Nvidias Vorsprung stark bemerkbar.

Genug geschrieben.
Ich hätte mir (wesentlich) mehr Leistung gewünscht als hier gezeigt wird.
Nunja, spare ich wohl Geld.
 
@Don Wie ist Choilwhine / Rasseln bei Dir aufgefallen?

Igor und GamersNexus sind da ja eher in Schockstarre.

Screenshot 2022-12-12 162741.png

Sitzt das Geld locker und spielt das Preis-Leistungs-Verhältnis keine Rolle, ist die GeForce RTX 4080 die Grafikkarte der Wahl. Die Radeon RX 7900 XTX kommt über den Preis ins Spiel. Auch wenn die Konkurrenz in Teilen besser ist, ist die Radeon RX 7900 XTX in diesen Gebieten keinesfalls schlecht und zeigt spürbare Verbesserungen gegenüber der Vorgängergeneration.

Aber besonders wenn DLSS ins Spiel kommt war die 4080 für mich persönlich die bessere Wahl.
Sehe ich ähnlich.
Rein von den FPS her trifft es das ohne Frage.
Das mit dem Stromverbrauch fixen sie evtl. noch über den Treiber und RT hat man ja nicht erwartet, dass sie mithalten können.
 
Ja, das ist aktuell richtig scheiße. Aber sowas wurde bisher immer (schnell) gefixt.
Schnell gefixt? Bin seit der ersten Stunde mit Radeon 6000 unterwegs und kann dir, mittlerweile nach drei verschiedenen Radeon 6000 Karten, versichern, dass das bis zum heutigen Tage nicht gefixt wurde. Trotz angeblicher Fehlerbehebung im Treiber-Update. Hab um die ~45w Verbrauch im idle, ziemlich exakt auch das, was auch Techpowerup gemessen hat.

Wenn AMD das Problem "schnell" fixt, kann ich mir ja immer noch eine AMD GPU kaufen. Aktuell sind über 100w Verbrauch im idle absolut nicht hinnehmbar.

Neben dem hohen idle-Verbrauch, hat Steve von Hardware Unboxed noch verschiedene Treiber-Probleme festgestellt. Wer weiß, wann die gefixt sind.
 
Ich denke nicht dass man eine 4080 so schnell deutlich unter 1500 sehen wird.
Aber dein Wort in NVidia's Ohr. Dann bekomm ich wieder was zum Basteln
hast du den Artikel gelesen? Gib mal 4080 bei Geizhals ein, die gamerock kosten 1350
 
hast du den Artikel gelesen? Gib mal 4080 bei Geizhals ein, die gamerock kosten 1350
Wie ich schon Mal zur Entschuldigung wiedergegeben habe schaue ich nicht täglich in die Stores. Letzte Woche mal kurz überflogen.
Plane kein Upgrade.
Ab 1,2k bitte gerne nochmals Bescheid geben ;)
Beitrag automatisch zusammengeführt:

die würde nicht mal einer kaufen wenn sie unter 1k kosten würde :fresse:
Ich schau auch nicht täglich auf die Preise, und checke mehrere Stores um zufällig so einen tollen Schnapper zu finden.
Liegt mitunter auch daran dass ich kein Upgrade plane.

PS: und 1,4 ist halt nicht "deutlich" ich werd mich auch nicht auf meine alten Jahre dran gewöhnen weit mehr als 1k für ne GPU zu bezahlen. Aktuell spiele ich nur SWGemu^^
 
die würde nicht mal einer kaufen wenn sie unter 1k kosten würde :fresse:
Ich schau auch nicht täglich auf die Preise, und checke mehrere Stores um zufällig so einen tollen Schnapper zu finden.
Liegt mitunter auch daran dass ich kein Upgrade plane.

PS: und 1,4 ist halt nicht "deutlich" ich werd mich auch nicht auf meine alten Jahre dran gewöhnen weit mehr als 1k für ne GPU zu bezahlen. Aktuell spiele ich nur SWGemu^^
Mir ist relativ egal was für dich "deutlich" bedeutet aber ich wollte nur klarstellen, dass deine Aussage halt Quatsch ist :d Fast jede 4080 bei Mindfactory kostet weniger als 1500€.
 
Diese Sache mit dem Stromverbrauch im Idle, bzw Desktop Usage, Videos etc ist ein absoluter Witz von AMD, da man nie weiß wie lange die brauchen um das zu fixen, zumal es nicht mal um 2 Monitore geht, sondern sogar bei einem zu dem Problem kommt, WTF, wie kann man sowas freigeben.

Selbst die 6000er Karten verbrauchen heute mit noch unnötig viel Strom sobald mehr als ein Display angeschlossen ist, insbesondere wenn sich dann noch Auflösung oder Frequenz unterscheiden, einzig 2x FullHD 60Hz liefen bei mir damals wirklich weiterhin stromsparend, aber selbst da kam es öfters mal zu Problemen weil dann ein Monitor vllt mit 59,94Hz lief und der andere mit 60Hz...

2x UHD war immer voller VRAM Takt und direkt 30W Verbrauch, einziger Umweg war den 2. Monitor an der iGPU.

Dazu scheinbar noch Spulenfiepen ohne Ende und ein eher mäßiges Referenzdesign.
Für mich stand jetzt absolutes Roulette und im Grunde kann man locker die 7700er oder 7800er abwarten, oder je nachdem wie schlecht sich die GPUs generell verkaufen, Preissenkungen abwarten.
 
Mir ist relativ egal was für dich "deutlich" bedeutet aber ich wollte nur klarstellen, dass deine Aussage halt Quatsch ist :d Fast jede 4080 bei Mindfactory kostet weniger als 1500€.
ich kann auch drei Mal schreiben dass das mein Stand von vor ner Woche war oder :rolleyes: Jesus das Goldwägelchen ist heut extrem fein eingestellt :lol:
 
Danke aber ich bin erst Mal raus da kein Bedarf besteht. Deshalb mein veralteter Stand was die Preise von vor ner Woche angeht.
Ich entschuldige mich nochmals zu tiefst. MEA CULPA
 
ich kann auch drei Mal schreiben dass das mein Stand von vor ner Woche war oder :rolleyes: Jesus das Goldwägelchen ist heut extrem fein eingestellt :lol:
Um die Feinheit der Goldwaage noch ein wenig feiner einzustellen: ist mir egal, dass das dein Stand vor einer Woche war...du hast es eben geschrieben:sneaky::ROFLMAO:
 
Nennt sich CPU Limit. Gibt es irgendwann schnellere Prozessoren dürfte auch in FHD und WQHD der Abstand ansteigen.
sieht wohl so aus als fürden die AMD GPU´s mehr aus schnellen CPU´s rausholen.
Macht Neugierig auf die Tests wenn denn endlich die x3D CPU´s kommen.
gerade den folgenen Games gibt es bei WQHD scheinbar noch immer ein CPU limit wovon AMD 7900xtx stärker betroffen ist wie Nvidia RTX4090

Battlefield 2042 12,15% / 8,26% / -31,77%​

Call of Duty Vanguard 0,16% / 0,16% / -18,31%​

Marvels Spider-Man Remastered -10,36% / -11,11% / -42,26%​

 
Insgesamt deutlich (15%) schwächer als die 4080, dafür auch 200 Euro günstiger.
Raster auf dem gleichen Niveau, bei RT deutlich unterlegen.
Ich würde eher die RTX 4080 bevorzugen.
Nvidias Preisvorstellung ist wie so häufig auf den Punkt. Woher die das immer vorher wissen?
 
Nvidias Preisvorstellung ist wie so häufig auf den Punkt. Woher die das immer vorher wissen?
Da würde ich nicht ganz zustimmen in diesem Fall.
Die Preisvorstellung mag Leistungstechnisch "korrekt" eingeordnet sein, aber wie die ganzen Lager voller 4080 zeigen: Total überteuert für das Gebotene.
Die Frage ist eher, wieso sich AMD daran orientiert und nicht mind. weitere 200 günstiger ankommt um ein klarer Sieger zu sein und Marktanteile zu klauen, jetzt wo sich NVidia so dramatisch beim Preis des direkten Gegners vertan hat.

Wenn AMD nun fix den Preis noch senkt, wäre das ein echt perfekter Moment für Marktanteile und eine Klatsche für NVidia.
Ja, NVidia preist immer sehr genau zur Leistung ein, aber nein: Der 4080 Preis ist sicher nicht gut oder "ok".
 
Ich vermisse im Test die 800 x 600 Testergebnisse, spielt echt noch einer 1920x1080 in 2022 mit solchen Grafikkarten? Fand die Tests in 1920x1080 schon bei der letzten Gen irgendwie fehl am Platz da es mehr die Testbench testet und deren CPU/RAM Fähigkeiten als die eigentliche GPU.
Würd der Preis etwas tiefer sein würd ich sagen die XTX ist ne gute Karte für ein geringeres Budget als die 4080 4090 sofern die 4070 da nicht dann wiederrum den Platz wegnimmt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh