Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Bonus:
The efficiency when using FPS limiters (tested by Computerbase) is beyond abysmal :

Doom Eternal 144 FPS Limit 4K
4080=222W
4090=244W
7900XTX=345W

1440p
4080=125W
4090=139W
7900XTX=248W
Das ist vernichtend und muss quasi sofort gefixt werden in meinen Augen.
Ohne FPS Limiter spielt doch nur die CS:GO Elite,...

Wenn mein Auto immer 20l/100km schlucken würde und nicht nur beim Beschleunigen von 0 auf 100, dann wäre das aber sofort zurück im Laden. ;-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Doom Eternal 144 FPS Limit 4K
4080=222W
4090=244W
7900XTX=345W

1440p
4080=125W
4090=139W
7900XTX=248W


ernsthafte frage:
kann das per treiber im nachgang gefixt werden?
oder bedarf es dafür einer neuen hardware revision?
 
Hier scheinen die Reaktionen ja eher gemischt auszufallen.

Muss sagen mir gefällt die XTX gut. Gibt so einige Gründe warum ich die gerne kaufen würde und keine NV...

Leider finde ich im gesamten Internet keine Benchmarks von der XTX und Warhammer 40K Darktide. Das ist aber der Hauptitel für die ich die Karte kaufen würde.
Kann da jemand mit Benches aushelfen ? Vorzugsweise 1440P, mit und ohne RT, mit und ohne FSR.. ??
 
AMD fanbois going... harakiri ... :lol:
 
Verstehe dieses Fazit absolut nicht, RDNA2 war gegen Ampere wesentlich stärker als RDNA3 gegen Lovelace.

RDNA2s Raster war quasi gleich auf mit Ampere, RT stark im Rückstand, aber die Energieeffizienz ging ganz klar an AMD, insbesondere unter Teillast.

Jetzt mit RDNA3 liegt Raster einen ganzen Tier zurück, man kämpft nicht mehr mit dem 102 Die, sondern dem 103 Die und RT liegt noch weiter zurück als zuvor. Die Effizienz ist auch vollkommen gekippt, auf einmal liefert Nvidia wesentlich mehr Leistung pro Watt und gerade unter Teillast, wo RDNA2 noch gut einsparen konnte, saugt RDNA3 besonders viel und wird von Lovelace vollkommen deklassiert.
die rtx 4090 ist auch einfach ein monströser singlechip, mit 50%+ mehr "cores" als die 3090 ti.
mit all seinen problemen. schlechte ausbeute bei der herstellung, weil bei der größe des chips die wahrscheinlichkeit größer ist, das irgendwas kaputt ist.
zudem werden die rtx 4000er in 4n hergestellt.

die rx 7000er sind ein mix aus 5nm und 6nm.
das chiplet design ist neu und ich denke es muss halt noch wirklich in den griff bekommen werden.
der größere herstellungsprozess und dadurch das chiplets benutzt werden, denke ich kommt es zu dem hohen stromverbrauch gegenüber den rtx 4000er.
jedes chiplet will mit strom versorgt werden. ich denke daher kommt es zu dem hohen verbrauch auch bei niedriger auflösung oder framelimit. (hoffe ihr versteht was ich meine ^^;)

ernsthafte frage:
kann das per treiber im nachgang gefixt werden?
oder bedarf es dafür einer neuen hardware revision?

kurz gesagt, das power management der rx 7000er passt noch nicht, weil die erfahrung mit dem neuen chiplet design fehlt.
ansonsten ist die rx 7900xtx ja nicht schlecht. wenn man auch mit anderen tests vergleicht immer schneller als eine rtx 4080 die ja nun auch bei der präsentation als gegner/ziel angegeben wurde.

mal sehen was neue treiber bringen.
werde, wenn sich da nichts ändert, sehen was einer 4070ti kostet und dann entscheiden.
 
Aber sind wir doch mal ehrlich:
Die Standardleistung ist wirklich gut, besonders in vielen gängigen Titeln. Daran gibt es kaum was auszusetzen.
Wenn ich aber 100 Watt mehr verbrauche und ich von 3 Stunden aktiver Nutzung an 6 Tagen die Woche ausgehe sind das 40 EUR Mehr im Jahr. Und da sind die katastrophalen Idle Verbräuche nicht drin. Das können locker nochmal 30-80 EUR im Jahr sein. Damit wird jeglicher Preisvorteil im ersten Nutzungsjahr bereits pulverisiert.
Und wenn ich mir dann noch die Dinge neben der Leistung und dem Verbrausch anschaue:
Igors Gesicht bei der Präsentation der Geräuschkulisse lässt keine Fragen offen. Das wäre für mich eine Katastrophe. Meine 3080 habe ich nicht gehört und meine 4080 ebenso wenig.

In Summe ist das mit den Chiplets eine tolle Idee und Rohleistung ist da und wird auch noch besser werden in Generationen. Aber alle anderen Sachen wirken wie Hinkefüße.
Insbesondere beim Verbrauch scheint man sich auf die publizierten / angedrohten 450-600 Watt der 4xxx Generation hat vorführen lassen.
 
Das wir wohl wieder eine AMD fine whine Geschichte. Der Treiber muss wohl nachreifen. Intels start mit den hybrid CPUs war auch nicht Makellos und hat erstmal einige Monate Optimierung nachgezogen.

@Don wäre es möglich mal abstrakt einfach auf Linux auch einen Vergleich zu ziehen? (STEAM OS)
Windows ist halt auch nicht immer das gelbe vom Ei.
 
Eine 7900 XTX kostet 1.149 Euro. Eine 4090 FE kostet 1859 Euro. Das sind ca. 62% und nicht 100% :)
Wo ist denn die 4090 FE lagernd und sofort bestellbar für 1859 €? Die "günstigsten" Modelle von der NVIDIA-Seite leiten einen auf 2100+ € weiter.

Bei AMD wird es ähnlich sein, aber dort gibt es immerhin den Shop. Also zumindest überhaupt eine Chance eine für ~1150 zu bekommen.
Hier scheinen die Reaktionen ja eher gemischt auszufallen.

Muss sagen mir gefällt die XTX gut. Gibt so einige Gründe warum ich die gerne kaufen würde und keine NV...

Leider finde ich im gesamten Internet keine Benchmarks von der XTX und Warhammer 40K Darktide. Das ist aber der Hauptitel für die ich die Karte kaufen würde.
Kann da jemand mit Benches aushelfen ? Vorzugsweise 1440P, mit und ohne RT, mit und ohne FSR.. ??
Da geht es dir genauso wie mir, mich würde vor allem interessieren wie es in 4K mit niedrigem RT aussieht. Das Spiel zieht auf Max selbst eine 4090 auf 60 FPS runter. Wenn die dann noch 120+ in Vermintide hält wäre das ein Traum. Mit der 6900 XT waren meist so 80 - 100 FPS drin.
Das wir wohl wieder eine AMD fine whine Geschichte. Der Treiber muss wohl nachreifen. Intels start mit den hybrid CPUs war auch nicht Makellos und hat erstmal einige Monate Optimierung nachgezogen.
Ja, mit sowas habe ich gerechnet. Ansonsten wird undervoltet. Das würde ich sowieso mit jeder High-End-Karte machen.
 
Aus dem Fazit Text zum Aritkel:
"Da AMD die Kapazität des Infinity Cache von 128 auf 96 MB reduziert hat, könnte dieser Effekte umso deutlicher zum Vorschein treten."

>Fehler drin> *Effekte
Sollte wohl: *Effekt
heißen!
 
Die Leistung ist in etwa wie erwartet.

Mehr oder weniger auf Augenhöhe mit einer 4080, RT Leistung weiterhin abgeschlagen.
Wobei RT für einige kein Thema sein dürfte.

Aber wenn ich die Kommentare über "Fine Whine" und der "Treiber wirds richten" lese, schau ich skeptisch auf meine 6900er.
Dort gibt es immer noch den Bug mit dem Vram und dem höheren Idle Verbrauch, da hat sich seit Launch der 6er Reihe nichts getan.

Genauso wie dass das Chiplet Design Neu sei und es damit noch nicht so die "Erfahrung" gäbe.
Ja natürlich ist das Design neu, aber der Treiber sollte doch dahingehend optimiert sein bei Launch.

Da ich nicht aufrüsten werde, betrachte ich diese Generation für mich als abgehakt.
 
Das Kärtchen agiert wie erwartet. Das wir keine Weltwunder erwarten durften war klar. Ich finde gut das AMD zumindest den Schritt zurück gemacht und die Konkurrenz zur 4090 dementiert hat. Ansonsten joa, mal schauen.

Der Preis wird nicht wie viele glauben heute beim UVP landen, wir werden vermutlich Karten sehen die teurer als 4080 sind oder zumindest über dem UVP. Ich glaube aber auch nicht das es einen hohen Ansturm gegen wird. Man könnte es natürlich der Konkurrenz nachmachen und einfach weniger auf den Markt werfen. Wobei ich sowieso nicht glaube das wir viele Karten sehen werden.
 
Aus dem Fazit Text zum Aritkel:
"Da AMD die Kapazität des Infinity Cache von 128 auf 96 MB reduziert hat, könnte dieser Effekte umso deutlicher zum Vorschein treten."

>Fehler drin> *Effekte
Sollte wohl: *Effekt
heißen!
bist du deutsch lehrer und lebst deinen korrektur zwang in der freizeit aus?
solche kommentare sind hochanstrengend für mich, da sie thematisch nichts beitragen.
 
Mal eine doofe Frage, warum wird hier oft geschrieben "wobei Raytracing für viele kein Thema sein dürfte" ?
 
Dann kann ich diese Generation also mit ruhigem Gewissen überspringen. Top. :)
 
Mal eine doofe Frage, warum wird hier oft geschrieben "wobei Raytracing für viele kein Thema sein dürfte" ?
Ich denke dass vielen die Leistungseinbußen gegenüber dem optischen Mehrwert zu hoch sind.

Stellenweise sieht man nur bei genauem hinsehen mit Standbildern gravierende Unterschiede.
 
Das wir wohl wieder eine AMD fine whine Geschichte. Der Treiber muss wohl nachreifen. Intels start mit den hybrid CPUs war auch nicht Makellos und hat erstmal einige Monate Optimierung nachgezogen.

@Don wäre es möglich mal abstrakt einfach auf Linux auch einen Vergleich zu ziehen? (STEAM OS)
Windows ist halt auch nicht immer das gelbe vom Ei.
Beides gute Punkte. Phoronix testet ja Karten (nur unter Linux) Monate / Jahre später nach, mit dann aktuellem Treiber. Und was AMD am Ende raushaut ist genauso geil wie es am Anfang zum fürchten ist...
Aber unter Steam OS zu benchen wäre ziemlich blöd, das ist nämlich toter als tot für alles andere als das Steam Deck, und ich glaub da kriegt man keine GPU rein ;)
Würde da dann ein Arch, Garuda oder wenns denn unbedingt sein muss Ubuntu empfehlen (obwohl Ubuntu echt richtig kacke ist zum zocken).
 
Ihr werdet Euch alle noch umgucken was Raytracing in zukünftigen Spielen bieten wird.
 
Nur gut dass es in aktuellen Tests um aktuellen Mehrwert geht :)
 
@Shihatsu Hey, keinen Linuxkrieg hier anfangen. Ich zocke jeden Tag unter Ubuntu xD Man darf nur nicht vergessen den SNAP Unterbau rauszuwerfen und halbwegs aktuelle Kernel aus dem mainline Repo zu benutzen und das Oibaff PPA...

Okok, Arch wäre besser.
Aber ich bin faul ;)
 
@Shihatsu Hey, keinen Linuxkrieg hier anfangen. Ich zocke jeden Tag unter Ubuntu xD Man darf nur nicht vergessen den SNAP Unterbau rauszuwerfen und halbwegs aktuelle Kernel aus dem mainline Repo zu benutzen und das Oibaff PPA...
Das wären genau die beiden Punkte die Ubuntu von "O MY GOD DON'T" zu "FUCK YEAH" bringen würden, bin da ganz bei dir ;)
 
Ihr werdet Euch alle noch umgucken was Raytracing in zukünftigen Spielen bieten wird.

Ja in 5 Jahren oder mehr, wenn keiner mehr die aktuellen Karten benutzt. Sorry aber aktuell ist Raytracing nichts mehr als overhypter Kram der bei „normalem“ Spielen kaum Mehrwert bringt und die Leistung einfach viel zu sehr einbricht. Die Tatsache, dass man quasi gezwungen ist DLSS zu benutzen um spielbare FPS zu bekommen zeigt ja, dass es hardwareseitig einfach noch lange nicht soweit ist.
 
Aber sind wir doch mal ehrlich:
Die Standardleistung ist wirklich gut, besonders in vielen gängigen Titeln. Daran gibt es kaum was auszusetzen.
Wenn ich aber 100 Watt mehr verbrauche und ich von 3 Stunden aktiver Nutzung an 6 Tagen die Woche ausgehe sind das 40 EUR Mehr im Jahr. Und da sind die katastrophalen Idle Verbräuche nicht drin. Das können locker nochmal 30-80 EUR im Jahr sein. Damit wird jeglicher Preisvorteil im ersten Nutzungsjahr bereits pulverisiert.
Und wenn ich mir dann noch die Dinge neben der Leistung und dem Verbrausch anschaue:
Igors Gesicht bei der Präsentation der Geräuschkulisse lässt keine Fragen offen. Das wäre für mich eine Katastrophe. Meine 3080 habe ich nicht gehört und meine 4080 ebenso wenig.

In Summe ist das mit den Chiplets eine tolle Idee und Rohleistung ist da und wird auch noch besser werden in Generationen. Aber alle anderen Sachen wirken wie Hinkefüße.
Insbesondere beim Verbrauch scheint man sich auf die publizierten / angedrohten 450-600 Watt der 4xxx Generation hat vorführen lassen.
Ich stelle auch in anderen Communities fest, dass zu dem Stromverbrauch der Karten oft nur Kommentare kommen wie "wer sich eine High End Karte kauft, will nicht stromsparen". Aber das ist doch am Ende bares Geld? Und den paar Reviewern, die deswegen nachgefragt haben, hat AMD ja auch eher "works as designed" Antworten gegeben.

Ansonsten fände ich die Karten auch leistungstechnisch gut, aber da die Kiste bei mir quasi täglich mehrere Stunden läuft und so eine Karte ja locker bis zur nächsten Generation halten soll, sähe ich einen vermeintlichen Preisvorteil zur 4080 einfach verpuffen.

Aber wenn ich die Kommentare über "Fine Whine" und der "Treiber wirds richten" lese, schau ich skeptisch auf meine 6900er.
Dort gibt es immer noch den Bug mit dem Vram und dem höheren Idle Verbrauch, da hat sich seit Launch der 6er Reihe nichts getan.
Ich bin noch in Zeiten groß geworden, in denen man Linux Distris auf optischen Datenträgern in der Buchhandlung kaufen konnte und wo man auch bei Computern mit quasi absolut gängiger Hardware trotzdem noch hier und da was zurechtfrickeln musste, damit überhaupt die ganze Hardware lief und im Prinzip ständig darauf hoffte, dass es irgendwann ein Kernel oder Firmware Update richtete (wofür man natürlich aufs nächste Major Release auf CD/DVD warten musste, da man mit 56k nicht gerade viel Spaß am Downloaden hatte). Irgendwie finde ich ein Stück Hardware im Jahre 2022 nicht mehr reizvoll, wenn es zum Release schon eine ganze Reihe Issues gibt, die vielleicht oder vielleicht auch nicht irgendwann per Treiber gefixt werden könnten. Ob so Sachen wie der Stromverbrauch überhaupt per Treiber zu fixen sind, steht ja eher in den Sternen.

"The AMD RDNA3 architecture is optimized to ensure responsive performance with the highest refresh rates. The newest high-resolution and refresh monitors require significant memory bandwidth and initial launch on RX 7900 series cards gaming cards have been tuned to ensure optimal display performance. This may result in higher idle power and fan speeds with certain displays. We're looking into further optimizing the product going forward."

Würde da stehen "we're going to release a fix asap" hätte ich da Hoffnung, aber so? 🤔
 
Diverse custom Modelle wurden von chinesen Seiten geleaked

 

Anhänge

  • 1670922094317.png
    1670922094317.png
    355,6 KB · Aufrufe: 54
  • 1670922101069.png
    1670922101069.png
    284,9 KB · Aufrufe: 55
Sehe ich das richtig, dass bei einigen Full-HD und WQHD Benchmarks die 7900XTX sogar vor der 4090 liegt? Und dabei wurde nur das Referenzmodell getestet. Mit den Customkarten sowie Treiberoptimierungen könnte die 7900XTX noch weiter zur 4090 aufschließen, insbesondere bei UHD.
Was für einen Sinn ergibt der Vergleich von Custom zu Referenz, wenn es von beiden Herstellern Custom gibt?
 
Nachdem ich nun echt alle größeren Reviews durch habe (mehr oder weniger detailliert), empfinde ich den Kampf XT / XTX / 4080 wie ein Ringen um die goldene Ananas.
Alle drei sind einfach zu teuer für das Gebotene.

Die 4080 mag etwas mehr "Gegenwert" liefern im Gesamtbild, aber keine 1200 Dollar Gegenwert.
Und 899, bzw. 999 Dollar sind die XT und XTX einfach auch nicht wert.

Persönlich würde ich die XT bei 649, die XTX bei 799 und die 4080 bei 949 als obere Limits sehen.
So wäre auch der Gegenwert zu der alten Gen gegeben und der relative Leistungsunterschied mit "korrekten" prozentualen Steigerungen versehen.
Gerade mit dem Stromverbrauch / Bug / Designfehler (?) sind 4-stellige Summen für AMD einfach utopisch.


Sicher sollte man entsprechend auch die 4090 einbeziehen, aber es ist immer schwer ein Halo Produkt ohne Konkurrenz zu bewerten. Da geht es nicht um P / L primär, sondern eben rein um die Leistung. Und dafür ist der Preis ja gar nicht soooo weit weg. Billiger hätte ich sie trotzdem gerne. ;-)
 
Wenn man die Leistung jetzt so ansieht dann denke ich, dass uns AMD hier ein RX 7800XT als RX 7900XTX und eine RX 7800 als RX 7900XT verkauft. Also auch eine Preiserhöhung durch die Hintertür genau wie bei Nvidia. Alles in allem etwas enttäuschend.
 
Ich muss ehrlich sagen, dass ich nachdem ich die Reviews für die 7900 XTX gesehen haben, kurz davor bin mir die 4080 zuzulegen. Erscheint mir einfach das insgesamt bessere Gesamtpaket und wenn ich sehe wie viel ich in der Bucht für meine 3080 noch erwarten kann, ist der Preis deutlich weniger schmerzhaft.
 
Nun ja, Framegeneration ist ja aber auch ohne DLSS bzw. DLSS Skalierung und auch ohne Raytracing nutzbar - die meisten verbinden DLSS ja damit, dass in einer niedrigeren Auflösung gerendert und dann eben hochskaliert wird auf die native Auflösung des Bildschirms, was ja AMD mit FSR auch bietet. Viele wissen aber schlicht nicht, dass ich mal als Beispiel genannt "A Plague Tale Requiem" in nativer Auflösung zocken kann, z. B. in UHD, wo die 4080 um die 50 Frames liefert, Framegeneration dazu schalte und dann um die 80 - 90 Bilder habe. Und natürlich lässt sich das dann eben auch zusätzlich noch mit der DLSS Skalierung und Raytracing kombinieren.

DLSS 3.0 bringt halt nichts für Leute auf 4K. Wenn ich aus 120FPS 240 machen kann -> doll... Not.

Wenn sich dafür aber 60FPS mit DLSS anfühlen wie 30FPS, nein danke. Was bringen mir viele FPS, wenn das Spiel schwammig ist, als ob ich es mit 30FPS laufen lasse? Würde maximal was bringen wenn ich mit 4K 60FPS auf einem 120HZ 4K Monitor spiele. Naja. Ist ganz nett, aber für mich kein Feature was ich nutzen würde.
Also noch eine Generation 1080ti :d Irgendwie überzeugt mich nicht mal eine 4090RTX bei Raytracing. Ich will keine 2000€ bezahlen um bei 4K jetzt schon am Limit zu kratzen.

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh