Mit RDNA 4 zum Comeback: Modelle der Radeon RX 9070 und Radeon RX 9070 XT im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was mich aktuell noch zögern lässt bei RDNA4, ist die unklare Lage was UV angeht....
Meine Vermutung: Bei der XT geht UV noch ganz gut, die "kleine" ist dagegen schon ziemlich nah am Verbrauchsoptimum und limitiert aufgrund des niedrigen PL. Die Karten sind von den Spezifikationen eigentlich viel zu nah beieinander und deshalb erklären sich halt auch die nur 60 Euro UVP-Unterschied.
 
@iLLuminatusANG Jaja alles gut. Ist bei mir ähnlich, der Firmenkram läuft auf Intel CPU, selten dass ich ne dGPU brauche bzw. nutze... aktuelle Firmenkiste hat sogar nur iGPU. Aber nach diversen Vorkommnissen privat mit Intel und nVidia, hab ich für mich da erstmal komplett auf AMD umgestellt. Bin zufrieden P/L top!

Was mich aktuell noch zögern lässt bei RDNA4, ist die unklare Lage was UV angeht.... müssen die Werks-OC Karten die 340W verballern oder kann man die auf 300W bekommen mit minimalen Einbußen, oder vielleicht gar keinen??
hab heute, weil ich "mal" Zeit hatte nen 13th gen gegen einen Ultra in Cinebench antreten lassen. sah nicht gut aus für den deutlich teueren Ultra. vllt kann ich es morgen mal im entsprechenden thread posten. Und ich muss die Preise der GF argumentieren...

Aktuell haben wir ja nur stock tests. nix in Richtung OC / UV. Das ware echt noch richtig interessant.
 
Werden morgen die ganzen ´´günstigen´´ 5070 bei Alternate die aktuell mit Artikel kann derzeit nicht gekauft werden freigeschaltet als Konkurrenz zur 9070 ?
Schwer zu sagen, es hieß die Tage, dass die Versorgung mit 5070 noch schlechter sei wie 5080....

Zur Lage der RDNA4:

Es gehen scheinbar Gerüchte um, dass die Zwischenhändler die Preise für die RDNA angezogen haben, d.h. den Händlern bliebe dann nur wenig bis gar kein Spielraum!
 
Was mich aktuell noch zögern lässt bei RDNA4, ist die unklare Lage was UV angeht.... müssen die Werks-OC Karten die 340W verballern oder kann man die auf 300W bekommen mit minimalen Einbußen, oder vielleicht gar keinen??
Ja da hat weder Computerbase noch PCGH getestet.
PCGH hat nur UV mit OC zugleich getestet, was in Mehr verbrauch ausging.
Schade dass keine Seite mal nur UV und minimales Underclocking auf zb 2800mhz Boost getestet hat. Oder -10% Powertarget + UV.
 
Ein Teil meiner "Prophezeiung" tritt also bereits ein... naja, schwer war es nicht, der Retailer weiß eben, was der technikinteressierte bereit ist auf den Tresen zu legen...
Wird nicht gut verlaufen. Vielleicht guter Lagerbestand, aber die Preise so hoch, dass der Mainstream auf Nvidia warten wird.
Wir im Forum sind nur Bubble
 
Ja da hat weder Computerbase noch PCGH getestet.
PCGH hat nur UV mit OC zugleich getestet, was in Mehr verbrauch ausging.
Schade dass keine Seite mal nur UV und minimales Underclocking auf zb 2800mhz Boost getestet hat. Oder -10% Powertarget + UV.
An der Stelle verlasse ich mich auch lieber auf die Community! Da gab's bisher immer nen vernünftigen Informationsaustausch... Dazu fehlt den ganzen Redakteuren, Testern, usw. i.d.R einfach die Zeit...
 
An der Stelle verlasse ich mich auch lieber auf die Community! Da gab's bisher immer nen vernünftigen Informationsaustausch... Dazu fehlt den ganzen Redakteuren, Testern, usw. i.d.R einfach die Zeit...
Welches Modell würde dich denn reizen wegen dem Kühler.
 
Gute Aussichten für AMD
Könnten 25 bis gar 30% drinnen sein Ende April

Ja, die beziehen sich auf glaube Jon Peddie Research...

da gibts das Bildchen was ich für interessanter halte:
1741212269050.png

Die Lieferungen von GPUs an den Markt steigen wieder! und zwar kontinuirlich! Das wird dem gescalpe dann früher oder später ein Ende bereiten.

Auf Videocardz gab es ja vor einigen Tagen schon eine Ausssage im Zusammenhang mit den RTX5090, dass die Scalper bald weinen würden....

Wir werden sehen!
Beitrag automatisch zusammengeführt:

Welches Modell würde dich denn reizen wegen dem Kühler.
Ich würde da zur Red Devil oder zur Nitro tendieren....
 
Ich würde da zur Red Devil oder zur Nitro tendieren....
Wenn du dass Geld hast, ganz klar die Red Devil. Schön undervolt und du hast die Perfekte Karte.
Was hast du eig für Ram und CPU ? Deine Hardware Info ist leider nicht vorhanden :d
 
Ja, die beziehen sich auf glaube Jon Peddie Research...

da gibts das Bildchen was ich für interessanter halte:
Anhang anzeigen 1083749

Die Lieferungen von GPUs an den Markt steigen wieder! und zwar kontinuirlich! Das wird dem gescalpe dann früher oder später ein Ende bereiten.

Auf Videocardz gab es ja vor einigen Tagen schon eine Ausssage im Zusammenhang mit den RTX5090, dass die Scalper bald weinen würden....

Wir werden sehen!
Beitrag automatisch zusammengeführt:


Ich würde da zur Red Devil oder zur Nitro tendieren....
Nitro OC, da wären wir wieder bei dem 340W BIOS. aber die devil würde mir auch sehr gefallen, da ich ja die 7900xtx liquid devil hier habe.
 
In dem Rechner hier hab ich ein B650E Taichi; 2x32GB 6000CL30 (müsste Corsair sein), die XFX MERC 7900XTX und nen 7950X3D.... Von der Leistung her wär es eher ein side-grade, aber ich muss auch ab zu mal bissl rum-frickeln, d.h. UV Versuche starten, da war ich mit der XTX deutlich weniger erfolgreich wie mit der 6900XT....
Beitrag automatisch zusammengeführt:

Was ich bei den RDNA4 XT's bisher festgestellt hab, ist dass da niemand knickerig war, was die Kühler angeht, oder?? selbst die Pulse hat nen dickeren Kühler als die 7900XTX Pulse...
 
Zuletzt bearbeitet:
In dem Rechner hier hab ich ein B650E Taichi; 2x32GB 6000CL30 (müsste Corsair sein), die XFX MERC 7900XTX und nen 7950X3D
Geiler rechner für Star Citizen :d
Solltest mal rein schauen, dass Spiel hat sich verdammt gut entwickelt.
Spiele erst 2 Jahre aber seit Dezember und dem neuen Sonnensystem täglich.
1741213613964.png
 
Ich schieb den Rechner einfach auf die andere Seite unseres Büro. Da full WaKü mit MoRa 2 usw... freut sie sich und ich kann ne neue Kiste machen (dürfen) .
Ja, sidekick. Für mich noch upgrade auf Sockel AM5 und DDR5.

auch eher neue Hardware testen als brauchen ^^
 
Schade, die RayTracing Leistung ist je nach Spiel immer noch sehr schwach :/.

Gerade wo langsam Spiele RayTracing voraus setzen bringt mich das immer noch ins Grübeln. Irgendwie sind ~750€ dann schon eine ordentliche Summe, wenn man von einer 3080 10gb kommt und in manchen Szenarien (4k, max RayTracing) am Ende kaum Mehrleistung sieht.

Dort wo die 9070xt wirklich davon zieht brauche ich dafür gar nicht unbedingt mehr Leistung 🤔.

Mal sehen wie sich Verfügbarkeit, Preise und die Treiber bis April/Mai entwickeln...bei ~750-800€ liegt meine Schmerzgrenze und für den Preis würde ich wohl zugreifen. Die Pathtracing Leistung macht auch irgendwie Hoffnung darauf, dass da im Treiber noch einige FPS bei problematischen Spielen schlummern ✊🏼.

Ansonsten gibt es ja auch kaum Alternativen - eine 5070 ti für maximal ~900€ (für 1200€+ völlig daneben mMn) käme vielleicht noch in Betracht, aber bei den ganzen Blackwell Problemen...ich weiß ja nicht.
 
In dem Rechner hier hab ich ein B650E Taichi; 2x32GB 6000CL30 (müsste Corsair sein), die XFX MERC 7900XTX und nen 7950X3D.... Von der Leistung her wär es eher ein side-grade, aber ich muss auch ab zu mal bissl rum-frickeln, d.h. UV Versuche starten, da war ich mit der XTX deutlich weniger erfolgreich wie mit der 6900XT....
Beitrag automatisch zusammengeführt:

Was ich bei den RDNA4 XT's bisher festgestellt hab, ist dass da niemand knickerig war, was die Kühler angeht, oder?? selbst die Pulse hat nen dickeren Kühler als die 7900XTX Pulse...
Die Kühler scheinen echt gut zu funktionieren.
Meine erste LuKü Kiste seit über 20 Jahren :d
 
Ja, wir hatten das Thema schon. Hab SC seit Jahren, neulich nochmal rein geschut, die gleichen Probleme wie vor 5..6 Jahren... *zack* wieder ausgemacht. Gar nichts geht da voran!

Das Ganze "Spiel" zu nennen ist schon interessant!

Da ist mir meine Zeit mittlerweile zu schade für....

Ist aber hier völlig OT... daher btt!
 
Schade, die RayTracing Leistung ist je nach Spiel immer noch sehr schwach :/.

Gerade wo langsam Spiele RayTracing voraus setzen bringt mich das immer noch ins Grübeln. Irgendwie sind ~750€ dann schon eine ordentliche Summe, wenn man von einer 3080 10gb kommt und in manchen Szenarien (4k, max RayTracing) am Ende kaum Mehrleistung sieht.

Dort wo die 9070xt wirklich davon zieht brauche ich dafür gar nicht unbedingt mehr Leistung 🤔.

Mal sehen wie sich Verfügbarkeit, Preise und die Treiber bis April/Mai entwickeln...bei ~750-800€ liegt meine Schmerzgrenze und für den Preis würde ich wohl zugreifen. Die Pathtracing Leistung macht auch irgendwie Hoffnung darauf, dass da im Treiber noch einige FPS bei problematischen Spielen schlummern ✊🏼.

Ansonsten gibt es ja auch kaum Alternativen - eine 5070 ti für maximal ~900€ (für 1200€+ völlig daneben) käme vielleicht noch in Betracht, aber bei den ganzen Blackwell Problemen...ich weiß ja nicht.
sorry, meine 6800xt war weit besser als eine 3080... Eine 3080 kann kein ausschlaggebender Punkt sein in 2025.
 
@iLLuminatusANG Ja, ich bin seit nem Jahr jetzt etwa von CustomLoop zurück zu Luft(komplett), das ständige Wasser ablassen, auffüllen, entlüften, nochmal von vorne bei der Fehlersuche als mein Gigabyte Board gestorben ist..... da ist mir die Sicherung geflogen....

Evtl. werd ich mal irgendwann ne AIO an die CPU hängen.... aber nur evtl. ...

Die XTX von XFX ist von den Lüftern her nicht ganz so... lässt sich aber einstellen, dann gehts. Unter 60°C gehen die eh in FAN-Stop... Desktop, etc. ist also kein Akt.

Was ich mir noch bei der Devil und der Nitro anschauen muss ist das Thema RGB.... dass muss ohne Software ruhig zu stellen sein (aus)...

Edit:

was machen denn die 10GB VRAM bei der 3080 wenn man RT on und DLSS on schaltet? Da stellt sich die Karte selber ein Bein...
 
sorry, meine 6800xt war weit besser als eine 3080... Eine 3080 kann kein ausschlaggebender Punkt sein in 2025.
Naja, guck dir sämtliche UE 5 Spiele in 4k mit RayTracing an!

Dort liegen zwischen der 3080 und der 9070xt teils maximal 10-20% und das bei 50 vs. 60 FPS, was mit VRR kaum spürbar ist und dabei hängt die 3080 oft im Vram Limit. Texturen eine Stufe runter und die GPU liefert noch mal deutlich höhere Werte.
 
Das Ganze "Spiel" zu nennen ist schon interessant!
1150 Spielstunden in 2 Jahren, und da sind nichtmal die PTU Server mitgezählt. Zusammen bestimmt 1500 Spielstunden, davon 200h letzte 2 Monate :d
Wenn dass kein Spiel ist weiß ich auch nicht :d Bugs hab ich übrigens kaum. Für eine Alpha echt gut.
Und das einzige Spiel was deine CPU und GPU gleichermaßen fordert. Aber okay BTT.
Schade, die RayTracing Leistung ist je nach Spiel immer noch sehr schwach :/.

Gerade wo langsam Spiele RayTracing voraus setzen bringt mich das immer noch ins Grübeln. Irgendwie sind ~750€ dann schon eine ordentliche Summe, wenn man von einer 3080 10gb kommt und in manchen Szenarien (4k, max RayTracing) am Ende kaum Mehrleistung sieht.
Haben wir die selben Tests gesehen :d ?
1741214278506.png

In Prozenten sieht dass dann so aus.
1741214310939.png

Hier noch Rachet & Clank
1741214385988.png

Hier noch Dragon Age Veilguard
1741214445018.png

Aber okay in Pro Nvidia Titeln wie Cyberpunk, ist der Fortschritt nicht so Riesig.
1741214482855.png
 
Ich erkenne zwischen Ultra und Hoch oft keinen Unterschied - dafür sinkt der Vram bedarf oft um 30-50%...
Beitrag automatisch zusammengeführt:

Haben wir die selben Tests gesehen :d ?
Bei UE 5 Spielen (die aktuell ja sehr verbreitet sind) sieht das ganz anders aus, zumindest laut den Benches hier.
 
@Madschac
Für dich ist dann eher eine RTX 5070ti was, sobald sie mal günstig und verfügbar wird.
RX 9070XT kann Raytracing zwar okay, aber Nvidia hat halt Dedizierte Kerne die nur Raytracing machen.
Bei Radeon übernehmen dass weiterhin die normalen Shader. Ist Ökonomischer in der Produktion so.
Weil man immer alle Shader der Karte verwendet, egal ob man Raytracing nutzt oder nicht. Spielt man mit einer Geforce ohne Raytracing (So wie ich nur Star Citizen), liegen halt Shader brach und es ist so gesehen Verschwendung für diesen Fall, da ewig ungenutzte hardware verbaut.
 
Ich erkenne zwischen Ultra und Hoch oft keinen Unterschied - dafür sinkt der Vram bedarf oft um 30-50%...
Beitrag automatisch zusammengeführt:


Bei UE 5 Spielen (die aktuell ja sehr verbreitet sind) sieht das ganz anders aus, zumindest laut den Benches hier.
also bei einer 3080? sorry aber ich verstehe nicht worauf du hinaus willst.

um was geht es denn jetzt genau?
 
Geschickt gemacht dass alle Testseiten eine andere Kombination an Karten zum Testen bekommen haben.

Meine Frage:
PowerColor 9070 XT Red Devil ODER Asrock 9070 XT Taichi

wenn wichtig:

leise (von Haus aus)
leise (mit manuellem Tuning)
Karte ist nicht direkt auf Kante genäht (mangels viel UV/OC Tests weiß das keiner)
Wahrscheinlichkeit auf späteren Wasserkühler >0%

Beide haben DualBiosBei der Taichi ist RGB per Schalter abschaltbar.
 
Gerade wo langsam Spiele RayTracing voraus setzen bringt mich das immer noch ins Grübeln. Irgendwie sind ~750€ dann schon eine ordentliche Summe, wenn man von einer 3080 10gb kommt und in manchen Szenarien (4k, max RayTracing) am Ende kaum Mehrleistung sieht.

Also ich muss das nun doch mal zitieren....

Spiele setzen also RayTracing voraus? Welche?

3080 10GB kommt in (manchen Szenarien) 4K, max RT keine Mehrleistung der 9070XT erkennt? Oder wie?

Also verstehen kann ich es nicht!

4k max RT dürfte wohl das Terrain einer 4090/5090 sein, oder welche Settings, mal Augenkrebs außen vor, laufen da mit 3080?
 
Also die Benches hier im Review vom Luxx zu den RDNA4 Karten?
also bei einer 3080? sorry aber ich verstehe nicht worauf du hinaus willst.

um was geht es denn jetzt genau?

Lords of the Fallen (4k, max Detail inklu. RayTracing)

Lords of the Fallen 4k max.jpg


Stalker 2 (4k, max Detail inklu. RayTracing)

Stalker 2 4k RayTracing.jpg



Wukong läuft sogar langsamer auf der 9070 XT...liegt nahe, dass dies bei allen UE 5 Spielen ähnlich
aussehen wird und das ist die Engine, mit der in den nächsten Jahren die meisten großen Spielen
laufen werden.
Beitrag automatisch zusammengeführt:

Also ich muss das nun doch mal zitieren....

Spiele setzen also RayTracing voraus? Welche?

3080 10GB kommt in (manchen Szenarien) 4K, max RT keine Mehrleistung der 9070XT erkennt? Oder wie?

Also verstehen kann ich es nicht!

4k max RT dürfte wohl das Terrain einer 4090/5090 sein, oder welche Settings, mal Augenkrebs außen vor, laufen da mit 3080?

Das neue Doom benötigt zwangsweise RT

Wenn hohe statt ultra Texturen, Schattenauflösung auf mittel (Rest idR. maximal) und DLSS Balanced für dich
Augenkrebs bedeutet, dann riskiere ich wohl ständig zu erblinden. Mit diesen Settings läuft jedes Spiel ohne
RT mit 60FPS+ und wo die 3080 an RT scheitert tuen es die neuen AMD Karten größtenteils ebenfalls. Außer
man spielt mit FSR Ultra-Leistung bzw. DLSS Ultra-Leistung.

Verstehst du worauf ich hinaus will? 2-3 Regler eine Stufe runter oder 700-800€ ausgeben für alles Maximal
um auf sehr ähnliche FPS zu kommen...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh