Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Es reicht schon eine Stufe meist macht es keinen optischen Unterschied, gerade bei Schatten und SSAO.
Ja genau das ist mein persönlicher Kritikpunkt.
In vielen Games gibt es eben diese Hardware Breaking Settings die kaum was machen (zumindest wenig sichtbar), aber einfach nur Leistung brauchen.
Sollte man darüber nachdenken auch beim Benchmark. Gamers Nexus hatte sich mal bei Cyberpunk die Mühe gemacht unterschiedliche Custom Settings zu testen und die Auswirkung auf Performance/Optik auszuwerten. Das Resultat war halt eben krass, was man da raus holen konnte. (zwischen mit RT ohne DLSS nicht spielbar <30FPS zu 50FPS+ ohne DLSS), kaum Unterschiede in der Optik.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also, wie ich zuvor schon einmal schrieb, die 4090 ist ein monstrum. sie hat über 50% mehr cuda cores als die 3090 ti.
Die 4080 hat weniger CUDA Kerne als die 3090Ti, schlägt sie aber trotzdem in jedem Szenario.

1671198765233.png

Ich erwähne es nur, weil du die CUDA Kerne der anderen Karten auch markiert hast und dich nur rein auf die Anzahl stützt, obwohl man gleichzeitig auch die Leistung ins Verhältnis setzen muss. Vom Stromverbrauch brauchen wir gar nicht erst anfangen.

1671198928902.png

Wenn man Ada dann noch untervoltet, sind die Grafikkarten einfach unschlagbar effizient.
 
Bei "Total System Power Consumption" fehlt mir immer was.Man kann keinen Verbrauch vergleichen wenn man nicht weiß was das ergebnis der jeweiligen Karte ist.Die eine macht z.b 100FPS die andere 15FPS.Und wie lässt sich da die Effizienz ermitteln?
Hier hast du die FPS dazu.

1671201292025.png

Nächste Mal bitte nicht so hilflos und selbst auf den HWU Kanal gehen. Hauptsache Beitrag erstellen und rumschnauzen. In der einen Minute, wo du den Beitrag erstellt hast, hättest du auch selbst gucken können.
 
Rein auf den Preis betrachtet, hat die 4090 das schlechteste P/L-Verhältnis, zumindest rein auf Kosten und FPS betrachtet. Nimmt man verschiedenen Charts zusammen, ist die 4090 in 4K rund 30% besser als eine 4080, kostet aber über 50% mehr.
Preis / Leistung juckt halt weniger, wenn man sich eh über 1k befindet.
Ob ich jetzt 1300 zahle, oder 2000, macht eigentlich keinen Unterschied mehr. Beide Preise tun weh, aber einer davon verhindert Kompromisse, der andere nicht.

Dass die 4090 überhaupt annähernd in der selben P / L Klasse liegt, OBWOHL sie das Haloprodukt ist, ist ja eher unerwartet und nicht die Norm.
P/L wird immer schlechter, je höher man bei der Leistung kommt. In jedem Bereich eigentlich, nicht nur GPUs.

Wenn man nur auf P/L schauen würde, müsste ja jeder die xx50 kaufen, oder bei AMD die X400er.
Und da wird ja wohl kaum jemand argumentieren, dass die tolle Deals sind hehe.
 
für 699 EUR wäre die 4080 ein No Brainer.
für sagen wir nach Inflation nun 899, würde ich auch noch mitgehen. Da gehört sie auch hin. Nur gibt es da das Problem das die ganzen 3070-3080-3080ti-3090 dann alle noch massiver im preis fallen müssten und das will NVIDIA nicht, weil sicher noch ein Haufen 30X0 im Lager rumliegt und man nun erstmal für 1 Jahr den Markt räumen muss. Allein aus Effizienz vs 4080 würde ich aktuell im leben keine XT oder XTX kaufen. das fühlt sich an wie VEGA.
4nm von NVIDIA sind halt unglaublich gut.
 
für 699 EUR wäre die 4080 ein No Brainer.
für sagen wir nach Inflation nun 899, würde ich auch noch mitgehen. Da gehört sie auch hin. Nur gibt es da das Problem das die ganzen 3070-3080-3080ti-3090 dann alle noch massiver im preis fallen müssten und das will NVIDIA nicht, weil sicher noch ein Haufen 30X0 im Lager rumliegt und man nun erstmal für 1 Jahr den Markt räumen muss. Allein aus Effizienz vs 4080 würde ich aktuell im leben keine XT oder XTX kaufen. das fühlt sich an wie VEGA.
4nm von NVIDIA sind halt unglaublich gut.
Ja und unglaublich teuer und zum Teil langsamer :)
 
Ja und unglaublich teuer und zum Teil langsamer :)
"Unglaublich", lol. Für 200€ mehr bekommt man das bessere Gesamtpaket. Und im Gegensatz zu AMD hat NVidia noch ne echte 4k RT Schnitte im Brotkasten. DIE ist zwar in der Tat "unglaublich teuer" aber eben auch unangefochten.
 
"Unglaublich", lol. Für 200€ mehr bekommt man das bessere Gesamtpaket. Und im Gegensatz zu AMD hat NVidia noch ne echte 4k RT Schnitte im Brotkasten. DIE ist zwar in der Tat "unglaublich teuer" aber eben auch unangefochten.
Ja für meist über 20% teurer in der Rohleistung langsamer aber dafür besser in raytracing + dlss 3.0 und effizienter. Kann jeder selber entscheiden was er kaufen möchte.

Die 4090 ist unangefochten ja
 
Ja für meist über 20% teurer in der Rohleistung langsamer aber dafür besser in raytracing + dlss 3.0 und effizienter. Kann jeder selber entscheiden was er kaufen möchte.

Die 4090 ist unangefochten ja
So sieht es aus.
 
Dadurch das man zwar jetzt schnell teurer geworden ist und die Leistung sich wieder extrem gesteigert hat... werden wir mit den nächsten Generationen dank PCIE5.0 (x8) wohl wieder SLI/Crossfire bzw. Multi GPU wieder ein Thema sein.
 
Dadurch das man zwar jetzt schnell teurer geworden ist und die Leistung sich wieder extrem gesteigert hat... werden wir mit den nächsten Generationen dank PCIE5.0 (x8) wohl wieder SLI/Crossfire bzw. Multi GPU wieder ein Thema sein.
Hmpf weiß nicht. Wenn es irgendeine Möglichkeit gäbe SLI zu realisieren hätten sie es schon getan. Bei dem Gedanken alleinstehenden Gutverdienern gleich zwei 4090 verkaufen zu können cremt sich doch das gesamte Shareholderpack in die Hose.

Das Problem wird wahrscheinlich tiefer gehen und würde soviel devtime und support sowie PR fressen dass es sich nicht lohnt. Und da müssen die Probleme schon übel sein.
 
Preis / Leistung juckt halt weniger, wenn man sich eh über 1k befindet.
Ob ich jetzt 1300 zahle, oder 2000, macht eigentlich keinen Unterschied mehr. Beide Preise tun weh, aber einer davon verhindert Kompromisse, der andere nicht.

Dass die 4090 überhaupt annähernd in der selben P / L Klasse liegt, OBWOHL sie das Haloprodukt ist, ist ja eher unerwartet und nicht die Norm.
P/L wird immer schlechter, je höher man bei der Leistung kommt. In jedem Bereich eigentlich, nicht nur GPUs.

Wenn man nur auf P/L schauen würde, müsste ja jeder die xx50 kaufen, oder bei AMD die X400er.
Und da wird ja wohl kaum jemand argumentieren, dass die tolle Deals sind hehe.
Ich finde 1100 zu 2100 machen schon einen deutlichen Unterschied. Das ist aber auch immer persönliches Empfinden. Wer die Kohle hat, soll sich gönnen. Die X50 und X400 haben übrigens mit das schlechteste P/L.
für 699 EUR wäre die 4080 ein No Brainer.
für sagen wir nach Inflation nun 899, würde ich auch noch mitgehen. Da gehört sie auch hin.
Für 899 hätte ich direkt eine gekauft. Aber weit über 1 K ist für das Gebotene nicht drin. Bei AMD gibt es immerhin 24 GB obwohl sie 250 € weniger kostet. Das sehe ich nicht ein dafür 1400+ zu zahlen. Kompromisse macht man so oder so, selbst bei der 4090, aber der Abstand ist einfach zu groß. Das RT ist auch kaum ein Argument wenn ich sowieso mit DLSS (Upscaling) spielen muss.

Vega ist es auch nicht, mit der 4080 kann sie durchaus konkurrieren nur verbraucht sie mehr Strom. Dafür gibts zum Teil aber auch gute Mehrleistung gegenüber der 4080.
 
... werden wir mit den nächsten Generationen dank PCIE5.0 (x8) wohl wieder SLI/Crossfire bzw. Multi GPU wieder ein Thema sein.
Rede doch kein Unsinn! Selbst Nvidia und INTEL werden auf Chiplets umstellen, im Moment ist es die Technik der Zukunft.

Man kann sagen, dass RDNA3 ähnlich wie ZEN2 war, der erste Schritt, danach folgte ja ZEN3, so ähnlich wird es möglicherweise mit RDN4 sein!:geek::geek::poop::poop::poop:
 
Jo wird wohl nie gefixt dieser Bug.😜
 
Rede doch kein Unsinn! Selbst Nvidia und INTEL werden auf Chiplets umstellen, im Moment ist es die Technik der Zukunft.

Man kann sagen, dass RDNA3 ähnlich wie ZEN2 war, der erste Schritt, danach folgte ja ZEN3, so ähnlich wird es möglicherweise mit RDN4 sein!:geek::geek::poop::poop::poop:
Ja, so sehe ich es auch. SLI ist kacke und wir können froh sein wenn es das als single-GPU gibt. Vor allem wird man mit Chiplets riesige und bezahlbarere GPUs bauen können. Das Ganze kommt nur mit dem Preis dass viel Entwicklungsaufwand nötig ist bevor die schlimmsten Probleme behoben sind.

Wir können außerdem froh sein dass AMD überhaupt im High-End konkurriert. 2020 kam die 5700 XT, die selbst die 2080(S) nicht schlug - Wobei sie dafür auch nicht vorgesehen war. Im High-End hatte AMD lange Jahre gar nichts mehr. Manche haben ja sogar bezweifelt dass RDNA2 konkurrieren wird - Was es letztendlich aber tat. Und die XTX ist leistungsmäßig verdammt geil, zumindest muss sie sich vor der 4080 nicht verstecken.
 
Was es letztendlich aber tat. Und die XTX ist leistungsmäßig verdammt geil, zumindest muss sie sich vor der 4080 nicht verstecken.
Rein auf Leistung betrachtet, keineswegs. Allerdings was Effizienz betrifft, schon. Sowohl Stock vs Stock, als auch UV vs UV.
 
Und bei zwei Monitoren?

1x 4K 75hz
1x Full HD 60hz
 
So lange das so aus sieht ist das eine Voll Katastrophe!
Das ist ein no no was da ab 120HZ passiert.
Der Preis Vorteil geht für die Betroffenen die viel mit dem PC surfen komplett den Bach runter.
Da könnte sich sogar bei manchen mit der Zeit die 4080 ehr rechnen .
Da sind mal versteckte kosten würde ich sagen!
Je nach Stromanbieter den man hat kann das heute schnell teuer werden.
 
Zuletzt bearbeitet:
Und bei zwei Monitoren?
Multi-Monitor Setup wird definitiv Richtung min. 50w hinauslaufen. Hatte die Problematik schon mit der 6900XT und 6950XT. Wüsste keinen Grund, warum das nun weniger sein sollte.
 
So lange das so aus sieht ist das eine Voll Katastrophe!
Das ist ein no no was da ab 120HZ passiert.
Der Preis Vorteil geht für die Betroffenen die viel mit dem PC surfen komplett den Bach runter.
Da könnte sich sogar bei manchen mit der Zeit die 4080 ehr rechnen .
Da sind mal versteckte kosten würde ich sagen!
Je nach Stromanbieter den man hat kann das heute schnell teuer werden.
Wobei, lässt du deinen Monitor im Desktop auf 120Hz oder mehr laufen? Ich habe bei meinem Samsung einfach zwei Profile angelegt, die man per Knopfdruck wechseln kann. Ein 4K 60Hz für den Alltag und ein 4K 144Hz mit aktiviertem GSync zum Zocken.
 
Vor allem im Desktop Modus empfinde ich die 144hz als Luxus. Weiß jemand was die 4080/4090 im Desktop bei 144hz verbraucht?
 
Die wirken wie ein Balkonkraftwerk und Speisen 100w ins Stromnetz ein.
 
Wobei, lässt du deinen Monitor im Desktop auf 120Hz oder mehr laufen? Ich habe bei meinem Samsung einfach zwei Profile angelegt, die man per Knopfdruck wechseln kann. Ein 4K 60Hz für den Alltag und ein 4K 144Hz mit aktiviertem GSync zum Zocken.
So einen Aufwand würde ich nicht betreiben. Dann lieber ganz ausschalten. Und Monitor aus nach 5 Minuten. Ansonsten Laptop zulegen, das spart viel Strom und brauchbare Geräte gibts für ~200 €.
Vor allem im Desktop Modus empfinde ich die 144hz als Luxus.
Das sind sie, genauso wie die High-End-Karten. Aber so einen High-Performance-PC holt man sich auch nicht zum Stromsparen. Man sollte ihn nur nicht den ganzen Tag laufen lassen. Oder beispielsweise für Downloads - Dafür habe ich mir zB auch den Laptop geholt. Der zieht ~10 W und man kann damit die ganze Nacht downloaden wenn nötig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh