Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für mich schwierig zu sagen, ob es sich lohnt. Ich kann mir schon vorstellen, dass zukünftige Treiberanpassungen die gemessenen Werte noch einmal in Bewegung nach oben bringen. Auf jeden Fall ist bei AMD das Raytracing noch nicht wirklich ausgereift, bzw. hat NV die Nase deutlich vorne. Bei 4K Auflösung hat AMD auch so seine Probleme. Na ja, vielleicht nächste Generation. :fresse2:
 
Das wars mit dem erhofften Preisverfall für die 4080/4090. :fresse2:
Naja, das die 4090 nicht im Preis fallen wird war doch eigentlich vorher klar, da konkurrenzlos. Bestenfalls steigt der Euro weiter im Wert, bei 1,20 USD ist eine 4090 dann auch für um die 1600 € zu haben.
 
Betrachte ich den test auf cb, flopt die rx 7900 xtx komplett, entweder Treiber Probleme oder das chiplet Design hat zu viele Baustellen in dieser gen

Selbst in CB's Parkour ist die Raster Leistung im Durchschnitt äquivalent, ob das ein Flop ist kommt halt auch darauf an wie wichtig einem Tiny Tinas Wonderland ist, nicht das man da nicht Kritik ausüben könnte weil die Treiber allem Anschein in klassischer Manier Luft nach oben haben.
 
Allgemein scheinen die min-FPS auch etwas arg wild zu sein, oder?
Gibt es da ne Theorie, woran das liegt? Oft sind die min-fps geringer, als bei GPUs, die 1-2 Zeilen tiefer liegen bei avgFPS.

Gibt es ein Review, bei dem darauf eingegangen wird, mit einer Theorie?

Edit: Cyberpunk 2077 in 1440p hat die XTX geringere min fps als die 2080 TI, wtf?
Bedenke es ist ein komplett neues Chipletdesign, Treiber und Software werden da wohl noch so einige kleine Kriegen führen in Zukunft.
 
der Idle Verbrauch der RX 7900 XTX mit satten 35,3 W kann nur ein Scherz sein
Bis zu 130Watt Idle Verbrauch sogar, je nach Monitor.
Laut AMD ein Bug, den sie fixen wollen beizeiten. Scheint bei 4k@144hz Monitoren irgendwie besonders extrem zu sein.
Bei LTT zeigen sie da ne Tabelle mit verschiedenen Monitoren. 52 Watt ohne Monitor und 170 oder 180 bei nem 144hz Monitor.
 
Ich denke die Karten werden noch zulegen, ist leider wieder ein Bananentreiber der beim Kunden reift.
 
die würde nicht mal einer kaufen wenn sie unter 1k kosten würde :fresse:
Ich schau auch nicht täglich auf die Preise, und checke mehrere Stores um zufällig so einen tollen Schnapper zu finden.
Liegt mitunter auch daran dass ich kein Upgrade plane.

PS: und 1,4 ist halt nicht "deutlich" ich werd mich auch nicht auf meine alten Jahre dran gewöhnen weit mehr als 1k für ne GPU zu bezahlen. Aktuell spiele ich nur SWGemu^^
 
Auf der positiven Seite scheint RDNA 3 etwas besser zu performen, wenn man im CPU Bottleneck spielt.
Ist natürlich die Frage, wie viele Leute das machen,... da hab ich leider keine Daten zu gefunden. Persönlich dreh ich die Settings hoch, wenn die GPU sich langweilt.
 
@Don liegt es an mir, oder ist die Seite da gerade komplett falsch...
 

Anhänge

  • Bildschirmfoto vom 2022-12-12 15-50-13.png
    Bildschirmfoto vom 2022-12-12 15-50-13.png
    28,1 KB · Aufrufe: 168
Ist halt die erste Generation mit MCM.
Darauf kann und sollte man aufbauen.

hat aber seine Schwächen. Hoffentlich sind die irgendwann ausgebügelt und bei der nächsten Generation sieht man dann nen größeren Schritt nach vorne.
 
Das kann doch nicht deren ernst sein ??!!!! 😖
:ROFLMAO: :poop:(n)🙈
 

Anhänge

  • leilux.JPG
    leilux.JPG
    10,7 KB · Aufrufe: 411
Ich hatte ja Bedenken beim Kauf der 4090, aber wenn ich das sehe... das ist ne herbe Enttäuschung.

Tragen wir mal die Fakten zusammen, insbesondere gegen die 4080 welche ja wie ein Stein in den Regalen liegt.

Die UVP sind 1149€ vs. 1399€, es liegen also 250€ zwischen den beiden Karten.
Für 250€ weniger bekommt man eine Karte, die je nach Auflösung etwa 3-5% mehr Rasterleistung bringt, dafür aber mit RT knapp 25% verliert und im Workstation Betrieb irgenwo zwischen 10-100% langsamer als die 4080 ist. Weiterhin:
- Kein DLSS
- kein 10-bit OpenGL
- höhere Leistungsaufnahme
- nur GDDR6 und kein GDDR6X

Weiterhin gelten die 1149€ nur für die Ref Karten, die richtigen AIB Karten liegen nochmal mindestens 100€ darüber.
Dann haben wir also eine 7900XTX TUF für 1249€+ gegen eine 4080 TUF für 1469€.

Warum sollte ich wegen etwa 15% Preisunterschied all diese Nachteile hinnehmen und habe auf einmal ein gutes Produkt, während die 4080 in allen Bereichen verflucht wird? Die 7900XTX ist bestenfalls so uninteressant wie die 4080, wenn nicht sogar noch schlimmer.
Und Framengeneration vergessen, das Ding hat dermaßen potenzial in Zukunft, weil es schlicht die meisten kommenden AAA Games unterstützen werden, funktioniert in Titel wie A Plague Tale Requiem oder Portal RTX schon jetzt ausgezeichnet - damit legt eine 4080 mal eben mindestens die doppelten Frames obendrauf, schade, dass das nicht mit getestet und gezeigt wird in den Tests, es gehört meiner Meinung schlicht mit dazu, seit es das gibt!
 
Und Framengeneration vergessen, das Ding hat dermaßen potenzial in Zukunft, weil es schlicht die meisten kommenden AAA Games unterstützen werden, funktioniert in Titel wie A Plague Tale Requiem oder Portal RTX schon jetzt ausgezeichnet - damit legt eine 4080 mal eben mindestens die doppelten Frames obendrauf, schade, dass das nicht mit getestet und gezeigt wird in den Tests, es gehört meiner Meinung schlicht mit dazu, seit es das gibt!
Ist doch DLSS.
 
Erkenntnis des Tages; die XTX ist in Puncto Preis/Leistung genauso gut oder schlecht wie die 4080.
 
Nun ja, Framegeneration ist ja aber auch ohne DLSS bzw. DLSS Skalierung und auch ohne Raytracing nutzbar - die meisten verbinden DLSS ja damit, dass in einer niedrigeren Auflösung gerendert und dann eben hochskaliert wird auf die native Auflösung des Bildschirms, was ja AMD mit FSR auch bietet. Viele wissen aber schlicht nicht, dass ich mal als Beispiel genannt "A Plague Tale Requiem" in nativer Auflösung zocken kann, z. B. in UHD, wo die 4080 um die 50 Frames liefert, Framegeneration dazu schalte und dann um die 80 - 90 Bilder habe. Und natürlich lässt sich das dann eben auch zusätzlich noch mit der DLSS Skalierung und Raytracing kombinieren.
 
Zuletzt bearbeitet:
Mag sein das AMD mit den Treibern nachlegen kann, aber die Karten müssen jetzt rund laufen, wo sie überall getestet werden, nicht erst in ein paar Monaten.

Ich werde mit meiner 6900xt diese Generation aussetzten, wobei wenn dann nächstes Jahr der Standard Preis bei 2000€ angekommen ist, sollte man vielleicht doch jetzt noch zuschlagen 😅
 
Rasterleistung sehr ok, Raytracing eben ne Katastrophe für eine neue Gen, die jetzt ja zwei drei Jahre zuhause halten soll - aber gut, für die AMD Fans ja eh egal, die brauchen ja alle kein Raytracing bzw. es ist laut deren Aussage immer total überbewertet !

Ich sage nur eine Gen Vorsprung... Dafür ist die RT Leistung ordentlich... Wäre ja so als ob nVidia die 3090 RT Leistung bei der 2080 gehabt hätte 🤷🏻‍♂️ klar ist es langsamer, aber durchaus gut im Vergleich. Einfach Mal auf dem Teppich bleiben und sachlich vergleichen.
 
Ich sage nur eine Gen Vorsprung... Dafür ist die RT Leistung ordentlich... Wäre ja so als ob nVidia die 3090 RT Leistung bei der 2080 gehabt hätte 🤷🏻‍♂️ klar ist es langsamer, aber durchaus gut im Vergleich. Einfach Mal auf dem Teppich bleiben und sachlich vergleichen.
Fühlst du dich angegriffen, ich bin dermaßen sachlich, glaubst du gar nicht!
 
Fühlst du dich angegriffen, ich bin dermaßen sachlich, glaubst du gar nicht!
Ne ich magst nur nicht wenn man nicht sachlich an Sachen heran geht. Erstmal ignore... Schlimm solche Menschen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh