[Sammelthread] AMD RDNA3 Smalltalk-Thread

Blender Werte
Sieht schon Besser aus, die XTX 10 Prozent vor der XT
und die XTX knappe 40% schneller als 6950 XT

Wo? Aber Blender mag CUDA wohl auch oder? xD
1670599049605.png
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Blender Werte
Sieht schon Besser aus, die XTX 10 Prozent vor der XT
und die XTX knappe 40% schneller als 6950 XT

Naja Wenn man sich dagegen mal die 4080 und 4090 anschaut, sieht das auch nicht gerade gut aus für Amd
 
der abgesang auf amd geht vor offiziellen tests wieder los... wenigstens darauf kann man sich verlassen :bigok:
 
Wenn das Leistungsplus echt nur so gering ist, werd ich mir auf jeden fall locker die 700€ Aufpreis für das Upgrade von meiner 6800XT sparen.
Solch ein Ergebnis bei 3Dmark ist schon echt lächerlich, wenn sich das nicht in den ersten paar Wochen ändert.

Edit: Meine FSE und TS Graphik Scores mit meiner 6800XT mit dem 255W und 293W Setting.
293W FSE: 27144
293W TS: 20375
255W FSE: 26181
255W TS: 19602
Habe nahezu die gleiche Punktzahlt bei ebenso nahezu dem gleichem Verbrauch mit meiner 6800XT.
War daher über die Zahlen der 7900XT sehr sehr verwundert...
 
eine übertaktete 6900XT kommt schon auf 25/26k GPU Score und würde mit der 7900XTX gleichziehen.
Seltsam sehen die Werte allemal aus.

Meine Krüppelsechstausendachthundert kommt auf 22k
 
Es gab schon 24-25 K auf 69/50 XT im Timespy. Es bleibt also abzuwarten. Ich würde mit mindestens 50 % Mehrleistung rechnen. Dann würde sich die Karte auch wo man sie erwarten würde um die 30 K einordnen.
 
Habe nahezu die gleiche Punktzahlt bei ebenso nahezu dem gleichem Verbrauch mit meiner 6800XT.
War daher über die Zahlen der 7900XT sehr sehr verwundert...
Bei den Verbrauchswerten fehlt der Speicher aber wahrscheinlich ;) zumindest wenn das z.B. die Werte aus AB sind

Edit: ich glaube auch nicht dass die Resultate der 7900XT/X stimmen.
 
Rendern ist einfach keine Stärke von AMD, das wird sich auch nicht so schnell ändern. Daher leider für mich im Hauptsystem uninteressant, da ich hier Produktiv unterwegs sein muss. Und da ist eine optimierte 4090 einfach zwei bis drei Klassen besser. Ich fahre hier 2700Mhz GPU +1000 Speicher bei 0,9V beim Rendern. Dabei bleibt die Karte bei um die 210W. Den Blendertest macht sie dabei komplett passiv, rasselt aber leicht vor sich hin. Punkte sind dann:

1670600694779.png


Ich sehe in der 7900XTX/XT ein schöne Gamerkarte wenn für einen RT nicht so wichtig ist. Da wird sie sich auch, XTX, zwischen die 4080 und die 4090 schieben.

Beste Grüße
 
Es gab schon 24-25 K auf 69/50 XT im Timespy.
Die schnellsten Karten machen >28k. :fresse:
1670610745158.png

Das sind aber alles-was-geht-Benchsettings mit durchoptimiertem Windows und einstelligen Wassertemperaturen, also nicht vergleichbar.
 
Ich sehe in der 7900XTX/XT ein schöne Gamerkarte wenn für einen RT nicht so wichtig ist. Da wird sie sich auch, XTX, zwischen die 4080 und die 4090 schieben.
Verstehe ich nicht... Können die kein RT oder wie? Ok in 4k muss man RT dann von supersinnvollem "ultimo" oder "ultraultimo" auf "high" stellen. Raster soll ja alles im Butter sein (?) und die FPS den Preisen entsprechend.
War das jetzt richtig? Oder sind sie in RT nur wenige % schneller als die 6000er?
 
Etwa 3000er Niveau.
 
die sapphire werden auch dicke schinken

1670613624797.png
 
Verstehe ich nicht... Können die kein RT oder wie? Ok in 4k muss man RT dann von supersinnvollem "ultimo" oder "ultraultimo" auf "high" stellen. Raster soll ja alles im Butter sein (?) und die FPS den Preisen entsprechend.
War das jetzt richtig? Oder sind sie in RT nur wenige % schneller als die 6000er?
Wenn ich mich recht entsinne haben die einfach keine Support dafür in der Architektur. NVIDIA hat seine Raytracing Cores, also ein bundle aus Transistoren die nur das machen. AMD muss halt über Treiber irgendwo die Funktionalität abstrahieren. Mit dieserr Generation kommt da sicherlich nichts, später evtl.. Chiplet Design bietet sich ja an für sowas. Wahrscheinlich steht das aber hinten an, da gibt es wichtigere Sachen. Z.B. Blender Support. Seit 3.0 tut sich da nicht viel. :cry:
 
Etwa 3000er Niveau.
Ja, aber nicht auf 3060 Lvl oder? Es gerüchtet 3090Ti bei der XTX und irgendwo zwischen 3090 und 3080Ti bei der XT.

Das schon, @Devron , bekommt man nicht über den Treiber... hinemuliert. Dafür müsste die sonstige allgemeine Rechenleitung dieser GPUs doppelt so hoch sein wie der 4090, um das hinzubekommen. Was ja klar ist, daß dem nicht so ist.
 
Zuletzt bearbeitet:
Kurze fragte. Entlastet RSR die CPU ?
Also wenn beispielsweise auf einem 1440p monitor nur 1080 Pixel gerendert werden müssen, wären das ja Grob 77% weniger Pixel die gerendert werden müssen.
Daher frage ich mich, ob das auch die CPU auslastung absenkt.
 
3080-90 Level sind zu erwarten. Die RT-Leistung wird bei AMD nicht der Knaller sein. Schon alleine weil die 4090 128 Einheiten hat und dazu ist NVIDIA noch voraus. Am Ende sehe ich aber auch nicht ein dafür so viel mehr zu bezahlen, eigentlich könnte ich auf das RT gänzlich verzichten. Die 3 Spiele wo das aktivierbar ist laufen am Ende sowieso ohne RT besser.
Kurze fragte. Entlastet RSR die CPU ?
Also wenn beispielsweise auf einem 1440p monitor nur 1080 Pixel gerendert werden müssen, wären das ja Grob 77% weniger Pixel die gerendert werden müssen.
Daher frage ich mich, ob das auch die CPU auslastung absenkt.
Eher andersherum, wobei prinzipiell jede Auflösung die CPU gleichviel belasten dürfte. Die Geometrie ist immer dieselbe. Wenn jedoch die Grafikkarte weniger Last hat muss die CPU mehr Frames vorbereiten, womit die Last bei niedriger Auflösung sogar steigt. Dafür gibt es dann aber auch mehr FPS.
 
Eher andersherum
Wenn die Grafikkarte weniger Last hat muss die CPU mehr Frames vorbereiten, womit die Last bei niedriger Auflösung sogar steigt.
Noch nie sowas gehört. Kann das jemand Bestätigen ?
Mir gehts um einen Fall wo meine CPU eh schon Limitiert, und ich deswegen Auflösung mittels RSR Reduzieren will damit weniger Pixel berechnet werden müssen, wovon ich mir verspreche, dass weniger CPU gebraucht wird. Ich hätte gedacht es macht im schlimmsten fall keinen unterschied, aber >Mehr< CPU last wenn ich eh schon im CPU limit bin ?
 
Nein, das hast du falsch verstanden. Die Last ist prinzipiell die gleiche, sie hängt aber auch von den zu rendernden Frames ab. Ein Frameratelimit kann sie begrenzen. Für die CPU ist es ansonsten eigentlich egal welche Auflösung berechnet wird, die Geometrie ändert sich ja nicht.
 
3080-90 Level sind zu erwarten. Die RT-Leistung wird bei AMD nicht der Knaller sein.
Ich sehe immernoch eine Hardware wo man RT-Effekte auf "High" stellen kann ohne daß die FPS zusammenklappen.
 
Kurze fragte. Entlastet RSR die CPU ?
Also wenn beispielsweise auf einem 1440p monitor nur 1080 Pixel gerendert werden müssen, wären das ja Grob 77% weniger Pixel die gerendert werden müssen.
Daher frage ich mich, ob das auch die CPU auslastung absenkt.
Das rendern übernimmt die GPU, also nein.
Die GPU muss 77% weniger Pixel für das Ausgangsbild rendern, verliert aber wieder xx%, wenn sie aus diesem Bild das endgültige Bild mit der vollen Auflösung rendert. Inwiefern dabei auch die CPU helfen muss, die währenddessen eugentlich das nächste Bild vorbereiten müsste ... FSR braucht doch Daten zu Bewegungsvektoren usw? Die kann nur die CPU liefern.
Ich würde davon ausgehen das FSR hauptsächlich die GPU belastet, sich das aber über die Reduzierung der Auflösung im ersten Durchgang wieder reinholt.
Wie gut das ganze klappt hängt von vielen Faktoren ab. Probiers doch einfach aus.
Meine Erfahrung mit 3700x+1070Ti in diversen VR Spielen (4k@72-90Hz), vergiß den Matsch und reduzier lieber andere Einstellungen.
Bei RTX Karten oder AMD ist es vielleicht besser.
Beitrag automatisch zusammengeführt:

Noch nie sowas gehört. Kann das jemand Bestätigen?
Dann bist du in deinem Gedankengang wohl zu früh hängen geblieben, denk den Ablauf doch mal durch.
Du willst aktuell mehr fps, aber deine CPU ist am Limit, reduzieren der GPU Last bringt da nix.
Was Niftu beschreibt, CPU bekommt weniger Last und rendert dadurch mehr Frames, ist ein eher hypothetisches Szenario, das du durch FSR nicht erreichen wirst.
Wenn deine CPU mehr Kerne hat als aktuell ausgelastet werden, sollte es zumindest keine Verschlechterung der fps bedeuten, die Optik ist eh Ansichtssache. FSR bedingt ja eine Art AA, keine Ahnung ob du sowas bereits aktiv hast?
 
Zuletzt bearbeitet:
Das rendern übernimmt die GPU, also nein.
Hatte einen Denkfehler.
Zb stiegen die FPS als ich die Schatten reduzierte stark an.
Aber wie ich später erfuhr, liegt es daran das Schatten in BF2042 sehr CPU lastig sind.
Ich bin von 70fps auf 97,9fps durchschnittlich gestiegen durch FSR AN + und Schatten Reduzierung, und dachte es liegt evtl auch am FSR, war aber wohl nur der Schatten der Grund.
 
7900XT/XTX early Benchmark


 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh