Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wenn das Leistungsplus echt nur so gering ist, werd ich mir auf jeden fall locker die 700€ Aufpreis für das Upgrade von meiner 6800XT sparen.
Solch ein Ergebnis bei 3Dmark ist schon echt lächerlich, wenn sich das nicht in den ersten paar Wochen ändert.
Edit: Meine FSE und TS Graphik Scores mit meiner 6800XT mit dem 255W und 293W Setting.
293W FSE: 27144
293W TS: 20375
255W FSE: 26181
255W TS: 19602
Habe nahezu die gleiche Punktzahlt bei ebenso nahezu dem gleichem Verbrauch mit meiner 6800XT.
War daher über die Zahlen der 7900XT sehr sehr verwundert...
Es gab schon 24-25 K auf 69/50 XT im Timespy. Es bleibt also abzuwarten. Ich würde mit mindestens 50 % Mehrleistung rechnen. Dann würde sich die Karte auch wo man sie erwarten würde um die 30 K einordnen.
Habe nahezu die gleiche Punktzahlt bei ebenso nahezu dem gleichem Verbrauch mit meiner 6800XT.
War daher über die Zahlen der 7900XT sehr sehr verwundert...
Rendern ist einfach keine Stärke von AMD, das wird sich auch nicht so schnell ändern. Daher leider für mich im Hauptsystem uninteressant, da ich hier Produktiv unterwegs sein muss. Und da ist eine optimierte 4090 einfach zwei bis drei Klassen besser. Ich fahre hier 2700Mhz GPU +1000 Speicher bei 0,9V beim Rendern. Dabei bleibt die Karte bei um die 210W. Den Blendertest macht sie dabei komplett passiv, rasselt aber leicht vor sich hin. Punkte sind dann:
Ich sehe in der 7900XTX/XT ein schöne Gamerkarte wenn für einen RT nicht so wichtig ist. Da wird sie sich auch, XTX, zwischen die 4080 und die 4090 schieben.
Ich sehe in der 7900XTX/XT ein schöne Gamerkarte wenn für einen RT nicht so wichtig ist. Da wird sie sich auch, XTX, zwischen die 4080 und die 4090 schieben.
Verstehe ich nicht... Können die kein RT oder wie? Ok in 4k muss man RT dann von supersinnvollem "ultimo" oder "ultraultimo" auf "high" stellen. Raster soll ja alles im Butter sein (?) und die FPS den Preisen entsprechend.
War das jetzt richtig? Oder sind sie in RT nur wenige % schneller als die 6000er?
Verstehe ich nicht... Können die kein RT oder wie? Ok in 4k muss man RT dann von supersinnvollem "ultimo" oder "ultraultimo" auf "high" stellen. Raster soll ja alles im Butter sein (?) und die FPS den Preisen entsprechend.
War das jetzt richtig? Oder sind sie in RT nur wenige % schneller als die 6000er?
Wenn ich mich recht entsinne haben die einfach keine Support dafür in der Architektur. NVIDIA hat seine Raytracing Cores, also ein bundle aus Transistoren die nur das machen. AMD muss halt über Treiber irgendwo die Funktionalität abstrahieren. Mit dieserr Generation kommt da sicherlich nichts, später evtl.. Chiplet Design bietet sich ja an für sowas. Wahrscheinlich steht das aber hinten an, da gibt es wichtigere Sachen. Z.B. Blender Support. Seit 3.0 tut sich da nicht viel.
Ja, aber nicht auf 3060 Lvl oder? Es gerüchtet 3090Ti bei der XTX und irgendwo zwischen 3090 und 3080Ti bei der XT.
Das schon, @Devron , bekommt man nicht über den Treiber... hinemuliert. Dafür müsste die sonstige allgemeine Rechenleitung dieser GPUs doppelt so hoch sein wie der 4090, um das hinzubekommen. Was ja klar ist, daß dem nicht so ist.
Kurze fragte. Entlastet RSR die CPU ?
Also wenn beispielsweise auf einem 1440p monitor nur 1080 Pixel gerendert werden müssen, wären das ja Grob 77% weniger Pixel die gerendert werden müssen.
Daher frage ich mich, ob das auch die CPU auslastung absenkt.
3080-90 Level sind zu erwarten. Die RT-Leistung wird bei AMD nicht der Knaller sein. Schon alleine weil die 4090 128 Einheiten hat und dazu ist NVIDIA noch voraus. Am Ende sehe ich aber auch nicht ein dafür so viel mehr zu bezahlen, eigentlich könnte ich auf das RT gänzlich verzichten. Die 3 Spiele wo das aktivierbar ist laufen am Ende sowieso ohne RT besser.
Kurze fragte. Entlastet RSR die CPU ?
Also wenn beispielsweise auf einem 1440p monitor nur 1080 Pixel gerendert werden müssen, wären das ja Grob 77% weniger Pixel die gerendert werden müssen.
Daher frage ich mich, ob das auch die CPU auslastung absenkt.
Eher andersherum, wobei prinzipiell jede Auflösung die CPU gleichviel belasten dürfte. Die Geometrie ist immer dieselbe. Wenn jedoch die Grafikkarte weniger Last hat muss die CPU mehr Frames vorbereiten, womit die Last bei niedriger Auflösung sogar steigt. Dafür gibt es dann aber auch mehr FPS.
Noch nie sowas gehört. Kann das jemand Bestätigen ?
Mir gehts um einen Fall wo meine CPU eh schon Limitiert, und ich deswegen Auflösung mittels RSR Reduzieren will damit weniger Pixel berechnet werden müssen, wovon ich mir verspreche, dass weniger CPU gebraucht wird. Ich hätte gedacht es macht im schlimmsten fall keinen unterschied, aber >Mehr< CPU last wenn ich eh schon im CPU limit bin ?
Nein, das hast du falsch verstanden. Die Last ist prinzipiell die gleiche, sie hängt aber auch von den zu rendernden Frames ab. Ein Frameratelimit kann sie begrenzen. Für die CPU ist es ansonsten eigentlich egal welche Auflösung berechnet wird, die Geometrie ändert sich ja nicht.
GIGABYTE Launches AMD Radeon™ RX 7900 Series Graphics Cards Built on the ground-breaking AMD RDNA™ 3 architecture with advanced AMD chiplet design December 9, 2022 – GIGABYTE TECHNOLOGY Co. Ltd, a leading manufacturer of premium gaming hardware, today announced the new AMD Radeon™ RX 7900 Series...
videocardz.com
Der nächste Hersteller mit Lieferbaren Karten zum 13-ten
Kurze fragte. Entlastet RSR die CPU ?
Also wenn beispielsweise auf einem 1440p monitor nur 1080 Pixel gerendert werden müssen, wären das ja Grob 77% weniger Pixel die gerendert werden müssen.
Daher frage ich mich, ob das auch die CPU auslastung absenkt.
Das rendern übernimmt die GPU, also nein.
Die GPU muss 77% weniger Pixel für das Ausgangsbild rendern, verliert aber wieder xx%, wenn sie aus diesem Bild das endgültige Bild mit der vollen Auflösung rendert. Inwiefern dabei auch die CPU helfen muss, die währenddessen eugentlich das nächste Bild vorbereiten müsste ... FSR braucht doch Daten zu Bewegungsvektoren usw? Die kann nur die CPU liefern.
Ich würde davon ausgehen das FSR hauptsächlich die GPU belastet, sich das aber über die Reduzierung der Auflösung im ersten Durchgang wieder reinholt.
Wie gut das ganze klappt hängt von vielen Faktoren ab. Probiers doch einfach aus.
Meine Erfahrung mit 3700x+1070Ti in diversen VR Spielen (4k@72-90Hz), vergiß den Matsch und reduzier lieber andere Einstellungen.
Bei RTX Karten oder AMD ist es vielleicht besser.
Dann bist du in deinem Gedankengang wohl zu früh hängen geblieben, denk den Ablauf doch mal durch.
Du willst aktuell mehr fps, aber deine CPU ist am Limit, reduzieren der GPU Last bringt da nix.
Was Niftu beschreibt, CPU bekommt weniger Last und rendert dadurch mehr Frames, ist ein eher hypothetisches Szenario, das du durch FSR nicht erreichen wirst.
Wenn deine CPU mehr Kerne hat als aktuell ausgelastet werden, sollte es zumindest keine Verschlechterung der fps bedeuten, die Optik ist eh Ansichtssache. FSR bedingt ja eine Art AA, keine Ahnung ob du sowas bereits aktiv hast?
Hatte einen Denkfehler.
Zb stiegen die FPS als ich die Schatten reduzierte stark an.
Aber wie ich später erfuhr, liegt es daran das Schatten in BF2042 sehr CPU lastig sind.
Ich bin von 70fps auf 97,9fps durchschnittlich gestiegen durch FSR AN + und Schatten Reduzierung, und dachte es liegt evtl auch am FSR, war aber wohl nur der Schatten der Grund.
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.