[Sammelthread] AMD RDNA3 Smalltalk-Thread

Mit Grafikkarten ist es ab und an getreu dem Motto: "Was der Bauer nicht kennt, frisst er nicht"...... Der kurze Ausflug hat mir das klar vor Augen geführt
Bei mir war es genau umgekehrt. Hatte drei AMD GPUs (6900XT, 6900XT mit XTXH und 6950XT) und überwiegend positive Erfahrungen gemacht. Der Wattman ist zeitgemäß und lässt viele nützliche Einstellung zu. Da kann sich Nvidia sicherlich das ein oder andere mal abgucken.

Eigentlich hätte ich gerne wieder AMD als GPU genommen, aber es gab halt einige Dinge, die mir massiv auf die Nerven gingen, die man mit Nvidia eben nicht hat. Der übertriebene idle-Verbrauch im Multi-Monitor-Betrieb ist da ein Punkt beispielsweise. Gut, der ist mittlerweile besser (nach über einem halben Jahr), aber auch nicht bei jedem User. Auf diese "Fine Wine"/ Beta-Tester-Geschichte habe ich keine Lust, wenn ich über 1.000€+ für ne GPU zahle.

Effizienz ist der nächste Punkt:
Bei 30 FPS fällt die GPU auf 188Watt auf 3840x1600... das hat Nvidia in der Form einfach nicht.
Die Einstellung speziell nicht, aber unter 200w ist bei Nvidia keine Kunst. Spiele auf 4K mit'm 120fps Cap. Bin mit meiner 4080 inkl. UV in den meisten Games (die ich spiele) bei 165-195w. In der Vergangenheit war das eigentlich ein Punkt, den AMD gut konnte (Effizienz sein), aber an die Effizienz von Lovelace kommt Radeon 7000 einfach nicht dran.


Das Bild ist bei Shootern deutlich klarer in Bewegung weil Freesync Premium Pro einfach besser funktioniert als G Sync kompatibel.
Kann ich jetzt nicht unbedingt bestätigen. Spiele nach wie vor auf meinen beiden Free Sync Premium Pro/ G-Sync kompatibel Monitoren und sehe da jetzt nicht wirklich einen nennenswerten Unterschied. Hab jetzt aber auch nicht großartig mit irgendwelchen Einstellungen diesbezüglich herumgespielt oder irgendwelche Ansprüche, die Competetive Gaming betreffen. War ehrlich gesagt immer zufrieden wie es war und mit Nvidia immer noch ist.


Ich vermisse gar nichts bei AMD, sogar eher bei Nvidia, bis vielleicht auf Frame Generation in Cyberpunk 2077, aber auch nur im Pathtracing, das wars.
Beide Hersteller haben ihre Vor- und Nachteile. Ich selbst bin Befürworter von FSR/ DLSS und FG und nutze es immer, wenn es verfügbar ist, weil es den Verbrauch deutlich verbessert. Während man bei AMD nur FSR nutzen kann, kann man mit ner Nvidia-GPU DLSS, FG und FSR nutzen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Einstellung speziell nicht, aber unter 200w ist bei Nvidia keine Kunst. Spiele auf 4K mit'm 120fps Cap. Bin mit meiner 4080 inkl. UV in den meisten Games (die ich spiele) bei 165-195w. In der Vergangenheit war das eigentlich ein Punkt, den AMD gut konnte (Effizienz sein), aber an die Effizienz von Lovelace kommt Radeon 7000 einfach nicht dran.

Jo mit viel Fummelei für den Endkunden über Drittanbieter Software. Chill ist ein einfaches Feature im Treiber, idiotensicher. Wie ist denn dein Verbrauch bei Total War: Warhammer 3, das würde mich mal interessieren? (wenn du das hast) Wenn ich das Taktziel der 7900 XTX runterdrehe, kann die auch sehr effizient, wenn auch nicht auf Ada Niveau.

Kann ich jetzt nicht unbedingt bestätigen. Spiele nach wie vor auf meinen beiden Free Sync Premium Pro/ G-Sync kompatibel Monitoren und sehe da jetzt nicht wirklich einen nennenswerten Unterschied. Hab jetzt aber auch nicht großartig mit irgendwelchen Einstellungen diesbezüglich herumgespielt oder irgendwelche Ansprüche, die Competetive Gaming betreffen. War ehrlich gesagt immer zufrieden wie es war und mit Nvidia immer noch ist.

Das Bild ist in hektischen Situationen mit viel Kamerabewegung deutlich klarer als es bei der 4080 mit G-Sync kompatibel der Fall war. Ich hatte den direkten Vergleich an einem Tag und es ist ein Unterschied wie Tag und Nacht. Das ist eine subjektive Erfahrung, nachdem ich morgens mit der 4080 Hunt gezockt hab und nachmittags mit der 7900XTX. Die Kombination aus Freesync Premium Pro und Radeon GPU halte ich nach der Erfahrung in meinem Anwendungsfall für deutlich überlegen.

Beide Hersteller haben ihre Vor- und Nachteile. Ich selbst bin Befürworter von FSR/ DLSS und FG und nutze es immer, wenn es verfügbar ist, weil es den Verbrauch deutlich verbessert. Während man bei AMD nur FSR nutzen kann, kann man mit ner Nvidia-GPU DLSS, FG und FSR nutzen.

Das ist so, allerdings geht mir Nvidia mit seinem propietären Ansatz schon immer auf den Zeiger und gängelt sogar die eigene Kundenschaft -> DLSS 3 nur auf 40er Serie ist da ein Beispiel. Uns als Enthusiasten juckts vielleicht nur bedingt, für die meisten Leute die sich alle 5 Jahre Mal ne GPU kaufen ist das schon eine Sauerei. Warten wir was AMD mit FSR 3 im Gepäck hat, auch wenn ich hier keine Wunder erwarte. Bei AMD kann man auch noch XeSS nutzen wenn es angeboten wird.
 
Jo mit viel Fummelei für den Endkunden
Naja, als "viel Fummelei" würde ich das jetzt nicht unbedingt bezeichnen. Ist ja nur ein Programm (Afterburner). Sich HWinfo als Beispiel zu installieren, um seine Systemdaten zu loggen, würde ich genauso wenig als "viel Fummelei" bezeichnen. Sicherlich könnte man sich auch darüber auskotzen, dass die Boardhersteller das nicht so toll hinbekommen, macht aber auch keiner. Der Wattman macht das schon ganz gut und auch besser als NV, aber das hatte ich bereits gesagt.

Es mir ging mir da nur um dein Zitat: "Was der Bauer nicht kennt, frisst er nicht". Ich bin der Bauer, der es kennt und habe gerade deswegen wieder zu Team Grün gewechselt.


Chill ist ein einfaches Feature im Treiber, idiotensicher.
Für uns vielleicht. Keiner aus meinem Freundes- und Bekanntenkreis stellt im Wattman irgendwas ein (auch bei NV nix). Das interessiert die alle nicht und die wollen sich damit auch nicht auseinandersetzen bzw. eine Raketenwissenschaft draus machen. Die schalten den PC ein und starten ihr Game, so wie die meisten Durchschnitts-User. Betrachtet man dann den Verbrauch Stock vs Stock, zeigt sich die Effizienz von RTX 4000 deutlich, sehr deutlich. Die entsprechenden Charts spare ich mich jetzt an der Stelle.


Wie ist denn dein Verbrauch bei Total War: Warhammer 3, das würde mich mal interessieren?
Hab das Spiel nicht.


Ich hatte den direkten Vergleich
Ich auch und kann das eben nicht bestätigen. Trotz dessen, dass ich überwiegend Single-Shooter spiele (FC, GRBP, CP etc.). Hab vor einigen Tagen sogar probeweise auf einem Non-Gsync Monitor (S2722DGM) gezockt und selbst das ging wunderbar, ohne Tearing oder sonst was (V-Sync off).


as ist so, allerdings geht mir Nvidia mit seinem propietären Ansatz schon immer auf den Zeiger
Das geht mir auch auf den Sack. Deswegen hoffe ich, dass AMD mit der neuen Gen nochmals gut was drauflegt und hoffentlich wieder die Effizienz in den Fokus nimmt. Dann wechsel ich gerne wieder. Vorausgesetzt auch so Sachen wie Office-Verbrauch im Multi-Monitor-Betrieb usw. funktionieren zuverlässig und flächendeckend.


Bei AMD kann man auch noch XeSS nutzen wenn es angeboten wird.
Genauso wie bei Nvidia, aber sind wir doch mal ehrlich... wen interessiert das schon. Das kann man nicht als ernsthaftes Argument sehen. Wüsste jetzt nicht mal, welches Spiel XeSS als exklusives Feature hat.
 
Naja, als "viel Fummelei" würde ich das jetzt nicht unbedingt bezeichnen. Ist ja nur ein Programm (Afterburner). Sich HWinfo als Beispiel zu installieren, um seine Systemdaten zu loggen, würde ich genauso wenig als "viel Fummelei" bezeichnen. Sicherlich könnte man sich auch darüber auskotzen, dass die Boardhersteller das nicht so toll hinbekommen, macht aber auch keiner. Der Wattman macht das schon ganz gut und auch besser als NV, aber das hatte ich bereits gesagt.

Es mir ging mir da nur um dein Zitat: "Was der Bauer nicht kennt, frisst er nicht". Ich bin der Bauer, der es kennt und habe gerade deswegen wieder zu Team Grün gewechselt.

Mit den Bauern waren eher die User gemeint, die seit 20 Jahren Nvidia Karten kaufen und sich nie groß mit Radeon befasst haben. Wer UV/Effizienz Artikel in Hardware Foren schreibt, den würde ich eher als Enthusiasten einordnen :d

Ich glaube wir wissen um die Stärken/Schwächen beider, dass du mit mir nicht mitgehen kannst was die Freesync vs. G Sync kompatibel Performance betrifft ist ok. Da ist ja auch viel Subjektivität dabei, meiner Erfahrung nach läufts einfach schöner und für mich ist das ein Resultat daraus erstmal nur noch auf Radeon zu setzen, bis Nvidia offiziell Adaptive Sync als Standard ansieht.
 
Müsste ich eine Empfehlung aussprechen ob RTX 4080 oder AMD 7900XTX, wäre es die RTX 4080.
Weil die wenigsten sich mit der Hard-/Software tiefgreifender beschäftigen. Treiber installieren und ggf. das ein oder andere Feature (DLSS z.B. oder G-Sync etc.) aktivieren und einfach loszocken.

Dabei bin ich mit meiner 7900XTX durchweg zufrieden, hab aber für die unterschiedlichsten Games ein jeweiliges Profil im Treiber.
Dazu kommt das man einige Features nicht in dem Profil hinterlegen kann, wie ein Framerate Target oder Radeon Chill, diese müssen immer wieder manuell aktiviert werden.
Es wäre ein riesiger Komfortgewinn, wenn man diese in einem Profil hinterlegen könnte.

Der AMD Treiber ist vom Aufbau dem von NV deutlich überlegen, aber eben auch noch lange nicht Perfekt.
 
Dazu kommt das man einige Features nicht in dem Profil hinterlegen kann, wie ein Framerate Target oder Radeon Chill, diese müssen immer wieder manuell aktiviert werden.
Es wäre ein riesiger Komfortgewinn, wenn man diese in einem Profil hinterlegen könnte.
@hellm Anregungen fürs MCT ...?
 
@hellm Anregungen fürs MCT ...?
Will hellm nicht vorgreifen, aber das wird wohl nicht gehen, da das MCT auf dieselbe ADL Library zugreift wie der Treiber. Und die Einträge KMD_FRTE und KMD_Chill existieren zwar unter dem Grafikkarteneintrag im bekannten Registrypfad (und sind auch editierbar), aber eben nur global, also einmal pro Karte.

AMD müsste das wohl ändern. Ich fände es ebenfalls gut.
 
Zuletzt bearbeitet:
Der beste Verbesserungsvorschlag ist , daß MPT für RDNA3 wieder zuzulassen .
 
Genau das hab ich ihnen gerade reingeschrieben.
 
Der beste Verbesserungsvorschlag ist , daß MPT für RDNA3 wieder zuzulassen .
Ich frage mich ob das so einfach ist. AMD hat wahrscheinlich seine Gründe warum sie das Tool nicht für die aktuelle Gen zulassen.
Mir würde es bereits reichen, wenn ich die TBP nicht nur um 10% reduzieren könnte sondern z.B. um 20% und ein Framelimit für jeden Spiele-Titel einzeln im Profil hinterlegt werden könnte, immer hin unterstützen das nicht alle Games, schon gar nicht die älteren ;)

Was mir sonst noch auffiel an meiner RX 7900XTX, ist das sie weit feinfühliger ist als meine RX 6900XT, was UV/OC etc. betrifft und es schneller/häufiger zu Driver-Timeouts kommt als bei der Last-Gen.
Ein Rockstable UV/OC-Setting zu finden nimmt deutlich mehr Zeit und Aufwand in Anspruch als es bei der RX 6900XT der Fall war, zumindest in meinem Fall.
Wobei ich das nicht als großen Kritikpunkt sehe.
 
Ich frage mich ob das so einfach ist.
Das ist eine Frage des Wollens, nicht des Könnens.

AMD hat wahrscheinlich seine Gründe warum sie das Tool nicht für die aktuelle Gen zulassen.
Ganz bestimmt. Zu schreiben, was ich von ihren möglichen Gründen halte, würde vermutlich Forenregeln verletzen.

Was für ein hübscher Euphemismus.

Ein Rockstable UV/OC-Setting zu finden nimmt deutlich mehr Zeit und Aufwand in Anspruch als es bei der RX 6900XT der Fall war
Das muss ein Scherz sein. Oder es kommt von jemandem, der sich nie ernsthaft mit dem MPT befasst hat. Es gibt jetzt doch nur noch drei Regler zu verschieben. Hätte ich eine Hauskatze, würde ich sie darum bitten, das für mich zu erledigen. :fresse:
 
Zuletzt bearbeitet:
Also mit MPT ist es natürlich deutlich aufwändiger, ich wollte nur keine Äpfel mit Birnen vergleichen. Dazu kommt das es viel Hilfestellung gibt bei dem MPT was die Einstellungen etc. betrifft davon hab ich dann auch nochmal zusätzlich profitieren können :)
Das MPT hab ich über 3 oder 4 Tage eingestellt und getestet, und habe ein für mich und meine Karte passendes Setting ;) andere haben Wochen oder gar Monate damit verbracht. Soviel Zeit kann und will ich dann auch nicht dafür aufbringen :)

Meine RX 7900XTX hab ich jetzt 3 Monate und hab teilweise immer noch Driver-Timeouts ... vor allem bei MW2 und dem letzten Mitseason-Update ... :wall: auch komplett @Stock :fire:
 
Ja die 7900XTX ist beim UV/OC schon ne richtige Ziege. Da will jedes Game einzeln ausgetestet werden.

Einmal Zeit Spion langt leider nicht mehr.
 
Ich vermisse meine 6800xt. Hatte zwar weniger Leistung, aber war überhaupt keine Zicke. Die 7900xtx geht natürlich ab wie deine Hauskatze auf Steroiden, aber mit der 6800xt hab ich viel lieber gekuschelt. Die 7900xtx ist schon nervig teilweise beim uvoc.
 
Oh mann, da hab ich wieder was losgetreten heute, mit diesem Spion ...
 
Mir würde es bereits reichen, wenn ich die TBP nicht nur um 10% reduzieren könnte sondern z.B. um 20% und ein Framelimit für jeden Spiele-Titel einzeln im Profil hinterlegt werden könnte, immer hin unterstützen das nicht alle Games, schon gar nicht die älteren ;)

Du kannst Chill für jeden Spieltitel einzeln konfigurieren. Machst hat den max und min FPS Regler gleich, dann hast du deinen Framelimiter
 
Du kannst Chill für jeden Spieltitel einzeln konfigurieren. Machst hat den max und min FPS Regler gleich, dann hast du deinen Framelimiter
War mir vorher gar nicht bewusst und hab mal kurz nachgeguckt, vielen Dank ;)
 
860 € für ne Custom, da kann man doch echt nicht meckern. Ich hab 1150 für die originale Sapphire MBA bezahlt. Dafür bekommt man abert auch eine ganze Menge Leistung.

Das einzige Problem das ich habe ist dass SteamVR manchmal aussteigt. Ich weiß nicht ob es an der Karte oder am Oculus Airlink liegt. Das sind aber echt Luxusprobleme. Stundenlange BF1-Sessions o.ä. gehen ohne Probleme.

Der Wattman spinnt manchmal, das kann aber auch am Afterburner liegen. Wichtig ist die Fankurve im Wattman.
 
Für ne aktuelle AMD soll man ja auch keinen AB nutzen, weils eben immer wieder solche Problemchen gibt.
 
Der Afterburner kann doch auch nicht mehr als der wattman. Von daher ist Afterburner einfach überflüssig.
 
Im Zusammenspiel beider lese ich immer wieder von Problemen, also bei aktuellen AMD Finger weg vom AB.
Bei Radeon HD nutz ich den aber gerne.
 
Neue Treiber 23.7.2, oder bin ich zu langsam ?
 

Screenshot 2023-07-26 094131.png

Ah, dann kann ich mit meinem Dualboot-Win 10/11 hoffentlich aufhören, unter den Schreibtisch zu krabbeln und ratlos den DP-Stecker von Port 1 in 2 und 3 und zurück zu stecken. :fresse2:

War das zuvor als "Known Issue" gelistet? :hmm:
Beitrag automatisch zusammengeführt:

Was anderes: Hat in letzter Zeit mal jemand Radeon Boost mit einer Navi 3X-Karte getestet? Die grünen Punkte oben links während der Aktivität sind schon mal nicht mehr da. Ich habe den Eindruck, dass es gar nicht mehr funktioniert (7900 XTX, 23.7.1, 23.7.2). Titelliste:

 
Zuletzt bearbeitet:
Neuer Treiber, scheint was gebracht zu haben. Sowas habe ich noch nie gesehen bei der XTX. Wohlgemerkt im vollen Idle, wenn man Videos abspielt ist der Verbrauch immer höher. Die Zeiten wo die Karte standardmäßig über 100 W zog sind aber schon seit Monaten vorbei. Es ist gut zu sehen dass AMD trotzdem nochmal nachbessert.
Ah, dann kann ich mit meinem Dualboot-Win 10/11 hoffentlich aufhören, unter den Schreibtisch zu krabbeln und ratlos den DP-Stecker von Port 1 in 2 und 3 und zurück zu stecken. :fresse2:
Das würde erklären wieso manchmal mein HDMI weg ist. Dann kann man den PC eigentlich nur neu starten oder muss den Port wechseln. Oder das Bild flackert dann. Doch wenn es das Kabel wäre müsste es am anderen Port dann ja auch flackern? Das Kabel ist 2 m und ziemlich neu.
 

Anhänge

  • sss.JPG
    sss.JPG
    9,9 KB · Aufrufe: 46
Zuletzt bearbeitet:
Was war hiermit? Mag das mal jemand testen, bitte? 🙏
Ich hab CP2077 getestet, da läuft kein Radeon Boost.
FH5 wollte ich noch ausprobieren, aber das stürzt ab ... unabhängig vonRadeon Boost ...
Heute Abend schau ich mal ob es in RE2/3 & CoD MW2 funktioniert.
 
Danke fürs Testen. Von den genannten Spielen ist nur Cyberpunk 2077 und Resident Evil 3 in der Liste unterstützen Spiele wie oben verlinkt. Die anderen brauchst du darauf hin nicht zu prüfen.

Ich hatte CP2077, SOTTR und BL3 versucht, ohne Erfolg. Sofern in den Adrenalin-Einstellungen Toast-Benachrichtigungen aktiviert sind, wird aktives Radeon Boost nach Spielstart kurz rechts oben angezeigt. Das wars aber auch.

Der Test, mit dem ich Boost prüfe: FPS-Overlay mit hoher Pollrate aktivieren, Spielfigur ruhig hinstellen und Fps merken. Dann sehr schnelle Mausbewegungen durchführen, bis der ganze Bildschirm verwischt und dabei Fps beobachten. Bei einer Boostrate von 50 % im Treiber sollten die Fps etwa um diesen Betrag ansteigen. Das tun sie nicht.
 
Zuletzt bearbeitet:
In CP2077 konnte ich wie bereits gesagt keinen FPS und Auflösungseinfluss feststellen.
Bei RE3 ebenfalls nicht. Statt FH5 hab ich Halo Infinite ausprobiert, dort gibt es einen kleinen FPS-Gewinn, in der von mir genutzten Szene hab ich 125 FPS im Stillstand, bei schneller Mausbewegung ändert sie sich und sinkt auf teilweise 112 FPS geht aber auch gern kurz auf 130+, bei aktiviertem Radeon Boost steigt sie auf 130+ FPS und bleibt auch solange die Maus in Bewegung ist konstant auf dem Niveau.

Boostrate = 50% Polingrate = 0,25 eingestellt gewesen, RE3 und Halo waren auf Max-Settings inkl. RT @ max.

Weitere Titel die Radeon Boost unterstützen hab ich aktuell nicht installiert.
 
Moin,

gefühlt habe ich mit dem neuen 23.7.2 wieder das Problem erhöhter Idle Leistungsaufnahme?! Wo die Karte vorher schön auf 7W im Idle runterging, bin ich nun wieder bei über 40W. Kann das jemand bestätigen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh