[Sammelthread] AMD RDNA3 Smalltalk-Thread

Solange AM5 als Plattform nicht günstiger wird, wird da anfangs vermutlich kein riesen Wechselfeuerwerk abbrennen. Und die X3D sind zumindest aktuell super preisstabil.
Man könnte höchstens hoffen, dass AMD von allem Kram zuviel bestellt/produziert hat, weil der PC Markt grad implodiert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist durchaus ein berechtigter Einwand. Aktuell schiebe ich die Entscheidung vor mir her. Aber nur wegen WoW einen 5800X3D zu kaufen, wo ich dann in anderen Games evtl. kaum bis gar keine Mehrleistung ggü. dem 5900X habe, lohnt nicht.

Da die 7000er X3D wohl schon um die Ecke stehen, muss ich mir mal die Testberichte dazu durchlesen und dann entscheiden.
Merken wirst du es schon und kosten tut es dich wahrscheinlich nichts momentan.
 
Ich hab mir neulich die ASRock 7900 XTX Aqua gegönnt. Der Preis war sicher übertrieben, aber man gönnt sich ja sonst nichts.
Hier gelesen, dass die Taichi wenig Spulenfiepen hat und richtig drauf gefreut. Mit meinem MoRa ist es bisher immer schön ruhig gewesen 🙂.

Und nun eine riesen Enttäuschung. Das Spulenrasseln ist heftig. Ungefähr so laut wie das klicken meiner mech. Tastatur, wenn man da richtig am tippen ist.
Man hat das Gefühl, dass es jederzeit plopp machen kann und eine Spule platzt.

Ich hoffe also dass dies als Defekt gilt und ich die umgetauscht bekomme. Habe Mal ein Video davon an MF geschickt. Mal sehen wie lange ich auf Ersatz warten müsste, wenn das mit dem Umtausch klappt ...

Also eventuell habe ich nur ein Montagsprodukt, oder auch ASRock kann richtig Spulenrasseln haben.
 
Also ein Umtausch ist denke ich schwierig. Das wird eigentlich nicht als defekt anerkannt. Läuft ja einwandfrei.

Daher: zurück damit. Das geht ja 14 Tage lang und würde ich dann an deiner Stelle das Ding zurück schicken, denn glücklich wirst du ja nicht damit.
 
Ich hab mir neulich die ASRock 7900 XTX Aqua gegönnt.
Hier gelesen, dass die Taichi wenig Spulenfiepen hat und richtig drauf gefreut. Und nun eine riesen Enttäuschung. Das Spulenrasseln ist heftig.

... oder auch ASRock kann richtig Spulenrasseln haben.
Freunde, @alle, das Spulen -rasseln, -fiepen, etc. ist ein relativ zufälliges Problem und kein Feature, welches ein Hersteller einbaut und der andere nicht.
Du kannst nicht irgendwo hören, z.B. ASUS fiepen mega und AS Rock ist leise und dann davon ausgehen, dass die ein allgemeingültiges Prinzip ist, welches für alle Karten dieser Hersteller gilt. So eine Vorstellung ist schlichtweg Blödsinn. Wenns so einfach wäre, dann gäbs irgendwo ne Liste und die schlechten Hersteller wären bereits vom Markt verschwunden.
 
Das was ApolloX schreibt stimmt schon auch. Trotzdem hat das Platinenlayout auch mit einen Einfluss darauf. Sprich was für Wandler, wie viele werden verbaut, was für andere Bauteile werden genutzt usw... selbst das Mainboard kann Einfluss aufs Fieben nehmen. Genauso das Netzteil...

Zumindest kann man je nach Modell und PCB schon eine leichte Tendenz abgeben was etwas mehr oder weniger zum Spulefieben neigt... generell zu sagen Asus fiept und Asrock nicht ist so nicht korrekt...
 
Freunde, @alle, das Spulen -rasseln, -fiepen, etc. ist ein relativ zufälliges Problem und kein Feature
Nunja ich denke niemand hat von Feature gesprochen.
Und das ganze hat sicherlich physikalische Hintergründe und dann war es das mit dem Zufall. Eventuell ließe sich das mit geringeren Toleranzen der Komponenten Herr werden. Oder das genannte Platinenlayout. Auch eine Messung des Schalldrucks (bei angehalten Lüfter) während des acceptance-tests wäre möglich und dann wird da eben nur alles durchgelassen, was nicht über einem bestimmten Wert liegt.
Natürlich wäre da der Kostenfaktor, aber gerade bei den High-End Karten der Hersteller (in dem Fall Taichi/Aqua) könnten sie schon, wenn sie wollten.
Es gibt natürlich viele Faktoren die da noch mitspielen, aber vielleicht ließe sich so trotzdem das meiste rausfiltern. Und dann kommt es eben drauf an, was der Hersteller macht/bestellt.

Ich würde also nicht unbedingt von Blödsinn sprechen.
Somit sind wir Kunden gefragt, Produkte die wirklich dermaßen "schlecht" sind, nicht zu akzeptieren.


Mein Satz war etwas überspitzt geschrieben, aber sollte eben auch anderen klar machen, dass die Karten von ASRock eben auch fiepen können. Somit wollten wir schon die gleiche Message rüberbringen.
 
Zuletzt bearbeitet:
Merken wirst du es schon und kosten tut es dich wahrscheinlich nichts momentan.
Ich hatte es auch überlegt, doch bei 4K scheitn es praktisch nichts zu bringen. Mich würde einzig mal interessieren wie zB die Min-FPS in Spielen wie Vermintide 2 aussehen gegen einen 5900X.
 
Aber nur wegen WoW einen 5800X3D zu kaufen, wo ich dann in anderen Games evtl. kaum bis gar keine Mehrleistung ggü. dem 5900X habe, lohnt nicht.
Falls du SMT an hast versuch mal das aus zu machen. Je nach Spiel kann SMT off wunder bewirken. Ich habe das in Games meistens aus. Außer so Titel wie Battlefield zum Beispiel profitieren wieder von SMT. Zusätzlich könntest du noch RAM OC versuchen. Hilft im CPU Limit zusätzlich.

TEST SMT OFF KLICK
 
Zuletzt bearbeitet:
Timespy Ergebnisse des oberen Runs:
XT mit 355W & Wattman 2788 MHz 1,04V mit 2650 MHz Fast Timings: https://www.3dmark.com/spy/34877975 (25802)
XTX mit 364W & Wattman 2900 Mhz 1,10V mit 2660 MHz Fast Timings: https://www.3dmark.com/spy/34895894 (29941)
Kleine Aktualisierung nach mehreren Tagen testen, jetzt endgültig stabile Gamesettings:
Wattman 3067 MHz 1111 mV mit 2660 MHz Fast Timings:
Gigabyte RX 7900 XTX Gaming OC mit 327W Timespy: https://www.3dmark.com/3dm/87824377 (29117)
Gigabyte RX 7900 XTX Gaming OC mit 364W Timespy: https://www.3dmark.com/3dm/87823940 (29917)
Gigabyte RX 7900 XTX Gaming OC mit 418W Timespy: https://www.3dmark.com/3dm/87823638 (31190)

27,8% mehr Stromverbrauch (418W vs. 327W) gibt nur 7,1% mehr Performance. 11,3% mehr Stromverbrauch (364W vs. 327W) gibt nur 2,7% mehr Performance.
Gegenüber der XT Merc nun 12,8% höhere Performance mit 8% weniger Stromverbrauch.
Somit bleibt die Karte nun auf -10% und im Sommer wird dadurch weniger geschwitzt (y)
 
Mit deinem setting komme ich bei 346W auf 31400 Pkt.
Seltsam.
 
Ja TBP.
Kann ich erst heute abend : )
 
Gestern kam endlich die Karte an. Hier mal meine Eindrücke von der Karte an sich und vom Wechsel Nvidia zu AMD. (alte Karte war eine 3080 TUF die ich geliebt hab) Wechselgrund war nicht nur mehr Leistung sondern auch Freesync Premium Pro für den Dell Monitor.

Die Karte an sich hat mir auf Bildern nie so richtig gefallen. Aber live macht sie schon einiges her. Sie wirkt sogar recht elegant und die Beleuchtung ist angenehm dezent. Auch wirkt sie sehr wertig verarbeitet. Ich muss wirklich sagen, dass ich positiv überrascht bin von der Einstiegskarte. Die Lüfter sind tatsächlich hörbar wenn sie voll aufdrehen. Es ist jetzt nicht super unangenehm aber gegen die TUF im Silent Bios stinkt es voll ab. Werde da definitiv noch nachsteuern müssen. Allerdings bleibt sie dadurch auch recht Kühl und Spulenfiepen ist sehr dezent in meinen Ohren. Sogar noch leiser als die TUF.

Der Wechsel vom NVIDIA zu AMD war etwas holprig. Vorher mit DDU alles von Nvidia rausgehauen und dann Adrenalin versucht zu installieren. Habe leider den Hacken gemacht bei "Auf Werkseinstellungen zurücksetzen" damit ich einen sauberen Start in die Sache habe. Leider wurde dann der Bildschirm schwarz und blieb schwarz. Auch Neustart half nix. Nach bissl hin und her habe ich dann ein Bild über die iGPU bekommen und konnte Adrenalin fertig installieren. Dann kam auch ein Bild über die XT. Meine NZXT AiO hat bissl gebraucht eh sie die Temperatur der GPU anzeigen konnte. Jetzt geht es aber ohne Probleme. Dann hatte ich bei jedem Neustart erstmal direkt einen Treiberabsturz. Es hing (scheinbar) mit dem Alienware Command Center zusammen. Nachdem das eine Reparatur bekommen hat blieben die Abstürze bisher aus.

Adrenalin ist auch etwas gewöhnungsbedürftig. Es wirkt natürlich viel moderner als das NCP aber moderner ist nicht zwingend besser. Im NCP findet man sich relativ fix zurecht und weil es halt nicht viel zu schauen gibt. Im Adrenalin muss ich gefühlt erstmal durch irgendwelche obskuren Reiter klicken bis ich die gesuchten Optionen gefunden habe. Wenn man sich erstmal dran gewöhnt hat wird es wahrscheinlich kein Problem mehr sein. Die automatischen Treiberupdates sind aber eine tolle Sache und gefühlt kann ich mit Adrenalin vieles machen wo ich bei Nvidia einen Drittanbieter brauche.

Dann natürlich in paar Games den Benchmark laufen lassen. Tatsächlich war der Schub nach oben voll okay. Es war jetzt nicht atemberaubend wie es wahrscheinlich mit der XTX geworden wäre aber gerade für 1440p war eigentlich schon die 3080 "good enough". Weil ob ich bei Division 2 nun 120 oder 140 fps hab und in Rainbow statt 280 nun 320 oder so interessiert eigentlich nicht mehr großartig. Cyberpunk war von den FPS her schlechter im Benchmark. Bin mir nicht so sicher warum. Wohl eine Mischung aus RayTracing und DLSS. Was aber auffiel: Die Graka wird viel besser ausgelastet als mit der 3080. Irgendwie hat die 3080 bissl Probleme gehabt mit dem 7600X. So zB in Division 2 und in World War Z war die Auslastung teilweise grottig. Jetzt harmoniert alles wunderbar und die Graka ist immer gut ausgelastet.

Probleme bisher: In Division 2 hat das Gelb des Menüs eine ganz komische Farbe bekommen sobald HDR aktiviert ist. Hab noch nicht rausfinden können woran das liegt. Mit der 3080 sah es immer supi aus in HDR.
Auch wird die Karte bei mir recht warm. Kriecht bei guter Auslastung und mit allen Lüftern locker über 60°. Problem ist aber glaube auch das Lian Li O11 in Verbindung mit einer AIO. Zudem hatte ich hier und da ein kurzes Stockern. War nicht wirklich reproduzierbar und trat auch nur sehr vereinzelt auf. Werde das weiter beobachten aber denke das wird sich mit der Zeit geben. Allerdings eins ist merkwürdig. Der Bandbreitenbenchmark von 3DMark spuckt einen sehr niedrigen Wert von 22GB/s aus. Der Benchmark startet mit ~24 und fällt zum Ende hin auf ~20 ab. Mit der 3080 hatte ich da über 26GB/s. Jetzt frage ich mich natürlich woher das kommt und ob das ein Anzeichen für ein Problem ist. Am Ende vertragen sich einfach der Bechmark und RDNA3 nicht. :(

Alles in allem freue ich mich über moderate 20% mehr Leistung und Freesync Premium Pro für meinen Alienware Monitor. Ist auch cooles Gefühl jetzt mal alles Team Red zu haben und die Hardware aufeinander abgestimmt zu wissen.
 
Zuletzt bearbeitet:
Was ich immer noch gerne im Treiber aktiviere ist sharpening auf 100%.
Das war schon 2080ti zu 6800xt ein Unterschied wie Tag und Nacht. Gerade be BF oder Hunt wirkt alles gestochen scharf und nicht so verwaschen wie auf der 2080ti und der 3070.
 
Was ich immer noch gerne im Treiber aktiviere ist sharpening auf 100%.
Das war schon 2080ti zu 6800xt ein Unterschied wie Tag und Nacht. Gerade be BF oder Hunt wirkt alles gestochen scharf und nicht so verwaschen wie auf der 2080ti und der 3070.
Ist das nur in Games oder auch auf dem Desktop? Hatte das auch kurzeitig an und irgendwie sah dann eine Webseite komisch aus. Da habe ich es gleich deaktiviert und nicht mehr mit rumgespielt.
 
Läuft tadellos und ich will's nicht mehr missen.
 
Ist das nur in Games oder auch auf dem Desktop? Hatte das auch kurzeitig an und irgendwie sah dann eine Webseite komisch aus. Da habe ich es gleich deaktiviert und nicht mehr mit rumgespielt.
du kannst es auch für jede Anwendung unabhängig einrichten, zB nur für ein bestimmtes Spiel

War ein Punkt den ich bei der 7900XTX von meinem Kumpel direkt einrichten musste^^
 
Ah cool dann werde ich das nochmal testen. Danke für die Hinweise. :) Also im Grunde einfach das Gamerprofil auswählen und gut ist? ^^#
 
Was ich immer noch gerne im Treiber aktiviere ist sharpening auf 100%.
Das war schon 2080ti zu 6800xt ein Unterschied wie Tag und Nacht. Gerade be BF oder Hunt wirkt alles gestochen scharf und nicht so verwaschen wie auf der 2080ti und der 3070.
genau deshalb nutze ich gerne reshade mit dem cas filter bei nvidia karten. nvidia schärfen ist einfach rotz. auch das vom dlss.
 
@RedF TBP? Poste halt mal den Link, dann sieht man die Taktraten.
365wATT.jpg

https://www.3dmark.com/3dm/87856025
 
@RedF
Du meintest es sollen 346W TBP sein, aber HWInfo zeigt 366W. 20W mehr. 100% Lüfter sind auch nicht praxistauglich.
Bei deinem Run hast du auch maximal 0,895V Spannung, was weniger ist als bei mir mit eingestellten 1111 mV. Vlt. hat dein vBIOS eine andere Spannungskurve oder MCT hat Diskrepanzen zu Wattman, wobei ersteres wohl wahrscheinlicher ist.

Insgesamt zu viel Unterschiede, um da annähernd einen Vergleich ziehen zu können.
 
Zuletzt bearbeitet:
Ob's jetzt 364 oder 366 sind (346 war ein Dreher). Die Lüfter sind 3 Arctic P12 also auf 100 nicht weiter störend.

Warum die Unterschiede im reporting, keine Ahnung.
Beitrag automatisch zusammengeführt:

Gut 3d Mark hat MHz nie zuverlässig gezählt.
Beitrag automatisch zusammengeführt:

Ach und vieleicht hilft der CPU Wasserblock ja doch etwas auf der Backplate ^^
 
@RedF Bei den vergleichbarsten Runs (366W bei dir, 364W bei mir) war deine Durchschnittstaktrate 2584 MHz und bei mir nur 2512 MHz. 2,86% mehr Takt mit 4,9% mehr Performance.
Könnte bei mir schon leichtes Clock Stretching dabei sein, aber es scheint die Spannungskurve bei dir anders zu sein, ich schaue heute oder morgen mal nochmal, welche Maximalspannung bei mir anliegt mit 1111mV.
Temperatur könnte auch noch eine Rolle spielen, vlt. gönnt sich der Chip kühler etwas weniger Spannung, 39° unter Stresstest ist schon sehr wenig.
Daher auch meine Annahme, dass die 100% RPM nicht vergleichbar sind, jeder hat da ja sein eigenes Empfinden, wäre mir selbst mit Arctic P12 viel zu laut.
 
Ich wiederhole das auch nochmal mit Standard Lüfterkurve.
ASIC Qualität ist bei mir 43%.
Also eigentlich eher im unteren Bereich, was ja mehr Spannung braucht wie eine höhere Qualität.
 
Die Güte des GPU's kann man in GPU-Z Auslesen
 
Leakage ID oder ASIC Qualität.
Chips mit einer niedrigen Leakage ID brauchen mehr Spannung für einen bestimmten Takt wie ein Chip mit Hoher ID.
Können unter umständen aber effektiver sein, erreichen Hohe taktraten aber erst mit einer höheren Spannung.

Die ganze V/Hz kurve wird bei jedem neustart aus der ASIC Qualität berechnet.

In HWInfo summary kannst du sie sehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh