Mit Chiplets, RDNA 3 und Größe ist nicht alles: Die Radeon RX 7900 XTX und XT im Test

Was mich komplett vom Kauf abhält 100 Watt Stromverbrauch im Desktop wenn mann 144hz monitore einsetzt.

Moment!! Also NUR wenn man einen 144hz Monitor hat??
Kann ich nicht bestätigen...hier @4k 144HZ bin ich bei ~23W TBP
Screenshot 2022-12-17 121954.jpg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
High idle power has situationally been observed when using select high resolution and high refresh rate displays.
Dieser Bug wird von manchen behandelt als wäre er in stein gemeißelt.
 
So einen Aufwand würde ich nicht betreiben. Dann lieber ganz ausschalten. Und Monitor aus nach 5 Minuten. Ansonsten Laptop zulegen, das spart viel Strom und brauchbare Geräte gibts für ~200 €.

Das sind sie, genauso wie die High-End-Karten. Aber so einen High-Performance-PC holt man sich auch nicht zum Stromsparen. Man sollte ihn nur nicht den ganzen Tag laufen lassen. Oder beispielsweise für Downloads - Dafür habe ich mir zB auch den Laptop geholt. Der zieht ~10 W und man kann damit die ganze Nacht downloaden wenn nötig.
LoL, dazu holst du dir n Laptop? Also wenn man sowieso einen braucht, klar. Aber doch nicht nur für Zuhause. Die Rechnung geht doch nicht auf, wann willst du die Kosten wieder eingefahren haben? Zumal mein PC für alles genutzt wird, da wäre es ein viel größerer Aufwand, ständig zwischen den Rechnern zu wechseln. Mal eben zwei Setups im Monitor anzulegen kostet dich genau 3 Minuten.
 
LoL, dazu holst du dir n Laptop? Also wenn man sowieso einen braucht, klar. Aber doch nicht nur für Zuhause. Die Rechnung geht doch nicht auf, wann willst du die Kosten wieder eingefahren haben? Zumal mein PC für alles genutzt wird, da wäre es ein viel größerer Aufwand, ständig zwischen den Rechnern zu wechseln. Mal eben zwei Setups im Monitor anzulegen kostet dich genau 3 Minuten.
Ein HTPC oder so geht sicher auch aber Laptops sind komfortabel und man kann sie auch mitnehmen. Ich habe aber auch sämtliche Office/Mailsachen darauf ausgelagert. Der fette PC ist rein zum Konsumieren gedacht. Langfristig überlege ich allerdings auch ob das OS des Fernsehers eventuell zum Serien/Filme schauen reicht, sofern man irgendwann mal ein NAS hat. Denn momentan sind die HDDs mit den Filmen noch im PC und der läuft wenn ich Serien schaue.
 
Ein HTPC oder so geht sicher auch aber Laptops sind komfortabel und man kann sie auch mitnehmen. Ich habe aber auch sämtliche Office/Mailsachen darauf ausgelagert. Der fette PC ist rein zum Konsumieren gedacht. Langfristig überlege ich allerdings auch ob das OS des Fernsehers eventuell zum Serien/Filme schauen reicht, sofern man irgendwann mal ein NAS hat. Denn momentan sind die HDDs mit den Filmen noch im PC und der läuft wenn ich Serien schaue.
Es ist sicherlich müßig, über Used Cases zu streiten, da hat jeder andere Anforderungen. Wollte damit auch nur sagen, dass ich auch als Desktop einen großen Monitor brauche, und damit das Einsparpotential eines Laptops zu gering wäre, als dass sich hier eine solche Anschaffung dafür lohnt.
 
Multi GPU wird hoffentlich abseits von Chiplets komplett tot bleiben. Ein Schwarzes Loch für Ressourcen wo am Ende nur Probleme raus kommen.

Für das neue Jahr besser eine Nachtest ansetzen. Da hat AMD dann seine Produkte im Griff.
 
Mit 2K 144Hz hab ich auch 100 Watt+. Erst mit 60 Hz sinkt es. Ein zweiter 2k 60Hz Monitor ist genauso schlimm. Ich hoffe sehr, dass man das fixen kann. 😅
 
Kann ich nicht bestätigen...hier @4k 144HZ bin ich bei ~23W TBP
Same here. Kann zwar nur mit 4k@120 dienen, sehe dort aber auch „nur“ knapp 40W auf dem Desktop.
 
Was mir aufgefallen ist, dass die Verbrauchs Anzeige in Adrenalin und co. sehr fragwürdig ist.
Mein Stromzähler in der Steckdose zeigt deutlich mehr Watt Steigerung an, als das Tool, bei Multi Monitor, 144Hz etc.
 
Und ihr habt auch beide die hz Zahl hoch gedreht? Iwo was vllt im Energieplan verstellt? Ändert sich dann der Verbrauch bei euch wenn ihr die hz Zahl auf dem Desktop runter schraubt?
Wäre ja sicher für viele spannend.
Edit und ja ne externe Messung wäre toll. Bringt ja nix wenn das Tool spinnt.
 
Jetzt mal etwas verrücktes...

Ich hatte gestern Abend den Fall, dass das umstellen meines Monitors von 60Hz auf 144Hz, sowie zweiten Monitor nur marginal etwas am Verbrauch geändert haben (eher hinzugekommen ist z.B. der Verbrauch des 2. Monitors), des Weiteren hat das testweise Anschauen eines YT 4K60 Videos den Verbrauch nur um etwa ~40 Watt erhöht im Vergleich zu Idle.

Da ich das aber seit gestern Abend nicht reproduzieren konnte und dachte ich mache etwas falsch habe ich es ignoriert.

Nun habe ich testweise meinen 2K Monitor von 60Hz auf 144Hz umgestellt:
Nahezu keine Änderung des Verbrauchs (Schwankungen im Bereich von ~5W).

Das hatte ich gestern schon einmal, der VRAM bleibt runtergetaktet (100-200MHz lt. Adrenalin). Monitor sagt auch 144Hz. Auch wenn ich umschalte zwischen 60Hz und 144Hz bleibt es so.

Ich weiß zum verrecken nicht, was ich gemacht habe, dass nun der VRAM runtergetaktet bleibt. Die Problematik mit den 100W+ geht ansonsten immer einher mit Maxtakt des VRAM.

Ich bin absolut kein Experte auf dem Gebiet, ich kann aber gerne verschiedene Dinge testen, wenn mir jemand unter die Arme greift. Ich habe ein externes Strommessgerät dran, dass ich einbeziehen kann und bin gerne gewillt zu helfen.

EDIT: Sorry für die Edits, scheine komplett vergessen haben wie man Sätze baut und korrigiere mich in jedem Satz selber. :fresse:

Nachtrag: 2K 144Hz Vram taktet mit ~40MHz. Idleverbrauch massiv niedriger als z.B. bei einem Neustart.
 
Zuletzt bearbeitet:
Ich finde es echt krass, dass die im Idle einfach mal 100 Watt zieht. Bin grade am überlegen die wieder einzupacken und zurückzuschicken. Hab die 6900 noch hier, die mir ein Kollege geliehen hatte und er meinte, ich kann sie ruhig noch nutzen. Die hat mir noch keine 1200,00 € Bauchschmerzen gemacht.
 
Wobei, lässt du deinen Monitor im Desktop auf 120Hz oder mehr laufen? Ich habe bei meinem Samsung einfach zwei Profile angelegt, die man per Knopfdruck wechseln kann. Ein 4K 60Hz für den Alltag und ein 4K 144Hz mit aktiviertem GSync zum Zocken.
Also 144hz auf 2d Desktop bei großen xls Tabellen usw ist schon sehr nice.
Das möchte ich nicht missen. 60hz bekomme ich Augenkrebs.
 
Was mir aufgefallen ist, dass die Verbrauchs Anzeige in Adrenalin und co. sehr fragwürdig ist.
Was erwartest du denn, wenn du zwei völlig verschiedene Quellen mit unterschiedlicher Last misst?

Ab Wand werden 230V AC gemessen, die rausgehen. Die gehen erstmal in dein Netzteil und werden mit entsprechenden Schaltverlusten auf die passenden (Gleichstrom-) Spannungen gebracht und dann hast du alle möglichen Verbraucher ab Netzteil wie z.B. RGB, Lüfter, Pumpen, onboard-Spannung, SSDs usw. + natürlich die potenten Verbraucher wie CPU und GPU. Dass, was du in Adrenalin siehst, ist der reine GPU-Verbrauch. Mit HWinfo64 siehst du es detailierter, auch von anderen Verbrauchern.
 
Vielen Dank für die Ausführung. :)

Das mir ein Gerät an der Steckdose den Gesamtverbrauch anzeigt und nicht nur den der Grafikkarte war mir bewusst, ich habe nicht an Schaltverluste und co. gedacht, danke dafür.

Allerdings hatte ich erwartet, dass wenn mir in der Software des Hardwareherstellers einen Verbrauchswert angegeben wird und sich dieser ändert, sagen wir von 20W auf 60W, dass mir das Gerät an der Steckdose irgendwas in Richtung 40W Änderung anzeigt bzw. eher mehr. Oder umgekehrt, wenn Zahlen sinken, dass diese auch am externen Gerät sinken. Zusätzlich habe ich Vergleichswerte der alten Grafikkarte die verbaut war.

Ich hatte die Erwartungshaltung, wenn ich 2x einen sehr ähnlichen Idle Verbrauch lt. Hersteller Software habe, bei gleichen Komponenten bis auf die Grafikkarte, ich sehr ähnliche Werte extern auslesen kann. 😅
 
Ich mach das ja ähnlich. Ich guck mir die Werte in HWinfo an (meist CPU Package Power und GPU Power) und mit'm Strommessgerät, was ab Wand verbraucht wird. Je nach Last kann man das schon durchaus sehen, aber es nie 1 zu 1 die exakt gleiche Erhöhung. Auch kurzzeitige Lastspitzen siehst du manchmal nicht, weil die einfach durch die Kondis weggebuffert werden. Normalerweise sollte der Verbrauch ab Wand immer am höchsten sein.
 
Ich hatte die Erwartungshaltung, wenn ich 2x einen sehr ähnlichen Idle Verbrauch lt. Hersteller Software habe, bei gleichen Komponenten bis auf die Grafikkarte, ich sehr ähnliche Werte extern auslesen kann. 😅
Die Erwartung ist auch korrekt.
Wenn das nicht so ist, gibt es drei Erklärungen:

1. Die Messung an der Steckdose wird von einem defekten Messgerät ausgeführt.
2. Die Last auf dem PC ist eine andere ("aus Versehen ein Benchmark gestartet? Wohl nicht!)
3. Die Software, die den Verbrauch misst, faked die Ergebnisse. Softwaremessungen sind im Allgemeinen keine echten Messungen, sondern Schätzungen. Und sie können von der Software natürlich nach Willen angegeben werden. Auch böswillig, zur Irreführung (schon oft passiert in der Vergangenheit).

Ich würde sagen, dass eine Messung direkt an der Steckdose / Netzteil, die sinnvollste Variante ist, weil dort viele Unbekannte und Fragezeichen gar nicht entstehen können.
Wenn man 2x im Idle misst, ohne irgendwas zu starten,... einmal mit nem 60hz Monitor, einmal mit zwei angesteckt,... wird die Differenz der GPU zuzuschreiben sein (solange der 2. Monitor direkt selber ein Netzteil hat und nicht am PC angesteckt ist für Strom [gibt es, aber eher selten]).
 
Hab es mir grade mal angesehen, also bei mir ist es mit einem 2K 170 Hz auch 100 Watt + sicher das du die HZ Zahl in Win drin hast?
Jepp...ganz sicher.Meine gelesen zu haben das alles ab [aufwärts von144Hz] dann zum vollen VRAM Takt führt bei Navi31.

Probier 144Hz per DP.Bei HDMI@144Hz spinnt Navi31 auch noch momentan.
 
Weis man eigentlich ob die 112C Hotspot Temperaturen vermehrt bei den sapphire oder Powercolor Referenz Modellen auftreten?
 
Also nach den Leaks und Insider Infos von "Moores Law is dead", bin ich RDNA 3 etwas positiver gegenüber.

Da scheint in der Theorie ein echtes Monster vergraben zu sein. Sie haben es wohl nur verbockt, weil gerushed.
Eine Revision, bzw. RDNA4 könnte hier ein echter Ryzenmoment werden.

Wenn sie das kombinieren mit echten RT Fortschritten (so innerhalb von 10% sollten sie schon sein), ist mir dann der Preis auch egal. Dann kommt die erste AMD GPU ins System.
Klar, wird mind. 6-12 Monate dauern, aber wenn diese Insider nicht total übertreiben, wird es NVidia schwer haben.
 
Weis man eigentlich ob die 112C Hotspot Temperaturen vermehrt bei den sapphire oder Powercolor Referenz Modellen auftreten?
Kann man als erneuten Miesmacherversucht deuten, jetzt wird wieder das Thema Temperatur gwählt!:poop::poop::poop::wall:


Ach ja, bevor ich es vergesse, angeblich soll ja die Radeon 7000 Serie ein Fehler haben. was sich wieder als Fake heraus stellte! Miesmacherversucht gescheidert!:banana::coffee::coffee2:

 
@FirstAid Es ist mitunter echt bemerkenswert wie hart du die Fahne hier hochhälst!

@ Topic

Ich hoffe sehr stark dass es mit generation 4 einen immensen lessons learned gibt und das Potential des Designs wirklich auf die Karten gebracht wird. In der Theorie scheint hier ein wirklicher knaller zu stecken, nur war es vllt zu wenig Zeit um nicht ganz ins hintertreffen zu geraten.
 
Also nach den Leaks und Insider Infos von "Moores Law is dead", bin ich RDNA 3 etwas positiver gegenüber.
Da scheint in der Theorie ein echtes Monster vergraben zu sein. Sie haben es wohl nur verbockt, weil gerushed.
Eine Revision, bzw. RDNA4 könnte hier ein echter Ryzenmoment werden.
Wenn sie das kombinieren mit echten RT Fortschritten (so innerhalb von 10% sollten sie schon sein), ist mir dann der Preis auch egal. Dann kommt die erste AMD GPU ins System.
Klar, wird mind. 6-12 Monate dauern, aber wenn diese Insider nicht total übertreiben, wird es NVidia schwer haben.

Moores Law is Dead muss man so einschätzen bei AMD Sachen über die er berichtet wie die Benchmarks die Nvidia bei der Geforce presentation der Öffentlichkeit zeigt wenn du verstehst was ich meine :d
 
Also nach den Leaks und Insider Infos von "Moores Law is dead", bin ich RDNA 3 etwas positiver gegenüber.

Da scheint in der Theorie ein echtes Monster vergraben zu sein. Sie haben es wohl nur verbockt, weil gerushed.
Eine Revision, bzw. RDNA4 könnte hier ein echter Ryzenmoment werden.

Wenn sie das kombinieren mit echten RT Fortschritten (so innerhalb von 10% sollten sie schon sein), ist mir dann der Preis auch egal. Dann kommt die erste AMD GPU ins System.
Klar, wird mind. 6-12 Monate dauern, aber wenn diese Insider nicht total übertreiben, wird es NVidia schwer haben.
Und Nvidia dreht in den 12 Monaten Däumchen?

Also ich glaube es wenn ich es sehe (in echten Reviews).
 
Da scheint in der Theorie ein echtes Monster vergraben zu sein. Sie haben es wohl nur verbockt, weil gerushed.
Eine Revision, bzw. RDNA4 könnte hier ein echter Ryzenmoment werden.
Da können sie dann von mir aus auch 1000€ für verlangen, aber nicht für diesen halbgaren Versuch, den sie gerade verkaufen.

Moores Law is Dead muss man so einschätzen bei AMD Sachen über die er berichtet wie die Benchmarks die Nvidia bei der Geforce presentation der Öffentlichkeit zeigt wenn du verstehst was ich meine :d
Wie kommst du darauf? Ich finde er berichtet ziemlich ausgeglichen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh