GPU für mögliche Radeon-RX-7800-Serie: AMD zeigt Navi-32-Chip

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei 3dcenter.org wird die GCD Größe von Navi 32 mit 200-210mm² angegeben. Eure 308mm² in der Tabelle würden ja Navi 31 entsprechen und wären demnach viel zu groß. Also irgendwas stimmt da nicht mit euren Angaben.
 
  • Danke
Reaktionen: Don
Bei 3dcenter.org wird die GCD Größe von Navi 32 mit 200-210mm² angegeben. Eure 308mm² in der Tabelle würden ja Navi 31 entsprechen und wären demnach viel zu groß. Also irgendwas stimmt da nicht mit euren Angaben.
Ja, mein Fehler. Ist korrigiert.
 
Die Leistungsaufnahme außerhalb von Spiele sind in einigen Punkten wirklich übel.
Im Leerlauf sehen aber alle RDNA 3 Karten im Vergleich super bis gleichwertig aus.
Also 5W im Leerlauf (single Monitor 3.840 × 2.160, 60 Hz) für die 7600 ist wohl spitze. Aber wenn beim Fenster bewegen eine 7600 25W braucht und eine 4090 27W, aber 6650 XT 14W und eine 4060 Ti 16W, dann kann ich emotional nur die Nase rümpfen, 3.840 × 2.160, 60 Hz.

Oder Dual-Monitor 3.840 × 2.160, 60 Hz + 144 Hz eine 7600 32W will, eine 4090 31W und eine 4060 Ti 17W, dann sind emotional die 31W einer 4090 völlig super und eine 7600 erscheint dabei als richtig schlecht.

Pauschal kann man natürlich nicht sagen, eine 7600 ist überall nur schlecht bei der Leistungsaufnahme. Aber in einigen Disziplinen ist diese es eben schon.
Und auch die anderen RDNA 3 Karten zeigen im Leerlauf (single Monitor 3.840 × 2.160, 60 Hz) tolle Werte. Mit 17W ist eine XTX zu den 16W einer 4060 Ti ebenbürtig und die 20W einer 4090 sind für mich auf dem gleichen Niveau. Aber dann gibt es wieder andere Messungen, single Monitor 144Hz, in der die RDNA 3 Chips ein verheerendes Ergebnis zeigen. Und wenn dann eine 7900XTX 104W will im Leerlauf, dann mögen im Vergleich die 31W einer 7600 fast schon göttlich erscheinen, sind aber trotzdem fatal, wenn eine 4090 nur 24W will.

Insofern wird sicherlich eine 7800/XT nicht eine bessere Figur machen.
Da muss AMD endlich handeln.
 
Die Leistungsaufnahme außerhalb von Anwendungen ist in einigen Disziplinen einfach nur abschreckend.
 
Da es sich hier wahrscheinlich um ein Treiberproblem handelt, kann man davon ausgehen, dass es noch gefixt werden kann.
 
Wobei wenn das hier stimmt


man die bei AMD Karten ausgelesenen Werte sowieso in die Tonne kloppen kann. Zumindest bis RDNA2. Weiß nicht ob Igor sich da wieder was zusammenschwafelt oder das alles reell ist, bei letzterem sind die AMD Karten dann aber noch viel weiter von NVidia entfernt, als es die per Software ausgelesenen Werte vermuten lassen.
 
@DTX xxx Was mir häufig zu kurz kommt ist single Monitor mit 144hz. Hatte mal von nem Kollegen zum testen ne 6800xt da. 60hz alles Roger 144hz im idle Verbrauch fast verdreifacht. Auch bei Youtube und co war das grenzwertig.
Ein Roundup mit verschiedenen hz settings und verschiedenen gpus müsste mal her. Denke gerade mit den neusten treibern sollte schon viel gefixt sein.
 
Da es sich hier wahrscheinlich um ein Treiberproblem handelt, kann man davon ausgehen, dass es noch gefixt werden kann.
Na, ich weiß nicht, und dein Optimismus in allen Ehren. Aber das "Problem" besteht ja schon seit geraumer Zeit, AMD hatte demnach also viel Zeit, sich dessen anzunehmen.

Aber ich lasse mich auch gerne eines besseren belehren und warte gespannt auf die weiteren Treiberversionen. 🤞
 
amd hat es einfach verkackt mit der leistungsaufnahme. amd betont in den präsentationen zwar leistung pro watt, halten sich aber selbst mit ihren produkten nur partiell dran.
insofern kann ich die nicht ganz ernst nehmen. hoffentlich wird rdna4 besser und kommt bald.
 
Was mir häufig zu kurz kommt ist single Monitor mit 144hz.
Doch gibt es. Praktisch katastrophal.
3.840 × 2.160, 60 Hz
7600 - 5W
7900 XT - 15W
7900 XTX - 17W

Soweit so gut

3.840 × 2.160, 144 Hz
7600 - 31W
7900 XT - 86W
7900 XTX - 104W
Natürlich im Leerlauf

+22 Einträge aufklappen

Bei 35 Cent die kWh und eine Stunde Leerlauf im Jahr = 13,25€ mit der 7900 XTX. Wenn man dann noch Fenster bewegt, sind es im Jahr 14,14€
 
Zuletzt bearbeitet:
Und hat cb die 7900er mit aktuellem Treiber nachgetest was den idle angeht oder nur die fps? Iwie gibt es da doch auch immer Kommentare das das teilweise gefixt wäre. Aber es ist ja nicht nur die stromrechnung, auch die idle temp. Die geht dabei blöde nach oben. Meine, das in meinem alten setup, die Karte ständig die Lüfter andrehte.
 
Doch gibt es. Praktisch katastrophal.
3.840 × 2.160, 60 Hz
7600 - 5W
7900 XT - 15W
7900 XTX - 17W

Soweit so gut

3.840 × 2.160, 144 Hz
7600 - 31W
7900 XT - 86W
7900 XTX - 104W
Natürlich im Leerlauf

+22 Einträge aufklappen

Bei 35 Cent die kWh und eine Stunde Leerlauf im Jahr = 13,25€ mit der 7900 XTX. Wenn man dann noch Fenster bewegt, sind es im Jahr 14,14€

um die rechnung zu verstehen, müsste man wissen, was du dir hier für die 13,25€ jahresrechnung zusammen gerechnet hast?!
 
@hardtech
35 Cent die kWh und eine Stunde Leerlauf pro Tag im Jahr = 13,25€ mit der 7900 XTX.

Und hat cb die 7900er mit aktuellem Treiber nachgetest was den idle angeht oder nur die fps?
Test: 17.5.2023
Adrenalin 23.4.2.

Alter Test: 13.1.2023
AMD hatte den Adrenalin 22.12.2 etwas über eine Woche nach dem Start der beiden ersten RDNA-3-Grafikkarten veröffentlicht.
In der Tat hat es keine Verbesserung beim Stromverbrauch im Leerlauf auf dem Windows-Desktop gegeben.

Vielleicht nochmals als Nachtrag:
Weil es einfach so desaströs unglaublich ist. Selbst die 7600 zeigt dieses Verhalten. Bei einem 144Hz Monitor 31W Leerlauf. Eine 4090 nimmt sich nur 24W. Wenn man bei einem 3.840 × 2.160, 144 Hz ein Fenster bewegt sind es 38W. Gut die 4090 nimmt sich dann 39W. Letztlich steht es aber überhaupt nicht im Verhältnis zu einer 4060 Ti, für eine Grafikkarte die auch nur gerade das Minimum der 7000er Serie für Spiele darstellt.
Und die 7900 Karten explodieren nachdem sie implodieren (n). Ich habe gehört, dass die 7900er Karten sogar die Raumzeit in Schwingung versetzen und somit messbare Gravitationswellen erzeugen :d
 
Zuletzt bearbeitet:
Nun die n32 Leistung dürfte sich zwischen 6800xt und 6900xt bewegen
Was sich als problematisch erweisen könnte da rdna2 noch so viel auf lager hat und die sku nicht unter 529€ und 479€ umsetzen ließe und das ist mit nur 12gb
Wenn amd Schlau ist und die sku anordnet
40cu rx 7700 12gb 400€/+17% rx6750 Leistung
48cu rx7700xt 12gb 480€ /+15% rx6800 Leistung
54cu rx7800 16gb 550€(+15% rx6800xt Leistung
60cu rx7800xt 16gb 650€/+-0% rx 6900xt Leistung

Wie man sieht ändert das nix an P/L
Aber billiger geht das nicht mit dem mcm
N33 war ein Reinfall das diese arch heftigste probleme im design hat was den Takt stark limitiert.
Im Grunde ist abseits der rx7900xt/x keine rdna3 gpu zu empfehlen
Diese könnte aber deutlich billiger werden ich rechne mit 700€ und 850€
Aber darunter sehe ich keinen Spielraum fürn rx7800xt für 600€
je kleiner die sku desto unwahrscheinlicher billiger als 400€
 
Also 5W im Leerlauf (single Monitor 3.840 × 2.160, 60 Hz) für die 7600 ist wohl spitze. Aber wenn beim Fenster bewegen eine 7600 25W braucht und eine 4090 27W, aber 6650 XT 14W und eine 4060 Ti 16W, dann kann ich emotional nur die Nase rümpfen, 3.840 × 2.160, 60 Hz.

Oder Dual-Monitor 3.840 × 2.160, 60 Hz + 144 Hz eine 7600 32W will, eine 4090 31W und eine 4060 Ti 17W, dann sind emotional die 31W einer 4090 völlig super und eine 7600 erscheint dabei als richtig schlecht.

Ich habe auf Computerbase für meine MSI Radeon 6800 Z Trio im Linux Teil etwas gepostet.
Sowohl in gnu gentoo linux als auch Windows 11 Pro musste ich die Monitoreinstellungen per Hand programmieren.
Den Rest kann man dort gerne nachlesen.

Kurzfassung.
Vorher bis zu 35Watt egal wo im Leerlauf
Nachher 5 bis max 8 Watt im Leerlauf

-

Persönliche Meinung. Wenn jemand neue Hardware nicht ordentlich einrichtet, dem ist nicht zu helfen. Funktion gehört immer überprüft, Stabilitätstests und Verbrauchsmessungen.
Ob es jetzt an dem "Fehlerhaften" Asus Monitor liegt oder an der MSI Grafikkarte ist für mich belanglos.
Ich hatte es als Laie relativ rasch die Lösung gefunden innerhalb einer Stunde sehr gut aufgerundet.
Und in der nächsten Stunde alles gepostet für den nächsten, mit dem Problem.
ASUS, nur mein Einzelfall, liefert Schrott ab, egal ob Mainboard, mein Einzelfall, oder Monitor, auch mein Einzelfall. Ich behaupte mal, das EDID von meinem ASUS Proart Monitor wird, 350€ 27Zoll WHQD, wird nicht optimal sein für niedrigen Verbrauch. Hardware muss sich auf das EDID verlassen

Referenz: https://de.wikipedia.org/wiki/Extended_Display_Identification_Data

--

Ich behaupte mal, das diese Thematik sehr viele AMD Grafikkarten betreffen wird. Nicht nur diese MSI Radeon 6800 Z Trio
 
Da es sich hier wahrscheinlich um ein Treiberproblem handelt, kann man davon ausgehen, dass es noch gefixt werden kann.
Das Problem dürfte an der Kommunikation der Chips untereinander liegen und direkt mit dem Chipletansatz zusammenhängen. Da wird wie bei Vega vermutlich exakt nichts mehr gefixt.
 
35 Cent die kWh und eine Stunde Leerlauf pro Tag im Jahr = 13,25€ mit der 7900 XTX.
Der Verbrauch im IDLE ist lächerlich, keine Frage. Das in Euro umzurechnen ist jedoch bescheuert. Bei einer 7900XTX sind wir in Preisregionen wo 13-14€ im Vergleich zu den Anschaffungskosten einfach witzlos sind. Hat also fast keinen Einfluss auf P/L. Da ist ein unnötiges Erhitzen des Raums im Sommer ein relevanterer Punkt ;)
 
Mach die Rechnung noch mal mit 4h Leerlauf und 3 Jahren Haltedauer auf. Oder wir sprechen mal über das Scenario Arbeitsrechner...

Dazu eine schön mollige Dachgeschosswohnung wo jedes Grad zählt.
 
Also um jetzt mal die immer wiederkehrende und ermüdende leerlauf Verbrauchsrechnung zu unterbrechen (bei meinem Rechner, ist eh nicht viel leerlauf dabei, meißt wird kurz nachm start eh ein spiel angeworfen)

Ich finde die reine grundleistung leider auch echt zu schwach und den Abstand zur 7900xt recht groß. Und da ist das mit 70 Rechenkernen schon die große Variante (XT). Ich glaub auch fast nicht dass die kommt, sondern eher die teilbeschnittenen Kerne dann in die workstationkarten wandern. Jetzt würde ich einfach mal prophezeien, dass wenn dann eher eine normale 7800 als direkter Gegner zur 4070 auf Basis von Navi 32 kommt.

Ich würde gerne upgraden, aber nicht innerhalb einer Generation. Kommend von einer 6700xt wäre mir der Sprung auf eine leicht bessere "6800xt" dairgendwie nicht wert. Hatte eher so gehofft, dass die 7800xt im Rasterizing knapp unter einer 4070ti legt.
 
also zur diskussion in euro.
meine sonos lautsprecher in der wohnung nehmen ca. 60 euro im jahr bei leerlauf.
würde ich eine unsparsame gpu haben, macht sich das nicht weiter bemerkbar, aber in der summe aller verbraucher kommt doch was zusammen. zudem zahlen wir für den strom knapp 40 eurocent.

da ich aber der typ undervolting bin kommt so eine karte prinzipiell nicht in den rechner. 100w sind schon eine menge. die lüften laufen da in der regel und im sommer ist es merklich wärmer.

für ein unternehmen, was effizienz und leistung pro watt prpagiert ist das abgelieferte produkt katastrophal, da auch schlechter als die vorgenerationen. man predigt wein und schenkt wasser ein. das geht nicht!
 
Also um jetzt mal die immer wiederkehrende und ermüdende leerlauf Verbrauchsrechnung zu unterbrechen
Niemand würde etwas sagen, wenn die 7900 XTX 40W mit einem 144Hz Monitor zieht. Ich meine, die 17W mit einem 60Hz Monitor sind zumindest 3W besser als eine 4090, also ein hervorragender Wert. Und die 5W einer 7600 bei 60Hz sind aktuell Rekord.
Aber 104W bei einem 144Hz Monitor sind einfach beschämend für eine 7900 XTX 1100€ Karte. Und wenn eine 7600 dabei 31W braucht und eine 4090 24W, ist das einfach katastrophal, weil im Leerlauf.
Und eine Stunde Leerlauf sind schnell erreicht und dann noch 2 Stunden Zocken mit 350W sind 800W in 3 Stunden. Und dann ist man auf dem Leistungsniveau einer 4080 die 150€ mehr kostet, aber in diesen 3 Stunden 200W weniger braucht.

Wenn also 35 Cent die kWH 3 Stunden 5 mal die Woche, sind rund 55€ im Jahr, die eine 7900 XTX mehr Stromkosten verursacht als eine 4080.
 
Ich fordere sie ja schon lange, die Verbrauchsobergrenze für Grafikkarten im Leerlauf.
 
Für die mathematischen Angehörigen :-)
800W und dies 3 Stunden, ist natürlich emotionaler. Korrekte Schreibweise wäre. Eine Stunde IDLE mit einem 144Hz Monitor wären 0,104kWh. Dann 2 Stunden spielen wären dann 0,710kWh. Zusammen also in 3 Stunden 0,814kWh.
Und eine Stunde IDLE sind schnell passiert, wenn man im Internet falsch abgebogen ist. o_O Ich behaupte einfach mal, dass die wenigsten mit so einem Rechner nur schnell alle Updates und Spiele ziehen und dann sofort einfach nur Zocken und nach dem Spielen diesen PC gleich ausschalten. Genau deswegen sind 104W IDLE mit einem 144Hz Monitor beschämend. Und da muss AMD einfach handeln.
Diese Fakten stehen ja nicht auf dem Karton beim Kauf solcher Produkte.

Jetzt kann man natürlich schreiben, dass die 4090 438W haben will beim Zocken. Dann ist man natürlich in diesem von mir gemachten Szenario, eine Stunde IDLE 24W 144Hz Monitor und 2 Stunden Zocken, bei 0,900kWh. Dafür in ganz anderen Leistungsregionen in 2160p. Ehrlicher wäre eine 4080. Pauschal ist die 7900 XTX auf dem Niveau einer 4080. Jetzt nicht die Pferde wild machen wegen den einstelligen RT und Rasterizer Frames. Die 4080 zieht dann in diesem Szenario in 3 Stunden 0,590kWh.

Und genau deswegen kann Nvidia unverschämt sein und uns Grafikkarten auftischen, die preislich eine dreiste Frechheit sind, für eine Firma mit einem Börsenwert von aktuell 970.600.000.000€.
 
Was den Stromverbrauch meiner RX 6800 XT angeht, falls es jemanden interessiert... den konnte ich mit limitieren auf 120HZ/4k auf 0-25W im IDLE senken. In 144HZ/4k waren auch mal spikes mit 80 dabei.
 
@DTX xxx Was mir häufig zu kurz kommt ist single Monitor mit 144hz. Hatte mal von nem Kollegen zum testen ne 6800xt da. 60hz alles Roger 144hz im idle Verbrauch fast verdreifacht. Auch bei Youtube und co war das grenzwertig.
Ein Roundup mit verschiedenen hz settings und verschiedenen gpus müsste mal her. Denke gerade mit den neusten treibern sollte schon viel gefixt sein.
Hab es ebenfalls schon vor wenigen Wochen selbst gestestet mit RX 7900XTX Nitro+ auf einem WQHD Samsung Odyssey 240Hz, tatsächlich 94 Watt Leerlauf :unsure: . Die Karte war allerdings eine Rücksendung an einen größeren Warenhändler.
 
Da es sich hier wahrscheinlich um ein Treiberproblem handelt, kann man davon ausgehen, dass es noch gefixt werden kann.
Wann wurde RDNA 3 noch released? 🤣

Ich bin froh von einer 7900XTX auf eine 4080 umgestiegen zu sein. Schön 120 Watt im Idle. Da ich auch mit dem Rechner arbeite und nicht nur spiele, ein K.O. Kriterium für mich.
 
Kritik an hohen AMD Stromverbrauch & mögliche Lösung

Ich habe gemischte Gefühle mit meiner neuen MSI RAdeon 6800 Z Trio welche Mitte Mai 2023 gekauft wurde.
Anbei meine erstellte Anleitung auf Computerbase für GNU Linux und Windows 11 PRO wie man den IDLE Verbrauch im Single Monitor Betrieb WHQD @ 75HZ reduziert.

Einfach ausprobieren und schauen ob sich der Verbrauch reduziert. Dass der Monitor jetzt mit ~74.5Hz Vertikal betrieben wird ist im Grunde für mich vernachlässigbar.


Mein Fazit. In meinem Einzelfall, liegt die Schuld bei ASUS als Monitorhersteller ASUS PROART PA278QV wegen zu strengen EDID Werte. Diese führen automatisch zu erhöhtem Verbrauch. ASUS gibt sich keine Mühe, in meinem Einzelfall, bei Notebooks ASUS G75VW, Asus G70SG, Asus K70, Mainboards X670-P. Ob jetzt AMD die Schuld hat oder ASUS wegen den EDID Werte? Eher ASUS, da die Grafikkarte aufgrund der EDID Werte die Bildausgabe berechnen muss, sind diese schlecht gewählt, steigt der Verbrauch. Der Windows 11 Pro AMD GPU Treiber ist leider auch zu unflexibel.

Endlos gewartet auf einen Nachfolger der RAdeon 6800

Ich dachte der Nachfolger wird irgendwann im November 2022, Februar 2023, April 2023 vorgestellt und verkauft. Scheinbar nicht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh