[Sammelthread] AMD RDNA3 Smalltalk-Thread

Ich habe aus der Not heraus den 2ten Monitor an die interne Grafik gehangen und betreibe nur den "Großen" mit 4k@120Hz an der 7900XTX. Ich hab endlich Werte um die 10W. Allerdings NUR, wenn ich die Farbtiefe auf 10bit setze. Farbtiefe auf 8Bit erzeugt sofort wieder eine Last, um die 50W (zum Glück nicht anders herum). Der Monitor ist ein Dell G3223Q. Andere Wiederholraten werden teilweise auch mal mit hoher Last quittiert. HDR bislang nicht aktiviert. So ganz rund läuft das immer noch nicht.
Mal schnell probiert:

Auflösung immer 4k mit Freesync Pro aktiv

144Hz rund 10W
120Hz rund 10W
100Hz rund 90W <--- das ist ein schlechter Scherz
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das merkt man ja am Feedback hier. Aber es ist bei vielen Konfigurationen eine deutliche Verbesserung.
 
Halo Infinite ausprobiert, dort gibt es einen kleinen FPS-Gewinn, in der von mir genutzten Szene hab ich 125 FPS im Stillstand, bei schneller Mausbewegung ändert sie sich und sinkt auf teilweise 112 FPS geht aber auch gern kurz auf 130+, bei aktiviertem Radeon Boost steigt sie auf 130+ FPS und bleibt auch solange die Maus in Bewegung ist konstant auf dem Niveau.
Ein geringer Fps-Gewinn kann auch durch die Bewegung selbst enststehen. Bei 50 % Auflösungsreduzierung sollte die Framerate sich sehr deutlich erhöhen (rechnerisch auf das Doppelte). Ich frag mal im RDNA 2-Thread, wie das dort aussieht mit Radeon Boost.
 
Zuletzt bearbeitet:
@tim_s007 sieht bei mir ähnlich chaotisch aus
 
Und bei mir
Moin,

gefühlt habe ich mit dem neuen 23.7.2 wieder das Problem erhöhter Idle Leistungsaufnahme?! Wo die Karte vorher schön auf 7W im Idle runterging, bin ich nun wieder bei über 40W. Kann das jemand bestätigen?
Hab noch 7W bei 8 bit 120 Hz und 23 W bei 10-bit 100 Hz, glaube das ist ne Verbesserung bei 10 bit (muss selbst nachlesen).
 
Ein geringer Fps-Gewinn kann auch durch die Bewegung selbst enststehen. Bei 50 % Auflösungsreduzierung sollte die Framerate sich sehr deutlich erhöhen (rechnerisch auf das Doppelte). Ich frag mal im RDNA 2-Thread, wie das dort aussieht mit Radeon Boost.
Ich hab jetzt noch mal alle drei Spiele gecheckt, keines weißt einen Performanceboost auf.
 
Habe ca. 330 Punkte mehr in TimeSpy. Und konnte es an den frames schon sehen. Spiele getestet habe ich noch nicht...

Idle gehts jetzt sogar auf 5W runter :)
 
Moin,

gefühlt habe ich mit dem neuen 23.7.2 wieder das Problem erhöhter Idle Leistungsaufnahme?! Wo die Karte vorher schön auf 7W im Idle runterging, bin ich nun wieder bei über 40W. Kann das jemand bestätigen?
@GodForsaken @tim_s007

Denkt euch nichts, mit gewissen Problemen kämpfe ich schon von Anfang an was bit, 2 Monitore oder gar 3 betrifft. Zudem gibt es immer wieder unerklärliche Treiberresets (auch ohne OC bzw Standardeinstellungen), abgesehen vom hohen Idleverbrauch, usw usw. Bin schon fast am Überlegen ob ich nicht einfach ein paar Euro versenke und Team Grün per 4090 unterstütze auch wenn ich solch übertriebene Preise nicht gut finde, aber mit RNDA3 habe ich teils mehr Probleme als mit RDNA2.

MPT zum Beispiel gibt es nicht mehr für RDNA3 und gerade bei OC geht ohne EVC bei einer 7900XTX oder 7900XT nicht viel. Die Karten sind von Grund auf alle Powerlimitiert.
Was neuere Treiber betrifft. Diese generieren oft weniger Leistung als Ältere, vor allem per Timespy merke ich das. Gut Timepy ist ein Benchmark und das könnte man ja noch vernachlässigen.
Bei RDNA2 war das anders. Da gab es, nach ebenfalls längeren Problemen, zumindest irgendwann regelrechte Leistungsschübe von Treiber zu Treiber, nicht nur in Benchmarks sondern auch in vielen Games.

Zum Thema Idleverbrauch. AMD bekommt das einfach nicht wirklich gebacken. Vor allem bei nur einem Monitor kann man sich ja noch glücklich schätzen, aber mit mehr als einem Monitor ist es ein Desaster was die da abliefern. Nervt mich schon wenn unsinnigerweise beim Daddeln im Netz oder auch bei einem lausigen Youtubevideo einfach sinnlos Energie verballert wird.

Das Dumme ist die Grafikkarte orientiert sich anscheinend daran wie viele Kabel in den Anschlüssen stecken egal ob der Monitor an oder aus ist. Ziehe ich zum Beispiel während dem Betrieb vom PC das Kabel vom Zweit-Monitor aus der Grafikkarte geht der Idleverbrauch auch auf momentan knapp 30 Watt runter bei 120 Hertz und 12 bit bei UHD. Das heißt es hilft nichts wenn ich den 2ten oder 3ten Monitor einfach nur abschalte, denn dann bleibt der Idle Verbrauch trotzdem bei knapp 80 Watt nur für die Grafikkarte. Mein Strommmessgerät an der Steckdose bestätigt das bzw es ist kein Auslesefehler der Software.
Erst wenn ich wie erwähnt das Monitorkabel aus der Graka ziehe geht der Verbrauch deutlich runter. Es ist auch egal ob ich 2 oder 3 Monitore dran habe, der Verbrauch im Idle bleibt nahezu identisch, sprich 82 Watt bei 2 Monitoren und unglaubliche 83 Watt bei 3 Monitoren.

Warum so Manches einfach nicht funktioniert sind Vermutungen. DevPandi aus dem CB Forum hat einen wirklich interessanten Artikel geschrieben. Einfach mal durchlesen und vor allem in der Rubrik P-State Problem oder auch Hardwarebug könnte darauf hindeuten das AMD einfach immer noch ein riesiges Problem hat. RDNA3 könnte vermutlich deutlich mehr im positiven Sinne, aber man hat mit dieser Generation anscheinend ein unlösbares Problem, vor allem wie man die Karte anspricht und zusätzlich der hohe Verbrauch, egal ob Idle oder Last um es kurz zu fassen.

DevPandi Artikel CB
 

Anhänge

  • 2 Monitore.jpg
    2 Monitore.jpg
    1,5 MB · Aufrufe: 70
  • 3 Monitore.jpg
    3,4 MB · Aufrufe: 38
  • 3 x M.jpg
    3 x M.jpg
    646,7 KB · Aufrufe: 70
Zuletzt bearbeitet:
Ich habe festgestellt, dass wenn ich GPU-Z oder CPU-Z laufen lasse, der VRAM meiner XTX sofort auf 909MHz und somit die gesamtleistung der Platine wieder auf ca. 47W-50W hochschießen.

Vermutlich sind es laufende Programme, die die Effizienz zerstören.
 
Vermutlich sind es laufende Programme, die die Effizienz zezerstören.
Hab ich schon alles durch. Das Messgerät direkt an der Steckdose bestätigt die hohen Idle Verbräuche egal wie viele Programme ich schließe oder offen habe. Das Problem bei mir ist das ich mehr als 1 Monitor hab.

Selbst wenn ich GPUZ, CPUZ, HWinfo, die Treibermetrik sowie zahlreiche Hintergrundprogramme laufen lasse ändert das nichts am GPU Verbrauch. Auch nicht wenn ich alles schließe.

Ist ja auch logisch da solche Sachen von der CPU berechnet werden und nicht von der GPU. Sollte es da Probleme geben ist es meist ein Bug bzw der GPU wird fälschlicherweise Last suggeriert wo keine ist bei zum Beispiel einer Metrik-Abfrage.

Das was diese Auslese-Tools an Watt brauchen ist minimalst bzw nicht der Rede wert.
 
Zuletzt bearbeitet:
Mmmmmh, ok.

Ich konnte mit meinem 38Zoll Moni diesen Effekt, wie letzter Beitrag, feststellen.
Ich habe nur einen Monitor. Wie es mit zwei ist, das kann ich keine Auskunft geben.
 
Moin,

gefühlt habe ich mit dem neuen 23.7.2 wieder das Problem erhöhter Idle Leistungsaufnahme?! Wo die Karte vorher schön auf 7W im Idle runterging, bin ich nun wieder bei über 40W. Kann das jemand bestätigen?
Wollte ich gerade bestätigen, bis ich sah, dass ich im Hintergrund noch Videos pausiert habe. Wird bei dir sicherelich auch der Fall sein.
 
Wollte ich gerade bestätigen, bis ich sah, dass ich im Hintergrund noch Videos pausiert habe. Wird bei dir sicherelich auch der Fall sein.

Ne, gar nichts an, es idled jetzt wieder bei 28-36W. Mit 27.7.1 waren es 7 Watt. Wohlgemerkt auf einem Monitor 3840x1600 @ 144Hz 8-bit.

Naja, mit dem nächsten Treiber wirds sicherlich wieder, ist jetzt kein Weltuntergang, ist mir nur aufgefallen, weil hier HWInfo im Hintergrund immer auf nem Stream Deck mitläuft. (Keine Sorge, testweise war das auch aus bevor die ersten hier gleich wieder den Finger heben ;) )
 
Hatte heute den PC aufgrund anderer Probleme den PC 10 Minuten vom Strom genommen, um einen kompletten Neustart zu erzwingen. Siehe, da 23.7.2 idled wieder bei 7 Watt. Also alles gut, seht meinen Post als nichtig an!
 
Zuletzt bearbeitet:
Was heißt eigentlich immer IDLE? Ist das der Verbrauch mit Monitor an aber ohne Mausbewegung? Surfen im Netz? Monitor aus?

Bei meiner 7900XT habe ich noch nie unter 40 Watt gesehen mit geöffneten Firefox. ( 3.440 x 1.440@120hz)
 
Alles an, nix bewegen, keine Hintergrundlast.
 

AMD Confirms New "Enthusiast-class" Radeon 7000-series Graphics Cards This Quarter

Na mal sehen wie es dann mit der "enthusiast class" Preislich aussieht und wo die sich dann einordnet.
Müsste ja über der 7900GRE sein, von der Leistung, der Ausstattung und dem Preis.


Zitat:

"AMD CEO Dr Lisa Su, in her Q2-2023 Financial Results call, confirmed that the company will launch new "enthusiast-class" gaming graphics cards within Q3-2023 (any time before October). "In gaming graphics, we expanded our Radeon 7000 GPU series in the second quarter with the launch of our mainstream RX 7600 cards for 1080p gaming. We are on track to further expand our RDNA 3 GPU offerings with the launch of new, enthusiast-class Radeon 7000 series cards in the third quarter," she stated."
 
Einige Artikel schreiben, dass AMD die 7900XT & XTX als "ulta Enthusiast" damals klassifiziert hat, also ist "Enthusiast" auf Level 7900GRE und darunter, eher weniger darüber.
Vermutlich also eine 7800 (XT) zB., auch wenn ich den Begriff Enthusiast hier persönlich als unpassenden Titel empfinde.
 
Na ja bin mal gespannt wo die sich einordnet und zu was für einem Preis. Die ersten Tests aus der freien Wildbahn könnten interessant werden wenn man dann alle 7000er vergleicht.
Also abwarten und Tee ( Hopfenblüte oder richtiger ist egal ) trinken, es bleibt interessant.
 
Gibt so viele Gerüchte. Die einen schreiben, es kommt ne 7900, andere ne 7800xt mit Teile aktiviertem navi31, bei anderen hat die 7800xt nur nen Navi 32 mit 60 CU usw.

Bin gespannt, was sich nun am ende bewahrheitet. Ich hoffe ja auf ne 7800xt mit Navi31, 72 CU und 20GB, 270 W für so 750€.
 
Ich hoffe ja auf ne 7800xt mit Navi31, 72 CU und 20GB, 270 W für so 750€.
Na ja den Preis wird es wohl nicht geben aber die werden unter 1000 € landen.
Außer AMD will Nvidia ärgern und einen Preiskrieg ausfechten.
Dagegen spricht aber die Ankündigung Chinas den Export seltener Erden einzuschränken.
Wenn das kommt könnten schnell die Preise wieder steigen und alles sehr verteuern.
 
Naja, aber die 7900xt gab es ja schon für 800€ (aktuell wieder etwas teurer). Bei dem Leistungsabstand muss die deutlich unter der UVP der 7900xt liegen.

Edit: wobei 20GB wohl Träumerei meinerseits ist. Wenn die chinesische 7900 GRE auch nur 16 GB hat.

Meine Prognose ist dann eher dass wir auch ne 7900 mit dem navi31/32 hybrid-Chip bekommen.

Sowas könnte ich mir vorstellen:
7900 navi31/32 80CU 16GB 750€
7800 XT navi31 70CU 16GB (ähnlich wie 7800) 700€
7800 navi32 60CU 16GB 600€
7700 (XT) Navi32 ??CU 16GB 500€

Irgendwie so vielleicht. Ende August sollen ja 3 Karten vorgestellt werden.
 
Zuletzt bearbeitet:
[...]
Dagegen spricht aber die Ankündigung Chinas den Export seltener Erden einzuschränken.
Wenn das kommt könnten schnell die Preise wieder steigen und alles sehr verteuern.
Bezweifle ich stark. Die Gewinnmargen für NVidia und AMD sind gigantisch. Die Chips beinhalten natürlich Gallium, trotzdem würde sich ein Kostenanstieg in diesem Bereich nicht extrem auf die Herstellungskosten auswirken. Und ab einem gewissen Preis für seltene Erden lohnt sich deren Abbau auch an anderen Orten, China kann da denn Preis also nicht beliebig festlegen.
 
Seit wann hat jemals ein Rohmaterialpreissteigerung nicht zu Produktpreissteigerungen geführt? In welcher Welt lebst du? Ofc würde jeder Hardware Hersteller das sofort an den Kunden weitergeben. Die wollen ihre Gewinnmarge doch halten. Da verschenkt keiner irgendwas.
 
Klar, aber hier wird so gemacht als würde es zur nächsten 'Miningkrise' kommen. Die aktuellen Waferpreise sind hauptsächlich durch die enorme Nachfrage so hoch, nicht weil das Rohmaterial so teuer ist. Auch die Produktionskosten bei TSMC & Samsung schlagen wesentlich heftiger zu Buche als der Galliumpreis.
 
Hallo kurze frage zur 7900XT

Ist es auch möglich die Karte auf 250 Watt zu undervolten? Opfere auch ein bisschen Leistung wenn es muss. Aber ob es generell möglich ist?

Wie ist der Idle Verbrauch an einem Oled Tv Gerät mit 4k 120 hz? Wurde das Problem behoben?

🤗 Würde nämlich gerne eine bestellen gerade mit Starfield Premium finde ich das gut. 💪🏼
 
Hallo kurze frage zur 7900XT

Ist es auch möglich die Karte auf 250 Watt zu undervolten? Opfere auch ein bisschen Leistung wenn es muss. Aber ob es generell möglich ist?

Wie ist der Idle Verbrauch an einem Oled Tv Gerät mit 4k 120 hz? Wurde das Problem behoben?

🤗 Würde nämlich gerne eine bestellen gerade mit Starfield Premium finde ich das gut. 💪🏼
Es gehen mit dem Watt regler nur -10% also etwa 280 Watt, bleibt noch die möglichkeit über den Takt zu begrenzen.
Und natürlich ein FPS Limit : )

Der Idle Verbrauch ist auf vielen Systemen gefixt, bei einigen aber nicht.
Falls sich niemand findet der das gleiche Setup hat, kann dir das aktuell keiner genau sagen wie es bei dir aussehen wird.
Spielt auch manchmal drittsoftware mit rein was man so liest.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh