Radeon RX 7900 XT(X): Neuer Treiber soll Idle-Verbrauch reduzieren

Könnten die Darsteller sich ein wenig mehr zusammen reißen danke!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei 60Hz bekomm ich Kopfschmerzen beim scrollen. Der Unterschied ist entweder scharf lesbar ab 160Hz+, halbwegs scharf lesbar 144Hz, gerade so lesbar 120Hz und nur noch Überschriften lesbar, zwischen den Zeilen 60Hz
Ich hätte gern 500Hz, dann könnte ich vermutlich Websiten wie ein Buch lesen...
Mehr Hz ist vor allem für Desktop wichtig. Es wird ja oft vorgeschlagen auf 60Hz abzubremsen um Energie zu sparen. AMD only. ,.. mag eine Lösung sein.
Für Idioten.
 
Da ich nur 2 Sylvester habe bin ich hier raus

Ist mir zu blöd

Besserwissermodus aus
Ahahaha, so einer. Es gibt menschen denen wird es "zu blöd" oder "niveaulos" sobald ihnen die argumente ausgehen.

Du scherzkeks.
Beitrag automatisch zusammengeführt:

Könnten die Darsteller sich ein wenig mehr zusammen reißen danke!
Nein, ich habe gerade einen heissen. Foren PVP jaaaay
 
Zumindest das mit den Hz ist doch schon lange ein alter Schuh. Einfach mal ein Spiel mit 60fps spielen und danach mit 144fps. Der Unterschied ist deutlich. Siehe Soap-Opera Effekt. Sehen aber tatsächlich auch nicht alle.

Dass das menschliche Auge das nicht wahrnehmen kann stimmt einfach nicht.
 
Öh, also den Unterschied ob mein Monitor auf 144 oder auf 60 gestellt ist sehe ich ganz eindeutig. Im Spielebetrieb fällt das nicht ganz so stark ins Gewicht, aber wenn ich jetzt hier im Forum lese, ergeben 60 ein unschönes leicht vibrierendes Bild
 
Ahahaha, so einer. Es gibt menschen denen wird es "zu blöd" oder "niveaulos" sobald ihnen die argumente ausgehen.

Du scherzkeks.
Beitrag automatisch zusammengeführt:


Nein, ich habe gerade einen heissen. Foren PVP jaaaay
Kurze Frage deren Antwort ich eh nicht mehr lesen werde:
Wenn du auf neue Leute triffst, bist du dann auch so grundlos unverschämt zu denen, oder auch sogar zu Freunden falls sie nicht deiner Meinung sind oder was falschen sagen?
Ernsthaft, ich würde bei dir mein Bier stehen lassen und einfach aufstehen.... Lern dich mal zu benehmen.
 
Kurze Frage deren Antwort ich eh nicht mehr lesen werde:
Wenn du auf neue Leute triffst, bist du dann auch so grundlos unverschämt zu denen, oder auch sogar zu Freunden falls sie nicht deiner Meinung sind oder was falschen sagen?
Ernsthaft, ich würde bei dir mein Bier stehen lassen und einfach aufstehen.... Lern dich mal zu benehmen.
Ja ich habe gerade ne schwindelige zeit, da stochere ich gerne nach wenn jemand motzt.
 
Bei 60Hz bekomm ich Kopfschmerzen beim scrollen. Der Unterschied ist entweder scharf lesbar ab 160Hz+, halbwegs scharf lesbar 144Hz, gerade so lesbar 120Hz und nur noch Überschriften lesbar, zwischen den Zeilen 60Hz
Ich hätte gern 500Hz, dann könnte ich vermutlich Websiten wie ein Buch lesen...
Hmm, hör doch einfach auf zu scollen, wenn du was lesen willst? :fresse:
 
Zur Hz Diskussion: ich war bisher auch immer skeptisch, wieso man mehr als 60 Hz haben sollte, bis ich jetzt seit Monaten mit 144 Hz unterwegs bin. Fühlt sich beim Browsen im Netz wesentlich flüssiger an.
Ist aber nichts, was man sofort sieht wie z.B. höhere Auflösung etc.

Das menschliche Auge schafft selbst zwar nur 24 Hz - ändert aber nichts daran, dass sowohl Augen als auch Hirn die höheren Bildwiederholraten realisiert.
Einfach mal einen Monat lang mit 30 Hz täglich 8h am Rechner arbeiten und mal schauen wie lange es dauert, bis die Kopfschmerzen eintreten. Muss man nicht verstehen, aber manchmal ist es denke ich besser, wenn man Dinge einfach so hinnimmt ohne zu hinterfragen (und ich hinterfrage eigentlich so ziemlich alles ...)

P.S. Wer ist eigentlich dieser Sylvester von dem hier so viel geschrieben wurde? :d
 
Hallo
Ich habe seit 2 Tagen eine 7900xt in meinem Rechner und bin zufrieden

Keine Ahnung warum hier ein Drama um 20-40 Watt gemacht wird

Das Menschliche Auge kann bis 60hz oder Fps wahrnehmen
Alles darüber kann das Auge nicht unterscheiden

Sehr viele packen sich einen Intel rein der bis 300 Watt zieht, die Grafikkarte dabei sind wir bei 600-700 Watt
Und dann wird diskutiert ob die Eine Karte 240fps macht und die andere nur 200
Das lustige dabei ist, das Auge sieht es nicht

Allen ein frohes Fest
+20-60Watt in Idle und leichter Nutzung, dazu zählt auch lesen in diesem Forum.
Bei den aktuellen Kosten sind das locker über 50€ im Jahr und definitv ein Grund 100€ mehr für eine 4080 auszugeben, wenn man die Karte mind 2 Jahre behalten will.

Nur weil DEIN Auge mehr als 60Hz/FPS nicht sehen kann, heißt nicht das es keiner sehen kann. Ich sehe einen deutlichen Unterschied schon bei 90FPS/Hz und zwischen 90 und 120FPS/Hz.
Dabei meine ich nicht das ich die einzelnen Bilder sehen kann sondern das das Spiel SICHTBAR flüssiger läuft.
Dazu kommt noch das bei 60FPS die Animationen/Hitboxen z.b. bei Shootern langsamer berechnet werden und man durchaus zwischen 2 Bildern ins Leere schießen kann, weil die Hitbox bei 60FPS mehrere pixel "springt". Dazu gibt es auch Videos im Internet (von LTT z.b.).

Im Gaming zieht im Schnitt keine CPU mehr als 150W, selbst ein 13900K. Wenn du aber mit der CPU arbeitest, dann ist das was anderes.

Zum Thema:
Nunja AMD hat vielleicht doch nicht das mit dem hohen Verbrauch gewusst. Es tritt komplett durcheinander auf, jenachdem was für ein Monitore angeschlossen ist. Dabei ist nicht nur die Auflösung und Hz entscheidend, sondern auch das jeweilige Modell. Wenn man im Labor nur mit 60Hz Monitoren arbeitet...
Es hätte aber auffallen MÜSSEN. Und es hätte schon VOR dem Launch gefixt sein müssen. Das ist meine Meinung. Alles andere heißt, das die Nutzer das Produkt erstmal testen sollen, bevor was gemacht wird, aka die Käufer sind Beta-Tester.
Spätestens, als die ersten Reviewer AMD angeschrieben hatten, wurde erst an dem Treiber gearbeitet, das ist bestimmt 1-2 Wochen vor dem Launch gewesen.
Das Update scheint aber dürftig zu sein, da es noch immer zu hoch ist und bei manchen gar nicht hilft.


P.S. Ich achte auf den Verbrauch, auch wegen der Hitze im Raum z.b. im Sommer. Ich habe einen 5800X3D und eine 4090 und je nach Spiel ist der gesamte PC bei 300-400W mit einem 120FPS Limit wegen einem 120Hz OLED. Ich nutze auch GPU-UV und auch immer DLSS2-Q und FG wenn möglich. Speziell FG kann den Verbrauch biszu 100W senken.
DLSSQ vs Native kann ich definitiv sehen, aber FG? Bisher keinen Unterschied in der Bildqualität in 2 Spielen gesehen.
Mit 2 angeschlossenen Displays (ein 4k 120hz OLED und ein 1080p 144hz Monitor) zieht der gesamte PC 90-110W aus der Steckdose, nicht im idle, sondern während des Surfens (hier schreiben z.b.) und Youtube schauen.
Dabei ist die 4090 unter 11W im idle und ca 13W im Durchschnitt beim surfen und einem 1080p Youtube Video im zweiten Monitor, laut HWiNFO.
 
Alter Vadder... ich war echt der Meinung so nen Schwachsinn würde der Vergangenheit angehören. Danke für die vielen krassen Lacher an diesem Morgen. Es gibt dazu übrigens viele gute Artikel bezüglich fps, Auge und vor allem Gehirn. Das Hirn spielt dabei eine entscheidende Rolle.
Toll fand ichs eigentlich immer, dass so Aussagen von der Konsolen Fraktion kamen, die ja die 30 fps teilweise nicht halten können und dann von cineastisch gesprochen haben....24fps und HZ durcheinander werfen und dann Joypad schreien. So nen Ding im LuXx raus zu hauen...Gratz Kollege.
Sooooo frohe Weihnachten!
 
Dass ich das immernoch lesen muss im Jahr 2022... Einfach mal mit der mittleren Maustaste mit 60HZ und vergleichsweise mit >120HZ scrollen - dankt mir später.

Zum Thema: Schön, dass der Treiber so fix kam. Wenn sich das noch mehr reduziert, wechsle ich auf die XTX, sobald sie unter 1000€ zu haben ist.
 
Eine 4090 zieht auch nur knapp 21 Watt mit 2x 4K

Ich habe aktuell 2x4k Monitor (beide mit aktiven HDR) und ein YouTube Video laufen. Dazu 3 Seiten Chrom mit in Summe 51 Tabs.
Der GESAMTVERBRAUCH ab Netzteil ist 87-108 Watt (Messung durch das Netzteil selber: ASUS Thor).
Das beinhaltet alle Lüfter, CPU, GPU, LEDs, SSDs... Hab aktuell kein Messgerät an der Steckdose, aber nach Erfahrung zu alten Messungen wird das bei ca. 95-120 Watt liegen.

In Witcher 3 mit allem auf Anschlag kommt das Gesamtsystem dank UV (CPU wie GPU) auf 270-290 Watt.

Nur mal so als grobe Orientierung, wo man sein System hintreiben kann, wenn man auf UV geht und trotzdem keine Kompromisse bei der Outputqualität haben will.
Man braucht keine 350-500 Watt allein für die GPU. Nicht mal 300 für das Gesamtsystem.

Im totalen Idle ist das auch stressfrei unter 20 Watt für die GPU alleine. Aber komplett idle ist ein PC ja normal nie. Man hat immer irgendwas laufen / offen, ansonsten würde man den PC ja aus machen.

Aber Richard88 nennen,... ein Spion! Ein Wechselbalg? Ein Imposter? 🤯

@Simsi1986 das mit den 24 hz ist ein trugschluss. 24 hz sind notwendigndam8t die meisten menschen die bewegung als (relativ) flüssig wahrnehmen. Es ist somit eine art unteres limit, nicht oberes ^^
Das lustige ist sogar, dass die 24 hz ein durch MARKETING endstandener Trugschluss ist.
Damals konnten die Videos technisch nicht mehr sein (Grund vergessen, müsste das Video dazu noch mal raussuchen). Also haben sie so getan, als hätten sie das maximale, was ein Auge sehen kann, und damit das optimale Erlebnis.

So wie Apple halt auch immer sagt, dass deren Zeug nicht zu langsam / alt / klein / doof ist, sondern "genau richtig und absolut Absicht!" ;-)

Da ich nur 2 Sylvester habe bin ich hier raus
Das ist absolut beeindruckend.
Nur zwei Sylvester hinter Dir und schon so flüssig schreiben und lesen können? Ich konnte mit 8 Jahren noch nicht so schreiben,... Respekt.
Mit gerade zwei Jahren,... Alter,.. da reden viele noch nicht mal!
 
Zuletzt bearbeitet:
Ich finde den Artikel etwas irreführend, da AMD in keiner Weise erwähnt, dass der Idle-Verbrauch mit dem aktuellen Treiber bereits verbessert.
Vielmehr ist es schön zu erfahren, dass zumindest in bestimmten Szenarien bereits eine Verbesserung messbar ist.

Leider habe ich vorher keinen Test gemacht, aber ich habe bei mir festgestellt, dass eine Reduzierung der Bildschirmfrequenz von 144 auf 60 Hz in Windows eine Halbierung des Verbrauchs erfolgt. Keine Ahnung, ob das vorher schon der Fall war. Vielmehr ist daraus auch erkennbar, dass das Problem weniger im Multimonitoring als in der genutzten Wiederholrate liegt.

Hoffen wir mal, dass AMD das noch in den Griff bekommt, ansonsten kann man sagen, dass der Idle-Verbrauch mit jeder Grafikgeneration schlimmer geworden ist. Siehe auch VRAM-Takt - das wäre angeblich letzten Monat gelöst geworden, bei meiner 6900 XT konnte ich das nicht feststellen. Andererseits war das auch schon mit Fury oder Vega ein Problem, nur eben schlimmer, da deswegen auch die Temperatur soweit anstieg, dass die Lüfter auch im Idle hörbar betrieben wurden (da wäre eine angepasste Lüfterkurve via Update schon ein netter Workaround gewesen).
Nach meiner Erfahrung ist alles sparsam was mit 60 teilbar ist bei amd grakas, 60 hz, 120, hz 180hz und 240 hz getestet, bei 144 hz und 280 hz war der Verbrauch hoch, noch kein aufgefallen?
 
Immer wieder amüsant wenn irgendwelche Gestalten mir und 10+ Millionen anderen Käufern erzählen wollen, was wir für Grafikkarten kaufen oder nicht kaufen sollen. :stupid:
 
Zur Hz Diskussion: ich war bisher auch immer skeptisch, wieso man mehr als 60 Hz haben sollte, bis ich jetzt seit Monaten mit 144 Hz unterwegs bin. Fühlt sich beim Browsen im Netz wesentlich flüssiger an.
Ist aber nichts, was man sofort sieht wie z.B. höhere Auflösung etc.

Das menschliche Auge schafft selbst zwar nur 24 Hz - ändert aber nichts daran, dass sowohl Augen als auch Hirn die höheren Bildwiederholraten realisiert.
Einfach mal einen Monat lang mit 30 Hz täglich 8h am Rechner arbeiten und mal schauen wie lange es dauert, bis die Kopfschmerzen eintreten. Muss man nicht verstehen, aber manchmal ist es denke ich besser, wenn man Dinge einfach so hinnimmt ohne zu hinterfragen (und ich hinterfrage eigentlich so ziemlich alles ...)
Das Auge arbeitet anders, es hat keine 24 hz, sonst würde man keine Blitze sehen können und wir bräuchten alle nur ein 24/30 hz Monitor ...



Da eine genauere Erläuterung
 
Leider habe ich vorher keinen Test gemacht, aber ich habe bei mir festgestellt, dass eine Reduzierung der Bildschirmfrequenz von 144 auf 60 Hz in Windows eine Halbierung des Verbrauchs erfolgt. Keine Ahnung, ob das vorher schon der Fall war. Vielmehr ist daraus auch erkennbar, dass das Problem weniger im Multimonitoring als in der genutzten Wiederholrate liegt.
Hab mit CRU 100Hz erstellt und bleibt bei 10W. Mit einer höheren Frequenz sinds dann 30W
 
Ja ja man muss AMD loben, dass man so schnell mit einem update reagieren konnte. allerdings ist es merkwürdig, das der zu hohe Idle Verbrauch bei der Entwicklung nicht aufgefallen ist.
Merkwürdig ist, dass AMD gegenüber Igor erläuterte, dass der hohe Idle Verbrauch gewollt war, damit die Karten schneller in den Lastbetrieb schalten können.
 
Ich habe aktuell 2x4k Monitor (beide mit aktiven HDR) und ein YouTube Video laufen. Dazu 3 Seiten Chrom mit in Summe 51 Tabs.
Der GESAMTVERBRAUCH ab Netzteil ist 87-108 Watt (Messung durch das Netzteil selber: ASUS Thor).
Das beinhaltet alle Lüfter, CPU, GPU, LEDs, SSDs... Hab aktuell kein Messgerät an der Steckdose, aber nach Erfahrung zu alten Messungen wird das bei ca. 95-120 Watt liegen.

In Witcher 3 mit allem auf Anschlag kommt das Gesamtsystem dank UV (CPU wie GPU) auf 270-290 Watt.

Nur mal so als grobe Orientierung, wo man sein System hintreiben kann, wenn man auf UV geht und trotzdem keine Kompromisse bei der Outputqualität haben will.
Man braucht keine 350-500 Watt allein für die GPU. Nicht mal 300 für das Gesamtsystem.

Im totalen Idle ist das auch stressfrei unter 20 Watt für die GPU alleine. Aber komplett idle ist ein PC ja normal nie. Man hat immer irgendwas laufen / offen, ansonsten würde man den PC ja aus machen.


Aber Richard88 nennen,... ein Spion! Ein Wechselbalg? Ein Imposter? 🤯


Das lustige ist sogar, dass die 24 hz ein durch MARKETING endstandener Trugschluss ist.
Damals konnten die Videos technisch nicht mehr sein (Grund vergessen, müsste das Video dazu noch mal raussuchen). Also haben sie so getan, als hätten sie das maximale, was ein Auge sehen kann, und damit das optimale Erlebnis.

So wie Apple halt auch immer sagt, dass deren Zeug nicht zu langsam / alt / klein / doof ist, sondern "genau richtig und absolut Absicht!" ;-)


Das ist absolut beeindruckend.
Nur zwei Sylvester hinter Dir und schon so flüssig schreiben und lesen können? Ich konnte mit 8 Jahren noch nicht so schreiben,... Respekt.
Mit gerade zwei Jahren,... Alter,.. da reden viele noch nicht mal!
Ist schon lustig hier

laufen nur Klugscheißer rum

An eurer Stelle würde ich die Karten selber bauen

Aber wenn man sonst schon nichts zu sagen hat, dann halt hier im Forum

Guten Rutsch
 
Ist schon lustig hier

laufen nur Klugscheißer rum

An eurer Stelle würde ich die Karten selber bauen

Aber wenn man sonst schon nichts zu sagen hat, dann halt hier im Forum

Guten Rutsch

Wat sind denn eigentlich Sylvester ? Sollen das Semester sein ?

Und mal was generelles Tommes, man könnte vielleicht auch mal was lernen oder seine Aussage revidieren, da fällt dir kein Zacken aus der Krone.
 
P.S. Ich achte auf den Verbrauch, auch wegen der Hitze im Raum z.b. im Sommer. Ich habe einen 5800X3D und eine 4090 und je nach Spiel ist der gesamte PC bei 300-400W mit einem 120FPS Limit wegen einem 120Hz OLED. Ich nutze auch GPU-UV und auch immer DLSS2-Q und FG wenn möglich. Speziell FG kann den Verbrauch biszu 100W senken.
DLSSQ vs Native kann ich definitiv sehen, aber FG? Bisher keinen Unterschied in der Bildqualität in 2 Spielen gesehen.
Mit 2 angeschlossenen Displays (ein 4k 120hz OLED und ein 1080p 144hz Monitor) zieht der gesamte PC 90-110W aus der Steckdose, nicht im idle, sondern während des Surfens (hier schreiben z.b.) und Youtube schauen.
Dabei ist die 4090 unter 11W im idle und ca 13W im Durchschnitt beim surfen und einem 1080p Youtube Video im zweiten Monitor, laut HWiNFO.
Wo stellst du das FPS Limit ein? Pro Game oder GPU Einstellungen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh