Hallo
Ich habe seit 2 Tagen eine 7900xt in meinem Rechner und bin zufrieden
Keine Ahnung warum hier ein Drama um 20-40 Watt gemacht wird
Das Menschliche Auge kann bis 60hz oder Fps wahrnehmen
Alles darüber kann das Auge nicht unterscheiden
Sehr viele packen sich einen Intel rein der bis 300 Watt zieht, die Grafikkarte dabei sind wir bei 600-700 Watt
Und dann wird diskutiert ob die Eine Karte 240fps macht und die andere nur 200
Das lustige dabei ist, das Auge sieht es nicht
Allen ein frohes Fest
+20-60Watt in Idle und leichter Nutzung, dazu zählt auch lesen in diesem Forum.
Bei den aktuellen Kosten sind das locker über 50€ im Jahr und definitv ein Grund 100€ mehr für eine 4080 auszugeben, wenn man die Karte mind 2 Jahre behalten will.
Nur weil DEIN Auge mehr als 60Hz/FPS nicht sehen kann, heißt nicht das es keiner sehen kann. Ich sehe einen deutlichen Unterschied schon bei 90FPS/Hz und zwischen 90 und 120FPS/Hz.
Dabei meine ich nicht das ich die einzelnen Bilder sehen kann sondern das das Spiel SICHTBAR flüssiger läuft.
Dazu kommt noch das bei 60FPS die Animationen/Hitboxen z.b. bei Shootern langsamer berechnet werden und man durchaus zwischen 2 Bildern ins Leere schießen kann, weil die Hitbox bei 60FPS mehrere pixel "springt". Dazu gibt es auch Videos im Internet (von LTT z.b.).
Im Gaming zieht im Schnitt keine CPU mehr als 150W, selbst ein 13900K. Wenn du aber mit der CPU arbeitest, dann ist das was anderes.
Zum Thema:
Nunja AMD hat vielleicht doch nicht das mit dem hohen Verbrauch gewusst. Es tritt komplett durcheinander auf, jenachdem was für ein Monitore angeschlossen ist. Dabei ist nicht nur die Auflösung und Hz entscheidend, sondern auch das jeweilige Modell. Wenn man im Labor nur mit 60Hz Monitoren arbeitet...
Es hätte aber auffallen MÜSSEN. Und es hätte schon VOR dem Launch gefixt sein müssen. Das ist meine Meinung. Alles andere heißt, das die Nutzer das Produkt erstmal testen sollen, bevor was gemacht wird, aka die Käufer sind Beta-Tester.
Spätestens, als die ersten Reviewer AMD angeschrieben hatten, wurde erst an dem Treiber gearbeitet, das ist bestimmt 1-2 Wochen vor dem Launch gewesen.
Das Update scheint aber dürftig zu sein, da es noch immer zu hoch ist und bei manchen gar nicht hilft.
P.S. Ich achte auf den Verbrauch, auch wegen der Hitze im Raum z.b. im Sommer. Ich habe einen 5800X3D und eine 4090 und je nach Spiel ist der gesamte PC bei 300-400W mit einem 120FPS Limit wegen einem 120Hz OLED. Ich nutze auch GPU-UV und auch immer DLSS2-Q und FG wenn möglich. Speziell FG kann den Verbrauch biszu 100W senken.
DLSSQ vs Native kann ich definitiv sehen, aber FG? Bisher keinen Unterschied in der Bildqualität in 2 Spielen gesehen.
Mit 2 angeschlossenen Displays (ein 4k 120hz OLED und ein 1080p 144hz Monitor) zieht der gesamte PC 90-110W aus der Steckdose, nicht im idle, sondern während des Surfens (hier schreiben z.b.) und Youtube schauen.
Dabei ist die 4090 unter 11W im idle und ca 13W im Durchschnitt beim surfen und einem 1080p Youtube Video im zweiten Monitor, laut HWiNFO.