braucht eine wärmere grafikkarte mehr strom?

Thread Starter
Mitglied seit
16.04.2012
Beiträge
1.986
Hallo,

wollte mal die Lüfterkurve Anpassen und die Grafikkarte etwas wärme werden lassen damit sie leiser ist, doch braucht sie wenn sie wärmer ist mehr strom?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, braucht sie, da der Widerstand vom Silizium leicht sinkt. Der Unterschied ist aber minimal und damit nicht von Bedeutung.
 
Link geht ned und der mehr Verbrauch wird bei z. B. 5 Grad mehr unter load (wenn es noch im grünen Bereich ist) sicher ned ins Gewicht fallen.
 
Bei mir ned, aber macht nix

cc884c210ea2908cf82159a582be28db.jpg
 
Hallo,

wollte mal die Lüfterkurve Anpassen und die Grafikkarte etwas wärme werden lassen damit sie leiser ist, doch braucht sie wenn sie wärmer ist mehr strom?
Kurz und knapp: Ja
Wenn es dir nur um die Lüfter Kurve geht (Lautstärke?) dann sollte es aber +/- 0 ergeben, da die Lüfter dann auch weniger Strom benötigen.
Gerade wenn man mehr als einen Lüfter auf der GPU hat, lohnt sich das, Stichwort ZFM (ZeroFanMode)
 
Naja, die gtx 660 wird davon nur moderat betroffen sein.
Die 390er Serie ist in der Hinsicht recht extrem.
Bei meiner R9 280(X) habe ich mit OC mal den Vergleich gemacht, ~43°C vs ~70-80°C unter Vollast.
Es waren ein paar Watt Ersparnis, die Lüfter waren zu vernachlässigen, da sie bei mir etwa 1Watt alle zusammen brauchen, wenn sie laufen anstatt aus sind.
Wenn ich das richtig sehe, ist die 660 aber auch weniger gefräßig als die 280x.
Sollte also hinsichtlich des Stromverbrauchs pi mal Daumen egal sein, wie deine Lüfter eingestellt sind, solange die Karte stabil läuft und nicht zu warm wird.
Ggfs Spannungswandler-Temepraturen mit im Auge behalten, ich weiß nicht, in wie weit die bei deiner 660 ein Thema sind.
 
Falsch, es macht einen gewaltigen unterschied und hat nichts direkt mit dem Widerstand von Silizium zu tun.

Umso mehr Hitze umso mehr Leckströme enstehen welche die CPU Instabil machen um denen entgegenzuwirken muss die Spannung erhöht werden und dadurch erhöht sich der verbrauch stark.
R9 290X ist das beste Beispiel hierfür.

Messung: Extrem gesteigerte Effizienz! - Raijintek Morpheus im Test: Eiskalter Hitzekiller für R9 290X & Co.
Aha. Und wo kommen die Leckströme her? Richtig, aus dem sich ändernden Widerstand...

Und es geht hier ausdrücklich nicht um Karten die so nah an der Stabilitätsgrenze sind das sie mit steigender Temperatur mehr Spannung brauchen...

Natürlich steigt der Verbrauch stark mit steigender Spannung, den massiv erhöhten Verbrauch den du beschreibst kann man aber der spannungsänderung und nicht dem Temperaturanstieg zuschreiben.
 
Noch schlimmer war wohl Fermi was das an ging. Unter Wakü konnte man über 40W einsparen.
 
Zuletzt bearbeitet:
Habe eine Asus Strix R9 280 gemessen mit 80° und 74°. Der Unterschied waren ca. 8 Watt zugunsten von 74°. Umso wärme die Karte wird, umso mehr Strom zieht sie.
 
Und wenn man sie mit flüssigen Stickstoff kühlt produzieren sie noch Strom^^. Jetzt mal Spaß bei seite hääte nicht damit gerechnet das das teilweise so viel ausmachen kann.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh