Durch bessere Temperaturen hat man weniger Verbrauch ?? Begründung ??
Du meinst doch jetzt hoffentlich nicht weil die Lüfter dann langsamer drehen oder ?
Ja das ist so
Frag einfach mal google... Ich weis aus dem Hut nicht, wie sich das ganze physikalisch korrekt begründen lässt. Aber es ist schlicht und ergreifend Fakt.
Messungen dazu finden sich hier im Forum ebenso. Ich selbst habe dazu damals mal mit zwei GTX 470ern im SLI Werte gepostet.
Kalter Zustand (um die 60°C) und 100% Lüfterspeed im Furmark Volllasttest waren ~900W Gesamtsystemverbrauch an der Steckdose.
Heißer Zustand (105-110°C) bei 100% Lüfterspeed im gleichen Test waren knapp über 1000W Gesamtsystemverbrauch an der Steckdose.
Je nach Temperaturdelta sind da durchaus 10%+ Verbrauchseinsparungen drin.
Im Endeffekt hat das Gehäuse da einen nicht zuvernachlässigbaren Einfluss auf die Materie. Denn bei einem gut durchdachten Gehäuse Design benötigst du weniger Lüfter und vor allem auch weniger starke Lüfter um die Abwärme entsprechend abzutransportieren. Je nach Grafikkartenmodell und Kühlkonstruktion kann das ne ganze Menge Unterschied ergeben. Stichwort Radial/Axiallüfter und Stichwort Referenz Kühler vs. Custom Designs. Stichwort Abluft im Gehäuse oder aus dem Gehäuse.
Da es hier womöglich um ein MGPU System geht und da auch gern mal 300-500W verbraten werden, entsprechend hoch die Abwärme auch ist, kann das Gehäuse durchaus großen Einfluss haben. Nicht nur auf die Lautstärke durch den Lüfterspeed, sondern eben auch auf den Verbrauch.
Das Ganze hat wenn ich das Recht in Erinnerung habe irgendwas mit dem Widerstand zu tun. Bei steigender Temperatur und gleicher Spannung fließt also mehr Strom, was den Verbrauch erhöht. Mehr Verbrauch heißt wiederum höhere Abwärme.
Leider lässt sich das ganze nur bedingt vollends bei ganzen PCs messen. Es hängt ja nicht nur die GPU völlig ohne Rest im PC. Sondern es betrifft unter Umständen viele und auch andere Bauteile... Fakt ist wie oben schon gesagt aber, steigende Temperatur = steigender Verbrauch! Auch muss man das ganze faktisch immer in Relation sehen. Sprich Angaben von absoluten Watt sind unsinnig. Die Relation ist relevant.
Bei meiner Messung damals mit dem 470er SLI waren das über 10% Unterschied zwischen kalt unter Last und heiß unter gleicher Last.
Den 4K Monitor kannst zunächst auch mit weniger Auflösung nutzen. Die nächste Generation kommt bald.
Sobald die da ist bekommst Du für die Karten auch fast nichts mehr (siehe die armen 780 TIler).
Man vergisst oft bei den Aussagen zum Wiederverkauf, dass die Leute womöglich lange schon mit der Hardware am spielen sind
Ich habe meine erste 780TI seit Nov. 2013... Und für das, was sie leistet, war es mir auch die damals 617€ wert... Das ich dafür womöglich heute nur noch 250-300€ bekomme? Interessiert mich dabei nicht wirklich... Geplant ist das Teil mindestens bis GM200/GM210 zu nutzen. Je nach Leistungsfähigkeit des Ganzen vllt auch länger.
Und ob ich nun 617€ in zwei Jahren einbüße oder 2x300€ pro Jahr ist unterm Strich völlig latte. Die Kohle ist so oder so weg. Zumal die GM204 GPUs ja nichtmal schneller sind.
Ich wollt eig nur wissen ob die 295X2 rausgeschmissen geld ist und in wie fern sie zukunftstauglich ist. Is ja schon nen Haufen geld den ich da investieren muss
aber das is es mir dann auch wert wenns vernünftig bzw sinnvoll dafür ist. oder ob ich halt noch warten soll was q1/q2 so rauskommt aber da werden die high end single karten auch wieder um die 600€ kosten und eine davon wird nicht so schnell sein wie eine 295x denke ich , was meint ihr ?
Aus meiner Sicht taugt keine GPU stand heute für flächendeckendes UHD Erlebnis...
Beispiel:
Ich hab mir die Tage mal MaxPayne 3 besorgt. Das ist von Mitte 2012, also gute 2,5 Jahre alt.
Es läuft auf zwei anständig übertakteten 780TIs im SLI mit um die 60-80 FPS. Ja das ist anständig... Aber für die Leistungsfähigkeit der GPUs im Grunde total grenzwertig. Mit ner Single GPU kommst du da nicht weit. Und ich hab nichtmal groß AA drauf, da das Spiel meint, mehr wie 2x MSAA nicht geben zu können wegen VRAM Limit (obwohl nur ca. 1,5-1,8GB verbraucht werden)
Bei neueren Titeln sieht das ähnlich aus. Ein Risen 3 läuft in UHD mit ner Single 780TI und ordentlich OC (1200MHz) nicht brauchbar. Teils unter 30 FPS... Ein BF3 läuft in UHD nicht sooo sonderlich brauchbar, scheint aber auch am VRAM zu kranken usw.
Unterm Strich kostet dich UHD stand heute extrem viel GPU Performance. Im Schnitt erkaufst du dir den Schritt von FullHD auf UHD mit ca. 50-70% (grob) an FPS Leistungsverlust. Das heist also, wenn du mit der Grafikkarte nach Benchmarks in Leistungsregionen von gut und gerne 120-180 FPS liegst, dann bekommst du in etwa 60 FPS bei UHD hinten raus.
Noch ein Beispiel: Lords of the Fallen läuft in UHD total bescheiden. Das liegt nicht primär am vollen VRAM. (denn der ist auch bei FHD schon voll). Man büßt aber weit über 50% FPS ein... Wo das SLI bei mir in FHD auf ca. 80 FPS kommt, was gut flüssig läuft, kommt UHD auf um die 30-35 FPS, was viel zu wenig für diesen Titel ist (der auf Reaktionsfähigkeit setzt).
Für mich persönlich heist das, UHD ist stand heute nicht wirklich tauglich für neue Spiele. Du hast im Grunde fast nur Nachteile. Und wenn du nicht gerade bei 36-40" Monitorgröße einsteigst, dann kommen noch Skalierungsproblematiken bei 2D Desktopsoftware hinzu (selbst die Win 8.1 Skalierungsoptionen sehen teils grausig aus) und 100% Größe ist so winzig, das es wieder nicht brauchbar zu erkennen ist...