420 watt für ne gtx 260 ???

Nein gibt es nicht, aber es ist abzusehen, das via GPGPU Anwendung die Auslastung mindestens genau so hoch sein kann, wie bei Furmark.
Ist eben ein wenig hinderlich die 5D Shader... wenn es um 3D Anwendungen geht.

Was mich aber wundert, das auch die NV Karten mit Furmark drastisch mehr Leistung brauchen als mit anderen 3D Anwendungen.
Das lässt zumindest vermuten, das Furmark die Auslastung der Shader nicht weiter hoch treibt, denn bei den NVs mit den 1D Shadern liegt auch schon bei Std. 3D Games annähernd Volllast an, da die Shader einfach und komplett auszulasten sind.

Die Frage ist, wo kommt die Last dann her, wenn nicht von der GPU?

Und ne, du kannst ja gerne dein NT so dimensionieren, das es gerade so für 3D Games reich, aber für mich wäre das nix.
Als Beispiel, der Porsche Fahrer wird sich auch keine Reifen kaufen, die nur bis 180km/h zugelassen sind, nur weil er in absehbarer Zeit keine Autobahn fahren will. ;)
Wer weis was kommt, vllt sehen wir morgen schon Tools welche volllast auf GPU und CPU legen, dann siehst du alt aus... :p

wer sagt denn dass es gerade so für 3d reicht? warum muss das direkt immer ins negative gezogen werden?

ich sehe dann auch ganz sicher nicht alt aus, da mach dir keine sorgen.
das ist doch alles nich viel zu theoretisch. da sind mir noch viel zu viele vielleichts und irgendwann und was weiß ich drin.
ich stimme da eher mit don banana überein.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich will dich da nicht von abhalten ;)
Und nein, ich ziehe es nicht ins Negative, aber wenn du meinst, dich interessiert der maximalverbrauch bei absoluter Volllast nicht, dann musst du eben damit Rechnen, das bei GPGPU Anwendungen dem NT ggf. die Puste ausgeht, wenn es das nicht abkann. Mehr habe ich dazu nicht gesagt ;)
 
richtig, der interessiert mich persönlich überhaupt nicht, da die anwendungen die ich nutze, nicht mal ansatzweise an diese leistung heranreichen.
und gpgpu ist für mich aktuell überhaupt kein thema, deshalb wird meinem netzteil auch da nicht die puste ausgehen.
und da du mir nach eigener aussage keine angaben zum realen verbrauch bei gpgpu anwendung geben kannst, ist das thema somit eh höchst theoretisch.
 
Das deminsionieren des Netzteils bleibt immer einem selbst überlassen.
Fakt ist jedoch, dass eine solche Last anliegen kann.
Woran soll man sich denn orientieren?
Das die TDP-Angabe höchstens was für die Entwicklung von Kühllösungen ist, davon kann man hier bereits ausgehen, vorallem wen man die gescheiterten Kühllösungen aktueller Grafikkarten betrachtet - ob ATI oder NV, beide haben es meiner Meinung nach vermasselt.
Es geht hier auch nicht darum, sich ein 1000 Watt Netzteil zu besorgen, lediglich sollte man dafür sorgen, dass die Rails(Schienen) des Netzteils auch genug leisten koennen.
Wenn die Rails unterdeminsioniert werden, kann es durchaus zum Ausfall des Netzteils kommen und die Konsequenzen reichen von: NT hin bis Wohnungsbrand. Videoportale bieten hier genug Videos von zerschossenen Netzteilen durch die Grafikkarte.

Ganz klar ist die Last von Furmark extrem hoch, jedoch denke ich, dass z.B. Crysis auf Ultra mit AA oder Spiele wie Grid auf maximum bereits Furmark nahekommen, auch wenn es nur im Peak sein wird, kann es das Netzteil überlasten. Diese Peaks treten auch zuhause auf, immer wenn man das Licht an und ausmacht, die Birnen sind sogar dafür ausgelegt und trotzdem zerschießt es die eine oder andere. Hier ist dann zum Glück nur die Birne hin, beim Netzteil kann es dagegen viel schlimmer enden.

Dann gibt es sicherlich User, die dank genug Grafikpower und mittels Nhancer ihre Spiele noch verschönern, welches dann durch brachiale Supersampling 4x4 realisiert wird. Hier steigt die Last sicherlich extrem an, weil alleine die FPS mindestens um die Hälfte einbrechen.

Zuletzt und ganz wichtig zu sagen wäre, dass Overclocking bereits in aller Munde ist!
Ganz ehrlich, fast jeder übertaktet seine Grafikkarte. Die Hersteller liefern ja schon die Software dazu. Das der Verbrauch durch höhere Taktraten steigt, kann man hier auch nicht bestreiten.

Es ist nur eine Sache, die mir hier sorgen macht. Es tauchen immer Themen wie diese hier auf und man redet immer von "WATT", je mehr umso besser. Das ist für mich absoluter Blödsinn.
Man sollte die User über die Leistungsfähigkeit der +12v Schiene/n(Rails) aufklären, denn nur das ist entscheidend. Vorallem weil wir jetzt wissen, dass die Mehrleistung längst über den Spezifikationen liegt und durch die 6Pin+8Pin Zufuhr realisiert wird.

Ein Beispiel: leistet ein Netzteil bereits 40A auf der +12v Schiene/en, sind es eh schon 480 Watt (12v*40A) alleine auf der +12v Schiene und es wird dann auch sicherlich ein Netzteil mit etwas über 500 Watt Gesamtleistung sein.
Es gibt jedoch auch netzteile die 600 Watt und mehr Gesamtleistung aufweisen, dagegen nur 30A auf der +12v Schiene/n haben, hier braucht man sich über den Ausfall des Netzteils nicht wundern.

Wie man sieht würde ein 40A (480 Watt) auf der +12v Schiene bereits für eine HD4870x2 auch unter Furmark reichen, es sei denn man betreibt dazu einen XQ-Prozessor bei 5Ghz und Stickstoffkühlung.

mfg
edge
 
Zuletzt bearbeitet:
Das die TDP-Angabe höchstens was für die Entwicklung von Kühllösungen ist, davon kann man hier bereits ausgehen, vorallem wen man die gescheiterten Kühllösungen aktueller Grafikkarten betrachtet - ob ATI oder NV, beide haben es meiner Meinung nach vermasselt.

Wer anhand der TDP Angabe einer GPU versucht auf den Verbrauch zu schließen, der hat eindeutig den Sinn dieser Angabe nicht verstanden.
Die TDP Angabe hat rein gar nix mit dem Verbrauch zu tun.
Zumahl diese sich wohl recht oft sogar nur auf die GPU bezieht, und nicht auf die komplette Karte... Da die GPU eben das zu kühlende Objekt ist ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh