420 watt für ne gtx 260 ???

Die PCIe Spezifikation schreibt gewisse maximal Werte für die Stromversorgung vor. So eben wie erwähnt 75W für den PCIe Slot, 75W für den PCIe 6Pin Stecker und 150W für den 8Pin Stecker (wobei mir das rätzelhaft erscheint, da dieser im Gegensatz zum 6Pin Stecker nur 2 Masse Leitungen mehr hat)

Und die Hersteller werden und müssen sich an diese Regeln halten, bisschen drüber ist vllt OK da sagt keiner was.
Aber 373,1W sind weit aus zu viel drüber.
Die müssen da irgendwelchen Murks gemessen haben ;)

Die 285er brauch auch nicht mit Std. Takt 215W, die brauch ne ganze Ecke unter 200W.
Guck mal bei xbitlabs vorbei, die Werte von dehen erscheinen mir weit aus realistischer.

Ich weiss, dort findet man andere Werte vor, jedoch stellt sich hier die Frage: was versteht man unter Last?

Furmark z.B. lastet um 20%-30% mehr aus als Games, ATI-Tool oder Benchmark ala Vantage.


Seite 13 des Artikels weist zwar auf die Verletzung der Spezifikationen hin, jedoch wundert mich es trotzdem, dass es dermassen übers Limit gehen kann. Werde mal recherchieren.

mfg
edge
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
neja wie gesagt, ich denke mal die haben sich da schlicht und einfach vermessen.
Denn eigentlich alle Ergebnisse von dehnen sind irgendwie zu einem gewissen Prozentsatz zu hoch.

Ich kann dir da wie schon erwähnt nur xbitlabs ans Herz legen.
Die Werte von dort decken sich mit meinen Erfahrungen und Selbstmessungen fast zu 100%.

Und Furmark hin oder her, auch dieses Tool darf die Karte nicht dazu bringen, derart über die Spezifikationen zu gehen.
 
neja wie gesagt, ich denke mal die haben sich da schlicht und einfach vermessen.
Denn eigentlich alle Ergebnisse von dehnen sind irgendwie zu einem gewissen Prozentsatz zu hoch.

Ich kann dir da wie schon erwähnt nur xbitlabs ans Herz legen.
Die Werte von dort decken sich mit meinen Erfahrungen und Selbstmessungen fast zu 100%.

Und Furmark hin oder her, auch dieses Tool darf die Karte nicht dazu bringen, derart über die Spezifikationen zu gehen.

Nun, was ich gerade sehe spricht für den TEST.
Die Werte decken sich absolut.

Nur ein Beispiel mit der GTX285:

xbitlabs simuliert die Last mit 3DMark06 und gibt 160 Watt an.
ht4u hat im selben 166 Watt, dagegen im Furmark 214 Watt!

lediglich bei der HD4870x2 gibt es nur die Last-Angabe unter Furmark, diese liegt ganze 100 Watt über der Angabe von xbitlabs unter 3dMark06.

Wenn man jetzt diverse Messnungen des ganzen Systems hinzuzieht, und zwar von verschiedenen Quellen, kommt man zum Ergebniss, dass die HD4870x2 ganze 100-150 Watt mehr unter Load verbraucht als selbiges System mit einer GTX280. Die GTX280 wird laut xbitlabs sogar mit 178 Watt unter Load angegeben.

Im günstigen Fall mit nur 100 Watt mehr, wären wir bei der Angabe von xbitlabs von 274.7 Watt unter Load 3dMark06.
Wenn Furmark 20-30% mehr Last auf die GPU(eigentlich die komplette Grafikkarte) legt, folgere ich hierraus, dass bei der HD4870x2 eben 2 GPU`s mit 20%-30% beladen werden.
Hätte die HD4870x2 nur GPU`s zu versorgen, wären es 50Watt mehr unter Furmark pro GPU, sein werden es ca. 30 Watt mehr pro GPU.
Bei 50 Watt pro GPU wären es nichtmal 20% mehr Last unter Furmark.

Alles nur ne These meinerseits, dass Furmark 20%-30% mehr Last als 3DMark06 auflegt, kann ich selbst bestätigen.


EDIT:
Habe hier noch etwas gefunden, nur ein Ausschnitt aus einem Forum.

"What NVIDIA and AMD say about their power spec is actually "Board Power" not "Thermal Design Power". That's the word which comes with their slides.
The power draw of GTX295 and HD4870X2 actually violates the PCI-e 300W(with 6pin and 8pin) spec. We're convinced that a card with one 6pin and one 8pin is well under 300W but it can draw as much as 373W in Furmark, and that's constant, not peak power draw.

Xbit Labs got their result in 3DMark06, which is a "Typical" one, but even less than in some real world games. Furmark is much higher than "Typical" and almost all the games but it's still a real 3D application and benchmark program, not a fictional one."

mfg
edge
 
Zuletzt bearbeitet:
@badedge
mhh deine Rechnung klingt erstmal plausibel muss ich zugeben...

Die Frage wäre nun, wie kann es sein, das eine Karte so derart über den Spezifikationen leben kann?
Kann mir ehrlich gesagt auch nicht ganz vorstellen, das derartige Überlast auf dauer gut für das NT wäre.
Zumindest nicht bei NTs, die nicht für jeden PCIe Stomstecker ne eigene 12V Leistung bieten.
Und vor allem stellt sich mir die Frage, was ist technisch überhaupt den 3 12V Pins des 8Pin PCIe Steckers zumutbar.
Die Spezifikation gibts ja nicht ohne Grund, wenn dort derart über den Werten noch Luft ist, hätte man sich da sicher nicht so niedrig eingefunden...
 
Interessanter Thread. Auf die Furmark Werte kommt doch der normale Zocker nie, das sieht man ja auch am Verbrauch der Karten.


Ja Furmark ist absolut ein Killer was die Last anbelangt, aber an was soll man sich orientieren wenn nicht am maximum.

Ob die 370Watt im Furmark für die hd4870x2 stimmen, weiss ich immer noch nicht :)
Fakt ist jedoch, dass man Werte von 450Watt aufwärts fürs komplette System unter 3dMark sehen kann, auch Userreviews zeigen die selbigen Werte.

Zuletzt sah ich ein Userreview mit nem oced e8600 der unter 80 Watt liegen müsste laut rechnern (exakte Angabe von vcore, Clock etc). Nur einer Platte und einem Laufwerk, MB war "Rampage Extreme". Das System zog unter 3DMark 444 Watt.

Klarheit würden User verschaffen, indem sie wenigstens das komplette System unter 3dMark und unter Furmark messen. Wenn sich ein Unterschied von 100 Watt einstellt, wären die Daten von ht4u bestätigt.


mfg
edge
 
Zuletzt bearbeitet:
Leider hab ich kein Wattmessgerät, ich würd schon gern mal wissen, wieviel mein AMD System, vor allem unter Last, aus der Steckdose zieht.

Und wie nah mein NT am Limit läuft, viel Spielraum ist da sicher nicht ;)
 
@badedge
mhh deine Rechnung klingt erstmal plausibel muss ich zugeben...

Die Frage wäre nun, wie kann es sein, das eine Karte so derart über den Spezifikationen leben kann?
Kann mir ehrlich gesagt auch nicht ganz vorstellen, das derartige Überlast auf dauer gut für das NT wäre.
Zumindest nicht bei NTs, die nicht für jeden PCIe Stomstecker ne eigene 12V Leistung bieten.
Und vor allem stellt sich mir die Frage, was ist technisch überhaupt den 3 12V Pins des 8Pin PCIe Steckers zumutbar.
Die Spezifikation gibts ja nicht ohne Grund, wenn dort derart über den Werten noch Luft ist, hätte man sich da sicher nicht so niedrig eingefunden...

Jo, genau das frage ich mich auch. Ob wir uns hier bereits im Bereich ala "OC auch für 12v Versorgung" befinden. Sicherlich lässt sich so ziemlich alles übertakten, jedoch fließen hier Stromstärken die alles andére als lustig sind.
Dem NT selbst denke ich macht es herzlich wenig aus, da die 6Pin+8Pin ja an der +12v Schiene hängen und diese bereits mit 40A 480Watt ziehen lässt.

Der Slot selbst wies aussieht läuft im Bereich der Spezifikation, nur die 6Pin und 8Pin Zufuhr scheint sich außerhalb zu bewegen. Wieder muss doch der Hersteller bzw die Entwickler des Layouts dort eben vorsorgen, damit das ganze nicht durchbrennt. Möglich wäre, dass die Hersteller hier einfach nicht auf den neuen Standard warten und die Spezifikation selbst erhöhen.

EDIT:
die 3 12v Pins müssten dies locker aushalten, das Kabel ist ausreichend deminsioniert um nicht durchzubrennen.
Denk mal an die normalen NYM-Kabel die dir die ganze Budde versorgen, dort liegen 220v an und Stromstärken jenseits von gut udn böse.
Faustdick sind se auch nicht :)


mfg
edge
 
Zuletzt bearbeitet:
Ich hab nen Freund mit P2 940 und einer 4870X2. Kann ja mal mit meinem Energiemessgerät vorbeischauen.

Ich hab mit dem i7 920 default und der GTX285 mit gleichzeitiger Belastung LinX und Furmark 24" 16xMSAA 400W an der Steckdose.
 
Leider hab ich kein Wattmessgerät, ich würd schon gern mal wissen, wieviel mein AMD System, vor allem unter Last, aus der Steckdose zieht.

Und wie nah mein NT am Limit läuft, viel Spielraum ist da sicher nicht ;)

Das Gerät würde dich nen 10er kosten, wenns dich wirklich interessiert.

mfg
edge

---------- Beitrag hinzugefügt um 03:10 ---------- Vorheriger Beitrag war um 02:59 ----------

Ich hab nen Freund mit P2 940 und einer 4870X2. Kann ja mal mit meinem Energiemessgerät vorbeischauen.

Ich hab mit dem i7 920 default und der GTX285 mit gleichzeitiger Belastung LinX und Furmark 24" 16xMSAA 400W an der Steckdose.


Wenn du das machen würdest, hätten wir hier sicherlich Klarheit :)
Vorallem der Unterschied zwischen Furmark und 3dMark wäre sehr interessant.
Wenn der Unterschied bei der HD4870x2 tatsächlich um die 100 Watt zwischen Furmark und 3DMark liegen wird, dann kann man hier schonmal alle User mit einem schwachen NT und einer HD4870x2 warnen - se sollen ja den Furmark meiden :).

ATI selbst hat ja dafür bereits selbst gesorgt.

PS: achja, den neuesten Furmark bitte testen, dieser gibt gleich eine Warnung für ATI. Man soll die Furmark.exe umbennen z.B. zu F.exe, damit dieser die ATI Karte auch wirklich stresst. ATI hat treiberseitig vorgesorgt und die Karten laufen auf Sparflamme trotz des gleichen Taktes im Furmark.

mfg
edge
 
Zuletzt bearbeitet:
Meinem Kumpel hab ich ein Enermax 525W verbaut. Das sollte auch mehr als ausreichend sein.

Die Frage ist doch auch, welcher Bench im 3DMark und welche Einstellungen in Furmark.

Ich persönlich meide den Furmark sowieso.
 
Meinem Kumpel hab ich ein Enermax 525W verbaut. Das sollte auch mehr als ausreichend sein.

Die Frage ist doch auch, welcher Bench im 3DMark und welche Einstellungen in Furmark.

Ich persönlich meide den Furmark sowieso.

Also, für Furmark gehen wir mal von ht4u aus, da wären:

Furmark 1.6.0 - 1280x1024 NoAA
GPU-Temperatur: 92°C (GPU1) / 70°C (GPU2)


Für 3DMark06, ziehen wir xbitlabs hinzu, da wäre:

3DMark06 mit 1600x1200 4x FSAA und 16x AF

Der erste SM3.0/HDR-Test in einer Dauerschleife.



Die OS ist hier egal, zwischen beiden Tests liegen 100 Watt.


PS: das NT hat 40A(480Watt) Combi auf den Rails, das müsste reichen.


mfg
edge
 
Zuletzt bearbeitet:
Furmark ohne AA? Schräg....

PS: Natürlich genügt das, sonst hätte ich es nicht verbaut ;)

Nachtrag1: Ich teste das mal mit meiner GTX. Interessiert mich jetzt mal.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Jau, denke ich mir auch. Aber der Stromverbrauch bzw. die Stromaufnahme aktueller Grafikkarten und auch Prozessoren ist ja - für mich zumindest - ein brandheißes Thema.

Mal einen Test mit der GTX gemacht:

-3DMark06 1920x1200 8FSAA/16AF HDR3.0 Loop
Verbrauch: 270W in der Spitze.

-Furmark 1920x1200 16xMSAA Extreme Burn Mode
Verbrauch: 350W in der Spitze.

CPU-Auslastung bei beiden relativ gleich.
 
Zuletzt bearbeitet:
Jau, denke ich mir auch. Aber der Stromverbrauch bzw. die Stromaufnahme aktueller Grafikkarten und auch Prozessoren ist ja - für mich zumindest - ein brandheißes Thema.

Für mich ebenfalls, wenn man bedenkt, dass der Verbrauch dieser tendenziell steigt.
Ich möchte nicht eines Tages aufwachen und feststellen, dass der FI geflogen ist, weil ich über Nacht vergessen habe den Furmark auszumachen und mein Corsair TX 8500 Watt die neue GTX585 nicht gepackt hat. :)

Ich möchte nciht wissen, was dieser Intel 80 Core frisst, wenn ich mir alleine die Stromversorgung angucke.



 
Jau, denke ich mir auch. Aber der Stromverbrauch bzw. die Stromaufnahme aktueller Grafikkarten und auch Prozessoren ist ja - für mich zumindest - ein brandheißes Thema.

Mal einen Test mit der GTX gemacht:

-3DMark06 1920x1200 8FSAA/16AF HDR3.0 Loop
Verbrauch: 270W in der Spitze.

-Furmark 1920x1200 16xMSAA Extreme Burn Mode
Verbrauch: 350W in der Spitze.

CPU-Auslastung bei beiden relativ gleich.


Wow, das rückt das ganze ins richtige Licht, 80 Watt Unterschied ist wirklich gewaltig!
Denke die Daten von ht4u sind gar nicht mal verkehrt oO.
Vielen Dank für diesen Test.

Das beudeutet schonmal, aufpassen mit Furmark - wobei Crysis auf Ultra mit AA hier auch schon nahe kommt. Leute mit unterdeminsionierten Netzteilen sollten lieber kein Furmark zocken :) oder für eine bessere Stromversorgung sorgen.

Aber schon heftig, dass man die Last überall mit 3DMark misst. Da werden sich so einige an diesen Daten orientieren und evtl ein zu schwaches NT kaufen. Was wiederrum die ganzen "NT im ****" Userreviews bestätigen.

Keine Frage, das ist oft Marketing und die Hersteller werden immer versuchen ein stärkeres NT anzudrehen, jedoch sollte man sich schon informieren, bevor man ein zu schwaches NT kauft.

Furmark mit seinem derben Algorithmus ist sicherlich keine altägliche Sache, es kommen aber immer neuere Games und diese werden auch immer mehr GPU-Power verlangen (wie man es bei Crysis sah).


mfg
edge
 
Nur müsste man nun explizit herrausbekommen, was Mehrleistung in Furmark erzeugt...
Mhhh, sehr sehr komisch
 
sehr interessante ausführungen auf dieser seite.

aber jetzt müsste man doch eher wissen, wie nah zukünftige anwendungen an die auslastung von furmark rankommen?!
denn ein netzteil für furmark auszulegen halte ich doch eher für sinnbefreit.
 
das denke ich auch, also die frage ob es eine andere anwendung tut, die man auch sinnvoll nutzen kann...
ansonsten ist das mit furmark ja ganz nett, bringt mir aber nichts.
 
das denke ich auch, also die frage ob es eine andere anwendung tut, die man auch sinnvoll nutzen kann...
ansonsten ist das mit furmark ja ganz nett, bringt mir aber nichts.

Vantage kommt vielleicht noch hin. Ansonsten müsste man sowieso den Energieverbrauch im Spielbetrieb aufzeichnen. Und ich komme da nicht annähernd an die Maximalauslastung mit LinX + Furmark.

Nachtrag: Im Vantage komme ich auch maximal auf 270W bei den Grafiktests. Was also macht den Mehrverbrauch im Furmark aus?
 
Zuletzt bearbeitet:
sehr gute frage... also hat es bis jetzt noch relativ wenig praxisbezug...
 
So ist es. Es sollte auch wirklich niemand so verrückt sein und CPU/Board und GPU mit massiven Lasttests wie Furmark und Linx gleichzeitig zu belasten.
 
So ist es. Es sollte auch wirklich niemand so verrückt sein und CPU/Board und GPU mit massiven Lasttests wie Furmark und Linx gleichzeitig zu belasten.

klar, so bekommt man wenigstens die max. Last raus und kann das NT dementsprechend dimensionieren.
Spätestens wenn die sich GPGPU Anwendungen auf breiter Masse durchsetzen werden, wird das Auslastungsproblem der GPUs ab R600 nach hinten gerückt.
Denn diese Anwendungen schaffen problemlos auch mehr Last als normale Games...
 
wen interessiert eine maximale last, die nur über solche extremen tests erreicht werden kann?
danach dimensioniere ich kein netzteil.
wie weit diese gpgpu anwendungen dann gehen, muss sich ja auch noch zeigen... oder gibt es da verlässliche werte?
 
wen interessiert eine maximale last, die nur über solche extremen tests erreicht werden kann?
danach dimensioniere ich kein netzteil.
wie weit diese gpgpu anwendungen dann gehen, muss sich ja auch noch zeigen... oder gibt es da verlässliche werte?

Nein gibt es nicht, aber es ist abzusehen, das via GPGPU Anwendung die Auslastung mindestens genau so hoch sein kann, wie bei Furmark.
Ist eben ein wenig hinderlich die 5D Shader... wenn es um 3D Anwendungen geht.

Was mich aber wundert, das auch die NV Karten mit Furmark drastisch mehr Leistung brauchen als mit anderen 3D Anwendungen.
Das lässt zumindest vermuten, das Furmark die Auslastung der Shader nicht weiter hoch treibt, denn bei den NVs mit den 1D Shadern liegt auch schon bei Std. 3D Games annähernd Volllast an, da die Shader einfach und komplett auszulasten sind.

Die Frage ist, wo kommt die Last dann her, wenn nicht von der GPU?

Und ne, du kannst ja gerne dein NT so dimensionieren, das es gerade so für 3D Games reich, aber für mich wäre das nix.
Als Beispiel, der Porsche Fahrer wird sich auch keine Reifen kaufen, die nur bis 180km/h zugelassen sind, nur weil er in absehbarer Zeit keine Autobahn fahren will. ;)
Wer weis was kommt, vllt sehen wir morgen schon Tools welche volllast auf GPU und CPU legen, dann siehst du alt aus... :p
 
Ja, am besten kaufen wir alle 1000W+ Netzteile.

In erster Linie geht es hier auch um die Effizienz im Idle (Office/Surfen), die bei solch überdimensionierten Netzteilen gerne mal ins Bodenlose sackt, weil es im Bereich unter 20% der maximalen Auslastung liegt.

Und bis entsprechende Anwendungen kommen, die solche Auslastungen erzeugen (sollen), wie du sie erwähnst, haben wir schon weit kleinere Strukturen im Fertigungsprozess und geringere Leistungsaufnahme im Allgemeinen :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh