Nvidia GeForce 260 GTX"Sammel-Thread + FAQ" 6.1

Status
Für weitere Antworten geschlossen.
Du darfst ja nicht nur die Core Spannung rechnen, sondern die Gesamtleistung der Karte.
2 Spannungen liest Everest z.B. schon aus.
GPU VCC 3,330 Volt
GPU VRM 1,038 Volt
Dann muss man rechnen:
(3,33 V x 65 A) + (1,038 V x 65 A)
(----216 W---) + (---67,47 W---) = 283 Watt
So einfach ist es sicher nicht. Es wäre schon Zufall wenn bei beiden Spannungen der gleiche Strom fliessen würde ;) 280W sind auch etwas viel.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Doch es ist so einfach.
Die Rechnung stimmt.
Nur die von Everest ausgelesen Werte sind sicher nicht genau.
Dass das so ungefähr hinkommt kann man ja in jedem Review der Karte (65nm) nachlesen, in der die Gesamtleistung der Karte angegeben ist.
Sieht man doch an "Madjim" dass das so in etwa passt.
65 Watt CPU
40 Watt Board, also bis hier Runde
105 Watt.
Festplatten Lüfter brauchen nur viel wenn sie anlaufen.
Hatte das auch mal gemessen.
Ev Deine Platten ev. hast 2 und 2 Lüfter, rechne 20 Watt dazu,
also nackig System ohne Graka 120 Watt.
250 Watt für die Karte.
Passt doch in etwa.
Sagte ja, die Werte die Everest ausliest sind sicher nicht stimmig.

Und weil ich ja so wahnsinnig und nett dazu bin, gebe ich Euch Link als Beweis meiner Studie:
http://www.hartware.de/review_840_11.html

Einstein wäre stolz auf mich.

Jetzt erst Recht:
http://www.hardwareoc.at/ASUS%20ENGTX260_Geforce-GTX260-4.htm

Google hat dazu auch ´ne Meinung:
http://www.google.de/search?hl=de&q=gtx260+stromverbrauch&meta=&aq=0&oq=gtx260+stromver
 
Zuletzt bearbeitet:
Schön, wenn die Welt so einfach ist ;)

Da hast echt recht.
Ich will Dir ja nichts.
Es kommt aber so ~ in etwa hin.
Bin ja nicht der Einzige der das so sieht.
Jedes Review siehts so, nur habe ich den Rechenweg, nachvollziebar aufgezeigt.
Der Stromverbrauch unter Last der GTX260 (65nm) ist schon echt immens. Würde ich damit eine Birne zum Leuchten bringen, wärs Nachts Taghell in der Straße.
 
Hi,

evtl sollte diese Seite genaue Daten liefern.

Gruß
Nau

Edit: Noch mehr Info ;o)
 
Zuletzt bearbeitet:
Soviel dann zu dem Klugscheisser da ;)

~250W vs. 166W, ich glaube da wohl doch eher den Experten mit den Messgeräten
 
Hi,

evtl sollte diese Seite genaue Daten liefern.
Danke. Das hatte ich schon mal gelesen, wusste aber nicht mehr wo. Da wurde wenigstens mal nur die Grafikkarte gemessen und nicht nur der komplette PC. Letzteres mag zwar zu Vergleichszwecken ok sein, wieviel die Grafikkarte dann tatsächlich braucht, weiss man trotzdem nicht.

Das die Leistungsaufnahme signifikant von den von Nvidia angegebenen 182W abweicht, hätte mich sowieso ziemlich gewundert.

Mit meinen 0,9V dürfte ich auch noch etwas niedriger als 166W liegen.
 
Ich hab aber bei meinem Sys andere Werte gemessen:

-> mit C2D @ 4,25 GHz: ca 310W @ Load +++ ca 200W @ Idle

-> mit C2Q @ 3,82 GHz: ca 360W @ Load +++ ca 230W @ Idle


...wohlgemerkt das komplette Sys mit:

- 4 HDDs
- 1x DVD
- 10 Lüfter
- 8 GB Ram
- GTX260 @ 1,12V und alles auf den Werten aus der Sig!

...es würde nach deiner Rechnung ziemlich geil sein, wenn mein System ohne Graka unter Last nur 60W verbraucht, weil die Graka alleine 300W zieht :shot:

Ich hab zwar nur nen relativ billigen Verbrauchsmesser, aber ich bezweifle, dass der sich mal eben um 100-150W irrt! Er misst vllt nicht aufs Watt genau, aber ich halt die Werte für realistisch!
 
Soviel dann zu dem Klugscheisser da ;)

~250W vs. 166W, ich glaube da wohl doch eher den Experten mit den Messgeräten

Klugscheißer bin ich? Sonst noch alles ok oder was?
Eine Seite entspricht Eurer Meinung, eine Seite die keiner kennt.
Alle Anderen Seiten und Leute haben unrecht.
Klar Leute.
Ihr habts ja echt drauf.
 
Chill erstmal Kollege... :haha:

Wenn du mit hier mit so einer Arroganz groß rumtönst, solltest du auch etwas wegstecken können. Wenn dich das jetzt beleidigt hat, dann drück dich etwas bescheidener und ernsthafter aus.

Zeig mir ein Review, wo nur der Graka Verbrauch gemessen wird, das für dich spricht. Meiner Meinung widersprechen sich die Seiten nämlich gar nicht, da auf den anderen Seiten immer nur die gesamte Leistung gemessen wird und du kannst mir nicht erzählen, dass deren Testsysteme so wenig verbrauchen, dass über 200W davon nur durch die GTX 260 zustande kommen.
 
Bleib mal locker und lass Deine persöhnlichen Betitelungen weg.

Hast Du überhaupt einen Review, zu der Karte, die Du gerade erstmal hast, durchgelesen?
Ist Dir hier nicht was aufgefallen?
http://www.hardwareoc.at/ASUS%20ENGTX260_Geforce-GTX260-3.htm
Da ist das Testsystem, mit dem auch die Leistungsaufnahme getestet wurde aufgeführt.
Logisch?
QX9650 Extreme, Graka auf 721 / 1451 / 1242 Übertaktet, dazu das Asus Striker 2 Extreme, hat ja wohl Nforce Chipsatz der sehr sehr Watthungrig ist...
Das alles unter Last dann
sage und schreibe fürs ganze System: 260 Watt unter Vollast? Welches Programm hat die Vollast verursacht?
Ein Benchmark? Super sache. da hab ich dann auch nur 360 - 380 Watt fürs ganze Problem.
Furmakr geht nur auf die Graka und notgedrungen auf einen CPU Kern ohne Rambelsatung des PC.
Da sinds dann aber 415 Watt.

Furmark belastet bei dem von mir angegebenen Test nur 1 ´CPU Kern und ansonsten nur die Grafikkarte, die aber auf Vollanschlag.
Daher resultieren auch 415 Watt, die ich hier gemessen habe.
Beim Gamen mit der Karte, z.B. mit H.A.W.X. kommen da nur 380 Watt zustande.
Würde also Deine Annahme stimmen, dass die GTX 260 @ Std Taktatung bei ~ 160 Watt liegen würde, dann würde sich meine CPU und Board ja 220 Watt genehmigen, dass nur beim Gamen.
Bei Furmark würde dann bei Belastung 1 Kerne, die anderen Kerne machen ja nichts mit Furmark, sogar 270 Watt brauchen (jeweils die angeblichen 160 Watt der Karte abgezogen. Komisch, oder?

Anmerkung:
Ich habe mich dem Stromverbrauch von der Karte wahrscheinlich hier am meisten mit auseinander gesetzt, was Dir hier auch ne menge Leute bestätigen können.

Außerdem habe ich geschrieben und das mehrfach, dass die Werte, die der Rechnung zu Grunde liegen, die von Everest ausgelesenen Werte sind, die sicher nicht absolut korrekt sind.

Ich weißm also nicht, wo Du da Arroganz siehst, oder rumgetöne.
Mach Dich also mal geschmeidig, Messe selber und rechne nach.
 
Zuletzt bearbeitet:
@ wackaman

Du solltest Dich erst mal richtig informieren was eine übertakteter Quad inkl. Spannungserhöhung verbraucht, dann hättest die Lösung des Verbrauchs schon längst selbst bemerkt :d
 
Anmerkung:
Ich habe mich dem Stromverbrauch von der Karte wahrscheinlich hier am meisten mit auseinander gesetzt, was Dir hier auch ne menge Leute bestätigen können.
Dann weisst du nicht, was genau GPU-Z da misst und kannst es auch nicht belegen?

Ich halte es für sehr unwahrscheinlich, dass deine an den Haaren herbeigezogenen Schlussfolgerungen stimmen. Einfach den Strom, den GPU-Z anzeigt, auf zwei verschiedene Spannungen zu beziehen, da dann eine Leistung zu ermitteln und das ganze dann anhand von Tests zu "beweisen", wo nur die Gesamtleistungsaufnahme des PCs gemessen wurde, ist einfach fragwürdig und hält keiner kritischen Betrachtung stand.

Für mich klingt es plausibler, dass der VDDC Current nur der vom Grafikchip aufgenomme Strom ist. Dazu kommen ja noch der RAM, die Verluste in den Spannungswandlern, der NVIO-Chip und diverse andere Chips, die noch auf der Karte sind.

Die Jungs bei http://ht4u.net haben doch genau beschrieben, was sie da machen. Das Messverfahren wurde beschrieben und die verwendeten Messgeräte. Bei http://www.hardwareoc.at steht nicht mal, welches Messgerät sie verwendet haben. Vielleicht so ein 10-EUR-Teil, dass bei komplexen Lasten wie einem Schaltnetzteil falsch misst.
 
wenn du meinst....
du bekommst jeweils 10+ zum vorhergegendem Core Takt.
Was willste mit dem shader den kann ich ewig halten bei der Coreerhöhung, auch wenn gelockt ist.

Wie groß ist denn bei dir dann ein Taktsprung. Nehmen wir den Grundtakt, was wäre deinen Vorstellungen entsprechend dann der nächste Takt bei dem 10% Mehrleistung bekommst?
 
Zu gegeben, die Stromverbrauchsmessung ist alles anders als einfach. Doch mit etwas E-Technikkenntnissen und einer echten Gesamtverbrauchsmessung des Systems lässt sich der Verbrauch der Grafikkarten einigermaßen berechnen.

Über 300W halte einfach für viel zu hoch für die GTX 260. Eher 160-180W.

Mein Sys zieht ca 320W beim Furmark (mit einem billigen Strommesser gemessen).

Da können 300W für die Graka einfach nicht stimmen.

CPU ca 70W
Mobo mit Nivida Chip 40W
RAM 20W
Laufwerke + Lüfter + Wakü 30W

Das macht zusammen 160W. Bleiben noch 160W für die Graka.

Ich betone ausdrücklich das es sich um reine Schätzwerten handelt die jedoch auf die Spezifikationen der Hardware beruht.

Man muss also kein E-Technik Studium besitzen um fest zustellen das 300W Verbrauch nicht stimmen kann für die Graka.

Außerdem, wenn es stimmen würde, wäre mindestens ein 800W NT nötig um ein SLI Verbund mit GTX 260 zu realisieren!!!
Im Forum haben einige sogar 2 GTX 280 im SLI Verbund mit hochwertigen 600W Netzteilen.
 
@Wackaman

Sorry, aber HT4U.net als Seite die keine kennt zu bezeichnen......
Und schau dir doch den zweiten Link an. Ich glaube da sind auch ein Paar Seiten aufgeführt sind die bekannt vorkommen dürfen.
Das weiteren, bezweifele ich einfach das du dich hier am meisten mit dem Stromverbrauch aussernander gesetzt hast.

MfG
Nau
 
Jetzt kommen wir alle mal wieder etwas runter!

Ich persönlich kann für mich sagen, dass ich keine Ahnung von E-Technik hab! Ich finds ja gut, das wackaman uns mal ein Rechenbeispiel liefern wollte, das hat mich schon interessiert! Das Problem ist, dass die Werte von ihm viel zu hoch sind!

@ wackaman:

Wie du schon geschrieben hast, liegen dir 1.) nicht alle nötigen Werte vor, um den Verbrauch genau zu berechnen und 2.) sind die Sensor-Werte aus Everest und Co wahrscheinlich nicht präzise oder vertrauenswürdig genug, um damit konkrete Ergebnisse zu erzielen!

Ich glaube nicht, dass eine GTX260 soviel zieht, denn zum einen wäre die Nvidia-Angabe eine glatte Lüge, wenn die Karten deiner Meinung nach fast den doppelten Verbrauch von NVs spezifizierten 182W haben und zum anderen hast du hier jetzt einige Beispiele von Leuten deren komplettes System trotz übertakteter GTX260 bei knapp über 300W Verbrauch liegt und das kann einfach nicht zu 95% von der GTX kommen!
 
Die Behauptungen sind ja mal jenseits von gut und böse :haha:
Wenn er sich wirklich mit Elektrotechnik auskennen würde, müsste er auch wissen das der Verbrauch bei Spannungserhöhungen nicht linear steigt.

Einstein wäre stolz auf mich

:hmm: :lol:
 
Die Behauptungen sind ja mal jenseits von gut und böse :haha:
Wenn er sich wirklich mit Elektrotechnik auskennen würde, müsste er auch wissen das der Verbrauch bei Spannungserhöhungen nicht linear steigt.



:hmm: :lol:

dito ;)

Ich bin zwar nicht Einstein, aber dennoch stolz auf dich!!!:bigok:
 
Ihr macht mir echt Spass Ihr beiden.
Nichts, aber auch absolut nichts beisteuern zum Thema.
Nur Häme ausschütten und Ablesen kann jeder.
Selber was machen könnt Ihr nicht, und was Sinnvolles, oder Erklärendes dazu schreiben auch nicht.

Bleibt Ihr dann mal bei Eurem Glauben.
Und wo habe ich geschrieben, dass die Leistungsaufnahme bei Spannungserhöhung Linear ansteigt? Sowas steht nirgends, also mal zuerst richtig lesen.
 
Ihr macht mir echt Spass Ihr beiden.
Nichts, aber auch absolut nichts beisteuern zum Thema.
Nur Häme ausschütten und Ablesen kann jeder.
Selber was machen könnt Ihr nicht, und was Sinnvolles, oder Erklärendes dazu schreiben auch nicht.

Bleibt Ihr dann mal bei Eurem Glauben.
Und wo habe ich geschrieben, dass die Leistungsaufnahme bei Spannungserhöhung Linear ansteigt? Sowas steht nirgends, also mal zuerst richtig lesen.

Ich gebe Dir voll Recht. Also mal zuerst richtig lesen.
Dann würdest auch den Sinn meiner post verstehen :asthanos:
Aber mach Dir nichts draus, mit der Zeit steigt auch die Lebenserfahrung, dann überschaut man manches schneller ;)
 
Bleibt Ihr dann mal bei Eurem Glauben.
Um dich nicht vollends lächerlich zu machen wäre es langsam aber sicher an der Zeit zurückzurudern, meinst du nicht?

Die ganzen Reviews beziehen sich auf eine Leistungsaufnahme des kompletten PCs und nicht der Karte.
 
Ihr macht mir echt Spass Ihr beiden.
Nichts, aber auch absolut nichts beisteuern zum Thema.
Nur Häme ausschütten und Ablesen kann jeder.
Selber was machen könnt Ihr nicht, und was Sinnvolles, oder Erklärendes dazu schreiben auch nicht.

Bleibt Ihr dann mal bei Eurem Glauben.
Und wo habe ich geschrieben, dass die Leistungsaufnahme bei Spannungserhöhung Linear ansteigt? Sowas steht nirgends, also mal zuerst richtig lesen.

Das kann ich so nicht stehen lassen.

Häme schütte ich gar nicht aus. Ich habe lediglich deine These mit fundierten und logischen Beispielen in Frage gestellt.

Du bist der jenige der immer noch an seiner These festhält OHNE konkrete und nachvollziehbare Gegenbeispiele zu nennen.

Ich glaube NICHT daran das die GTX 260 300W braucht. Ich WEIS es da ich rechnen kann.

Laut deiner Behauptung müssten sich CPU + Mainboard + RAM Laufwerke usw. ca 20W teilen!!! :stupid:
 
Mehrfach habe ich erwähnt, dass die Angaben von Everst nicht korrekt sind und die Rechnung daher auch nur einen Anhaltspunkt darstellen kann.
Außerdem hat Ht4u eine Std GTX260 non OC gemessen, ich aber eine XFX-GTX260-XXX, die schon von Hause aus übertaktet ist, plus meine zusätzliche Übertaktung.
Die Std GTX260 taktet mit 575 / 1242 / 999 Mhz (GPU/Shader/Ram)
Meine XFX mit702 / 1458 / 1288 Mhz (GPU/Shader/Ram)
Das da meine Karte auch mehr Strom benötigt dürfte klar sein.
Auch gibt Ht4u an, dass bei steigender Temperatur auch die Wattleistung der Karte ansteigt, ist meine Karte z.B. heißer als die beim Test von Ht4u habe ich auch da schon einen höheren Stromverbrauch als die bei ihrem Test, zumal dann aber in der Auswertung von Ht4u nichts über die Temp bei der Messung gestanden hat, obwohl sie dies extra 2 Seiten vorher ausführlich erklärt haben.
Dass eine höher getaktete Karte nun mal eben wärmer wird dürfte somit auch klar sein.
Ob nun die Messung von HT4U das Maß der Dinge ist?

Auch liegt meiner Messung Mein PC zu Grunde.
Die Beispielrechnung ist also sicher nicht mit Ht4u vergleichbar, da 2 vollkommen unterschiedliche Karten verwendet worden sind.
Auch ist meine Rechnung von Hause aus nicht korrekt, wegen der sicher nicht korrekten Werte die Everest zur Verfügung stellt. Habe ich auch mehrfach erwähnt.
Sie ist aber auch nicht vollkommen falsch.


Man kann sich über vieles Unterhalten, auch Aufzeigen wo man Fehler macht, aber wenn ich mir so eine Art auch angewöhnen würde, wie hier manche mit Ihren Beiträgen an den Tag legen, würds hier schlimm zugehen.
Hier steht geschriebenes Wort, da kann keiner Erraten wie was gemeint ist.
 
Zuletzt bearbeitet:
[...]
GPU VCC 3,330 Volt
GPU VRM 1,038 Volt
Dann muss man rechnen:
(3,33 V x 65 A) + (1,038 V x 65 A)
(----216 W---) + (---67,47 W---) = 283 Watt

[...]

Hebe die ich die GPU Spannung auf 1,12 Volt an, ergibt dass eine Gesamtleistung der Karte von 78 Ampere.

Wir Rechnen also: (Klammer 1 unverändert da die 3,33 V bleiben)
(3,33 V x 65 A) + (1,12 V x 78 A)
(----216 W---) + (--- 87,36 W---) = 303 Watt

So.

Die Behauptungen sind ja mal jenseits von gut und böse :haha:
Wenn er sich wirklich mit Elektrotechnik auskennen würde, müsste er auch wissen das der Verbrauch bei Spannungserhöhungen nicht linear steigt.
:hmm: :lol:

Und wo habe ich geschrieben, dass die Leistungsaufnahme bei Spannungserhöhung Linear ansteigt? Sowas steht nirgends, also mal zuerst richtig lesen.

Geschrieben hast du es nicht, aber laut deiner Formel wäre es so. Und außerdem ist der Verbrauchsanstieg von 1,0375V auf 1,12V mit 20W viel zu gering, das könntest du mit einem Messgerät selber nachmessen! Deine Formel kann so also nicht stimmen.
 
Das hatte ich ihm mit dem ersten post auch geschrieben, aber manchmal sollte ich wirklich ausführlicher beschreiben was ich meine :rolleyes:
Vor allem kann man nicht schreiben:
Jedes Review siehts so, nur habe ich den Rechenweg, nachvollziebar aufgezeigt.
Der Stromverbrauch unter Last der GTX260 (65nm) ist schon echt immens.
 
Messung 1 am Messgerät Energy Logger 3500 bei Vcore der GPU mit 1,03 V ergab für den ganzen PC ~410 Watt.
Messung 2 bei 1,12 V ergaben ~440 Watt
Laut den von Everest angezeigten Werten stieg die Leistung nur um ~ 20 Watt, real waren es ~ 30 Watt.
Die ausgelesenen Werte sind, so glaube ich zumindest, nicht genau sondern eher ein Anhaltspunkt.
Mein PC hängt immer an einem Strommessgerät, nicht gerade der schlechtest Sorte.
Energy Logger 3500 zu 50 €.

Es sollte doch jetzt, so langsam auch mal gut sein.
Habe genug dazu geschrieben, aber nirgends dass mein Beispiel die Bibel der Strommessung ist.
 
Messung 1 am Messgerät Energy Logger 3500 bei Vcore der GPU mit 1,03 V ergab für den ganzen PC ~410 Watt.
Messung 2 bei 1,12 V ergaben ~440 Watt
Laut den von Everest angezeigten Werten stieg die Leistung nur um ~ 20 Watt, real waren es ~ 30 Watt.

Mein PC hängt immer an einem Strommessgerät, nicht gerade der schlechtest Sorte.
Energy Logger 3500 zu 50 €.

Es sollte doch jetzt, so langsam auch mal gut sein.
Habe genug dazu geschrieben, aber nirgends dass mein Beispiel die Bibel der Strommessung ist.

Hier ist schon ein grober Fehler in deiner Rechnung.

Du rechnest OHNE den Wirkungsgrad vom Netzteil!

Wenn 400W angezeigt werden dann das mit dem Wirkungsgrad multiplizieren.

Beispw. 400W * 0,80 = 320W

Dein System hätte dann ein Nettoverbrauch von 320W
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh