Hallo,
wie weiter oben bereits erwähnt hab ich mir das Zusammenspiel von SMP-CPU-Client und GPU3-Client angeschaut.
CPU: Core i7-980x@4015 MHz
Graka: GTX 580@902-1804-2106@1,138V und GTX 580@810-1620-2052@1,038V
Gestartet bin ich mit dem SMP-Client und 12 Threads:
59607 PPD bei 310 W bedeuten eine Effizienz von 8012 Punkten/kWh.
Ohne am SMP-Client etwas zu ändern (weiterhin 12 Threads) hat sich mit einem laufenden GPU-Client das Folgende ergeben:
Obwohl der Verbrauch um 68 % auf 522 W gestiegen ist, sind es insgesamt immer noch ca. 60.000 PPD. Der Zugewinn durch die GPU wird vollständig durch den Verlust bei der CPU kompensiert (TPF steigt um 32 %).
hier die Tabelle dazu:
Eine der nächsten WUs (P6900) hab ich dann direkt mit nur 11 Threads begonnen:
Die TPF steigt etwas und die PPD fallen etwas (im Vergleich zu einer WU, die mit 12 Threads gestartet wurde). Durch einen parallel laufenden GPU-Client ändert sich dann nicht mehr viel daran:
Ich geh jetzt mal direkt zur Zusammenfassung in Tabellenform:
Für die Werte beim SMP=12 habe ich die Mittelwerte aus 22 gefalteten WUs genommen.
Durch die Wegnahme eines Threads steigt die TPF nur um 3,64 %.
Die Anzahl der Threads würde sogar um 8,33 % fallen. Wie schauts allerdings bei der Rechenleistung aus? Es sind ja nicht wirklich 12 Kerne vorhanden.
Wieviel bringt SMT? unter der Annahme, es wären 40 %, könnte man ja die 8,33 % eben mit 0,40 multiplizieren und hätte dann 3,33 % (es fällt ja auch nur ein "SMT-Thread" weg).
Ob man so rechnen kann, bin ich mir nicht sicher. Es würde jedenfalls gut zum Anstieg bei der TPF passen.
Eventuell lasse ich noch eine WU mit nur 6 Threads laufen.
Die Effizienz in F@H fällt durch SMT anscheinend ebenfalls besser aus.
Die Gesamt-PPD steigt nun um 31 %. Allerdings auch der Verbrauch um 70 %. Dadurch sinkt die Effizienz um 23 % auf 5919 Punkte/kWh.
Hier eine weitere WU, die mit mit 11 Threads lief:
Dieselbe WU mit parallel laufendem GPU-Client:
die Tabelle dazu:
Die Effizienz der GPU ist hier besser, wodurch die Effizienz des Gesamtsystems nur noch um 17 % im Vergleich zum alleine mit 12 Threads laufenden SMP-Client abnimmt.
Die 1804 MHz Shadertakt wären in F@H aber auch mit weniger Spannung gelaufen. Bei der GTX 580 laufen bei mir jedenfalls einige Einstellungen in F@H stabil, die z.B. in Crysis nicht stabil sind.
Mir ist auch noch aufgefallen, dass die TPF des CPU-Clients in Abhängigkeit der gerade laufenden GPU-WU um ein paar Sekunden variiert.
Fazit:
Die beste Effizienz (Kriterium Punkte/kWh) erzielt man, wenn nur ein schneller SMP-Client an BigADV-WUs faltet. Wenn man die richtigen Einstellungen wählt (Threads reduzieren), kann man durch einen zusätzlich laufenden GPU-Client die Punkteausbeute erhöhen, ohne das die Effizienz zu sehr abfällt.
Geschrieben hatte es ja schon der ein oder andere. Ich wollte es jetzt nur noch an ein paar konkreten Beispielen veranschaulichen.
Vielleicht noch ein kleiner Bogen zur Vergangenheit:
Mit einem Core i7-920@4 GHz und 2x GTX 280@670-1456-1188@1,038 V verbrauchte mein Rechner bei Vollauslastung in F@H ca. 470 W.
WUs mit Bonuspunkten gabs damals noch nicht und mein Gesamtsystem schaffte 18.000-20.000 PPD
Die Effizienz lag somit zwischen 1596 und 1773 Punkten/kWh.
Würde ich nur die GTX 580 mit 1620 MHz falten lassen, hätte ich aktuell bei einem Gesamtrechnerverbrauch von 365 W eine Effizienz von 2015 Punkten/kWh.
Die GTX 580 würde dabei mit 17647 PPD fast die gleiche Leistung erreichen wie das alte System.
ciao Tom