Folding@Home - Hardwareluxx Team

Danke 7even, wird bald mal umgesetzt!

@ Schlingel: Was ergeben sich denn für Vorteile mit der SMP Version? Ich habe zwei normale Clients am laufen, die reizen die CPU recht gut aus. Lass mich aber gern eines Besseren belehren :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
sagen wir mal so der GPUv2 Gromacs lastet die GPU auch voll aus, bringt aber weniger Punkte als der GPU NV MT (der die GPU sogar nicht immer komplett auslastet und sogar Strom spart) ;)

ich hatte letztens ja kurz Linux angetestet: Dort gabs noch Gromacs Ver 1 für die CPU. Mir kam der nicht sonderlich effizient vor. Der SMP hat wenn ich mich recht entsinne Gromacs v2

Und rein von der Deadline her hatte ich mein ich irendwas mit 30 Tagen bei nem E5300er. Von daher seh ich da keine Probleme
 
Hallo,

von GPU-Z gibts eine neue Version (0.3.8):
attachment.php

Damit könnte dann auch die Abweichung zwischen GPU-Z und dem Gadget geklärt sein.

ciao Tom

P.S. wenn ihr alle 1888P-WUs weg schnappt, dann muss ich mich halt um den Rest kümmern.:xmas:
 

Anhänge

  • GPU-Z.png
    GPU-Z.png
    11,6 KB · Aufrufe: 148
Zuletzt bearbeitet:
Hab mir ebend mal die neue Version runtergeladen.
Und siehe da wie schon über mir erkannt erklärt diese Version unser Problem ^^.
Das Gadget zeigt nicht die Vram-Auslastung an sondern die Auslastung des Memory-Controllers.
Jetzt ist nur wieder fraglich wofür die "Video-Engine-Load" da ist ^^.
Eine Frage ist geklärt und die nächste nimmt den freien Platz ein :shot:
 
@Oban
sowohl Nvidia als auch ATI haben in ihren GPUs zum Teil spezielle Einheiten zur Video-Dekodierung (welche codecs genau, kann ich auswendig nicht sagen).
Dazu gehört anscheinend die Anzeige "Video Engine Load". Jedenfalls schlägt sie aus (34 %), sobald ich einen Blu-Ray-Film abspiele. Die GPU-Load-Anzeige ist dabei auf 0-1 %.

ciao Tom
 
Zuletzt bearbeitet:
Hm das sind dann vielleicht logische Gruppierungen die wieder nicht so viel über die eigentliche Hardwareauslastung aussagen... *g
 
Okay Problem also geklärt... Aber: Was interessiert mich die Auslastung des Speicherinterfaces!? :hmm: Die Ram-Auslastung wäre mir da viel lieber. Vielleicht legt das Gadget in der nächsten Version nach

Btw: gestern hatte ich teilweise nur (!) 1888 und 472er laufen. dazu dann noch credits vom vortag und ich hatte nen neuen tagesrekord. heute ist dagegen essig. ich arbeite grad nur die letzten drei aus der reserve von gestern ab. anonsten nur 353/787 :motz:

@dampfkanes: die 1888er gibbet auch für die ATIs? Das "NV MT" lässt irgendwie auf nv schließen
 
Ach toll ... son Mist .... grad aus Versehen nen Neustart von meinem Server gemacht, bigadv WU bei 92%, seit knapp vier Tagen hat der daran geknabbert ..... und jetzt isch se heh!! :wall: :wall: 25403 Punkte fürn Arsch, klasse .....
 
@dampfkanes: die 1888er gibbet auch für die ATIs?
wie kommst Du darauf? Ich hab nie eine solche WU auf der ATI gesehen und seit über einer Woche hab ich keine ATI mehr in meinem Rechner gesehen.:d

@7even
diese riesen WUs gibts also tatsächlich. Ich war letztens recht überrascht, als ich Deine Statistiken gesehen hatte.
Wie kommt man an die Teile ran?
 
Zuletzt bearbeitet:
Hab mir ebend mal die neue Version runtergeladen.
Und siehe da wie schon über mir erkannt erklärt diese Version unser Problem ^^.
Das Gadget zeigt nicht die Vram-Auslastung an sondern die Auslastung des Memory-Controllers.
Jetzt ist nur wieder fraglich wofür die "Video-Engine-Load" da ist ^^.
Eine Frage ist geklärt und die nächste nimmt den freien Platz ein :shot:


dachte ich mir doch... kam drauf weil im kontext steht das er die ntune api des performance monitor zum auslesen der werte nutzt und den hab ich drauf

1+1= 2 ^^

---------- Beitrag hinzugefügt um 23:07 ---------- Vorheriger Beitrag war um 22:57 ----------

Okay Problem also geklärt... Aber: Was interessiert mich die Auslastung des Speicherinterfaces!? :hmm: Die Ram-Auslastung wäre mir da viel lieber. Vielleicht legt das Gadget in der nächsten Version nach

zu 1.) also ich finde diese information recht geil... nicht in dem gadget weil man es dort nicht loggen kann... aber bei gpu-z in der neuen version ;)
jetzt kann man schön sehen warum ein game laggt... war die gpu-load zu heftig oder kam der memory-controller nicht hinterher... fehlt aber wie du schon sagtest noch die ram auslastung... aber...

zu 2.) denke ich eher nicht das im nächsten gadget was nachgereicht wird weil die ntune API das derzeit noch nicht unterstützt... wird nv das einpflegen wird er es sicher auch machen
 
Warum die Ram Anzeige gibs doch in Gpu-Z wo ist das Problem. Gibts halt nur nicht in Prozent aber jeder weiß ja wieviel Ram seine Karte hat.
hoffe ich zumindest...
:shot:
 
wie kommst Du darauf? Ich hab nie eine solche WU auf der ATI gesehen und seit über einer Woche hab ich keine ATI mehr in meinem Rechner gesehen.:d

@7even
diese riesen WUs gibts also tatsächlich. Ich war letztens recht überrascht, als ich Deine Statistiken gesehen hatte.
Wie kommt man an die Teile ran?

hehe also warten auf next gen :) mir solls recht sein wenn ATI viele Karten verkauft. So verringert sich die anzal der nv-falter und die chance ne NV MT abzubekommen ist größer :d

zur riesen WU: vorrausetzung war mein ich nen linux-system mit i7 und acht threads(?) wobei 4 kerne auch reichen...

war noch nen extra client nötig? :hmm:

zum gadget: sowei ich mich entsinne geht die temp-abfrage nicht mehr über ntune sondern ähnlich wie die gpuz-geschichte. abwarten ;)
 
Zuletzt bearbeitet:
was musste denn dafür eingestellt haben in der vm an RAM etc für die WU

wenn 4 kerne reichen sollte nen yorkfield auch reichen?
 
Hallo,

von GPU-Z gibts eine neue Version (0.3.8):
attachment.php

Damit könnte dann auch die Abweichung zwischen GPU-Z und dem Gadget geklärt sein.

ciao Tom

P.S. wenn ihr alle 1888P-WUs weg schnappt, dann muss ich mich halt um den Rest kümmern.:xmas:

Falls du dich wunderst, meine 2 Schätzchen vernaschen 2x 1888P WUs gleichzeitig!



4100Pkt in knapp 6 Stunden (estimate 16.000 PPD)

:teufel:

MfG
 
Bei der neuesten Version 0.38 gibt es jetzt übrigens auch eine Prozent-Angabe.

Echt ? wo ?
Ich seh dort keine Prozentangabe für den Füllstand des Grafikspeichers

unbenanntp505.png



Edit:

Sagt mal hat von euch schon mal jemand ausgetestet wie Folding@Home auf Oc reagiert ?
Bzw auf die Taktraten der Graka ? Was bringt da was an PPD Gpu, Shader oder Memory ?
 
Zuletzt bearbeitet:
Echt ? wo ?
Ich seh dort keine Prozentangabe für den Füllstand des Grafikspeichers



Edit:

Sagt mal hat von euch schon mal jemand ausgetestet wie Folding@Home auf Oc reagiert ?
Bzw auf die Taktraten der Graka ? Was bringt da was an PPD Gpu, Shader oder Memory ?

also wenn ichs im mom richtig deute ist der unterschied nicht sonderlich groß - wobei ich auch nur leicht übertaktet hab.

lustig find ich das meine uralt 8800GTX mit 2x 1888ern die 260GTX mit 2x 787 um knapp 1000PPD übertrumpft. hat die 260er die großen WUs so liegt sie "nur" 1000PPD über der alten karte...

lass ich dann den stromverbauch raus lohnt es sich fast fürs falten 8800GTXer für knapp 60Eur einzusetzen/zu kaufen.

nehme ich den screenshot oben so schaffen 2x 285GTX auch "nur" zusammen 1500PPD mehr als meine 260er mit 192SP... glaube also nicht so wirklich, dass oc sonderlich viel bringt

@€dit: grad rappelt es wieder :eek: nach den 472ern heute mittag ham se nun im anschluss die 1888er auf den markt geworfen... so siehts im mom bei mir aus :fresse:



wobei die 472er clienten nach beendigung wieder ausfliegen
 
Zuletzt bearbeitet:
Falls du dich wunderst, meine 2 Schätzchen vernaschen 2x 1888P WUs gleichzeitig!
also insgesamt 4xWUs zur gleichen Zeit?
damit erinnerst Du mich an die guten alten Zeiten*und damit Salz in die Wunden streu*

Solange kontinuierlich WUs reinkommen, werd ich aber nichts unternehmen.
Im Mai hab ich aber auch mal eine Weile gebunkert:
Klick1
Idee für Gegenmaßnahme
Umsetzung des Programms
kleine Erklärung zum Programmcode

Naja, dafür hab ich Graka 02 recht gut verkauft bekommen. Bei Graka 01 ists egal, da die sowieso in meine Sammlung geht.

zum OC-Thema
kann sich ja jeder schnell selbst ausrechnen: die PPD wird prozentual maximal so stark steigen wie der Takt erhöht wurde.
Und im Mittel ist ja bei einer Graka nicht so viel mehr Takt drin (bei meiner sinds 11-16 %).
Bei einer PPD von sagen wir mal 6500 bei Standardtakt landet man maximal bei 7540. Wenn der Stromverbrauch dabei prozentual stärker ansteigt würd ich es lassen.

ciao Tom
 
Zuletzt bearbeitet:
@ Dampfkanes

Ne, schon jede Karte eine 1888P WU. Hab extra das "jeweils" weg gelassen.
Hab jeweils 2 Verknüpfungen angelegt, eine für GPU1 und eine für GPU2.
Beim Ziel (Eigenschaften der Verknüpfung) habe ich jeweils folgendes eingegeben:
-gpu 1[2] -forcegpu G80
ACHTUNG: auch 2 extra Ordner Anlegen für die Ergebnisse!
Meine Onboard GraKa (8200) könnte ich auch noch mitrechnen lassen, ist immerhin doppelt so schnell wie meine CPU! :fresse:
Bin noch am ausporbieren, hab erst am WE angefangen mit dem falten via GPU!

OC wäre bei mir eh nicht angebracht, die sind ja schon Werksübertaktet!

MfG
 
Zuletzt bearbeitet:
@ Schlingel:

Sag mal musst du denn dann nicht auch immer die WUs im Blick haben, um die Clients anzuhalten und zu starten?

Ich mein, es ist ja ganz nett, dass man so eine deutlich bessere PPD-Zahl bekommt, aber mehrmals draufgucken und dann ggf. manuell pausieren usw. ist doch recht zeitraubend oder?
 
Ach so, weil die über Nacht a) fertig gerechnet haben und b) neue WUs heruntergeladen haben?
Oder verstehe ich da was falsch?
 
zur riesen WU: vorrausetzung war mein ich nen linux-system mit i7 und acht threads(?) wobei 4 kerne auch reichen...

war noch nen extra client nötig? :hmm:
Obs auf Linux beschränkt is weiß ich jetzt grad nicht mehr ganz sicher, aber es gab dafür auf jeden Fall eine extra Drop-in Binary.

Gedacht ist das Ganze für 8 Kern-Systeme, aber es hieß man kann es mit 4 Kernen auch probieren.
Das habe ich ... und weil der Gainestown SMT unterstützt, kann er auch 8 Threads parallel verarbeiten; also habe ich beides getestet "-smp" (das nutzt dann nur die 4 Hardware-Kerne) und "-smp 8" (das nutzt dann alle 8 logische Threads).

Und es hat was gebracht - vorallem auch mit den normalen WUs:
-smp: 3600 PPD
-smp 8: 4300-5000 PPD
-bigadv -smp 8: 5660 PPD

Alles ca.-Werte, dummerweise hab ich mir irgendwie "-bigadv -smp" nicht aufgeschrieben... aaaach ich seh grad, die Werte sind voll fürn Arsch, der macht grad (als "-bigadv -smp 8") 6472 PPD!
Is halt manchmal etwas schwierig, weil er natürlich auch sonst nebenher noch zu tun hat und dann die unterschiedlichen Projekte.... ;)

"-bigadv" weist die Drop-In Binary auf jeden Fall an, die Mega-WUs zu holen.

Und ich hab auch die Links noch irgendwo .... Mom ..... ah hier: http://www.xtremesystems.org/forums/showthread.php?p=3991293#post3991293 und hier: http://foldingforum.org/viewtopic.php?t=10697
 
Ne, schon jede Karte eine 1888P WU. Hab extra das "jeweils" weg gelassen.
dann verschenkst Du bis zu 50 % an PPD-Leistung.
Wie einige auf den letzten Seiten geschreiben haben, lasten diese 1888 P-WUs die GPU nicht voll aus, da Pausen eingebaut wurden um die GPU-Temperatur zu senken.
Deshalb schaut ja auch Schlingel_INV (der alte Schlingel;)), dass er sich immer ein paar dieser WUs auf die Seite legt.

ciao Tom
 
hmm hab grad mal geschaut nachdem ich mir nen messgerät gekauft hab

mein rechner braucht gerade mal 400 watt beim folden und 510 watt bei OCCT

400w = 0,4 KW
0,185€/kwh bei vattenfall oder e wie einfach
hab 7-8 stunden laufen das teil am tag

sind ja nur 218,08 euro im jahr die ich investiere ^^
 
Du solltest aber noch den Energieverbrauch abziehen den deine Kiste im Idle hat, wenn sie sowieso an ist, d.h. die Zeit die sowieso im Luxx bist etc und nur nebenbei foldest.
 
das ist einfach im idle sinds 200 watt, dann ist es die hälfte 109 euro im jahr bei 7-8 stunden...würde ich bei 200 w mehrverbrauch ihn 24/7 falten lassen wären das dann 109*3= 327 euro faltverbrauch und insgesamt würde er dennoch 3504 kw/h im jahr verbrauchen was round about 650 euronen entsprechen würde, aber schließlich hat man nur 327 euro fürs falten extra verbraucht dann is die summe ja erträglich oder :lol: frag mich ehlich ob es da nicht mehr helfen würde wenn jeder folder eher eine summe x an stanford spenden würde :d aber egal... ich falt ja auch net rund um die uhr ausser mit meinem laptop :d
 
Woh!! Der zieht aber ganz schön viel.

Als ich beide GTX260 im großen hatte, kam ich gerade mal auf gute 400W.

Mit einer GTX und SMP/GPU habe ich ca. 260-280W. Okay - mein Messgerät war billig (15EUR). Aber ich messe ausschließlich den Rechner. Keine Peripherie. Und dafür ist der Unterschied doch enorm.
 
Zuletzt bearbeitet:
also ich hab ohne cpu-last auch "nur" 400W (meist sogar etwas drunter)

ziehe ich nun 60W fürs Raid ab (1x Black braucht 10W wie ich eben feststellen durfte) und zusätzlich nochmal 30W für beide controller so komme ich auf ~310W für 2x260GTX@folding + rest.

um die 400W wieder auszuschöpfen könnte ich dann noch ne 260/275GTX einbauen und hätte:

A: sehr gute ausbeute (19000-22800PPD bei noch ner 260er) durch nur ein system
B: gute leistung/watt
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh