Folding@Home - Hardwareluxx Team

Ja klar, das geht freilich.

Ich dachte aber an Effizienz - also Verbrauch/Punkt - und da macht sich ein einzelner i7 samt Bonus etwas besser.

Man kann aber natürlich gerne beides rund um die Uhr falten lassen (so 3 Tage am Stück) und "benchen", was das System so hergibt. :hail::hail:


P.S.
TU ES!! TU ES!! TU ES!! :fresse2:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

dem Gpu-Client, der auf meiner GTX 480 lief, war es egal, ob ein CPU-Client parallel lief oder nicht.
Die PPD war quasi auf 15997 festgenagelt. Allerdings sank die PPD des SMP-Clients.

SMP-Client alleine: 54.xxx PPD
Stromverbrauch ca. 320 W

CPU- und GPU-client:
SMP: 41.xxx PPD
GPU: 16.000 PPD
Summe: 57.000 PPD
Stromverbrauch ca. 480 W

Ab da war klar, dass sich die GTX 480 fürs erste ausruhen darf.
Wie stark der GPU-client reinspielt, hängt vielleicht auch vom Projekt ab.
Mit dem Projekt, zu der die PPD von oben gehört, wars jedenfalls so schlimm.
Würd der SMP-Client weniger stark einbrechen, wärs was anderes. Aber fast die gleiche PPD mit deutlich
weniger Verbrauch finde ich einfach sinnvoller.

Ich würds einfach mal ausprobieren, was besser läuft.

ciao Tom
 
Zuletzt bearbeitet:
@ hifigott:

Schau dir meine 24h Avg. an: derzeit 28.000 PPD. Das schafft eine Grafikkarte derzeit nicht.
 
Hi Zusammen,

mal ne frage: Was kann der Grund sein, das mein CPU-Client dauernt abstürtzt.
Hab schon alles mügliche versucht, aber er will einfach net ne WU durchrechnen.

shorty
 
@shorty71
hast Du übertaktet?
wenn ja, wie hoch?
mit welchen Tools auf Stabilität getestet?

ich lasse immer 1 Std. LinX laufen.

ciao Tom
 
4 GHz, 3000 NB, 2000 HT

alles mit 100 Runs Linx und ca. 8 Std. Prime auf Stabilität getestet.
 
4 GHz, 3000 NB, 2000 HT

alles mit 100 Runs Linx und ca. 8 Std. Prime auf Stabilität getestet.

hmm,
welche Ram-Nutzung hast Du bei Linx-eingestellt?
vielleicht eher wenig? weil 100 Runs sind schon nicht ohne.

Letztens hab ich von einem User gehört, bei dem eine BigADV-WU gut eine Std ohne Fehler lief, bei den kleineren WUs gabs dann aber nach jeweils einer viertel Stunde einen Absturz. Allerdings nur mit Prime getestet.

Wie äußert sich das Problem bei F@H genau?
gibts in der Console eine Fehlermeldung? stürzt nur der Client oder gar Windows komplett ab?

@all
GTC 2010: Folding@home und die Exaflop-Schallgrenze (PCGH)
 
Zuletzt bearbeitet:
Wenn es die Tage Kälter wird, wird mit Work Units geheizt, bevor die Heizung eingeschaltet wird.
 
@moinmoin666
den Memorytester hab ich letztes Wochenende mal auf meiner GTX 480 laufen lassen.
Mit Standardeinstellungen liegt die Dauer im Minuten-Bereich.
Ich hab dann mal auf 1,4 Gbyte und 100 Zyklen hochgeschraubt. Dauert dann aber auch nicht viel länger.
Jedenfalls gabs keinen Fehler.
Damit haben sie schon mal ein Fermi-Ergebnis mehr.
 
Noch besser wären halt welche mit HD4000/5000er Serie... die Fermis haben ja schon ihren GPU3 Client ;)
 
hmm,
welche Ram-Nutzung hast Du bei Linx-eingestellt?
vielleicht eher wenig? weil 100 Runs sind schon nicht ohne.

Letztens hab ich von einem User gehört, bei dem eine BigADV-WU gut eine Std ohne Fehler lief, bei den kleineren WUs gabs dann aber nach jeweils einer viertel Stunde einen Absturz. Allerdings nur mit Prime getestet.

Wie äußert sich das Problem bei F@H genau?
gibts in der Console eine Fehlermeldung? stürzt nur der Client oder gar Windows komplett ab?

@all
GTC 2010: Folding@home und die Exaflop-Schallgrenze (PCGH)

Bei Linx mit voller Ram Auslastung getestet, bei Prime dasselbe.
Die Kiste ist "Rockstable"!
Ich kann es mir nicht erklären.
Ram schon mit memtest getestet, alles @ Stock laufen lassen,
der verf**** Client stürtzt ab.

Es kommt immer die Anzeige: Appcrash!
 
Zuletzt bearbeitet:
Ach mich kotzt das echt an, die Stanford-Programmierer haben es Monate lang nicht gebacken gekriegt nen guten ATI HD5xxx client zu bauen, aber kaum kommt Fermi, gibts nen extra Fermi client. Ich sehe es ja ein dass das programmieren mit Cuda viel einfacher ist, aber da waren Monate Zeit...

Mal ganz abgesehen davon hab ich mir sagen lassen das sich OpenCL und Cuda extrem gleichen. Warum wird nicht einfach nen OpenCL oder DirectCompute Client geschrieben?

Ein gutes Programm womit man seinen Grakaspeicher checken kann gabs übrigens schon lange vorher, und das braucht nichtmal OpenCL: klick
 
Zuletzt bearbeitet:
P.S. Die Geschichte mit dem System hinter der PPD hab ich nicht vergessen.
Ich hab gestern auch bereits damit angefangen. Wird aber etwas umfangreicher, da ich meine ganze Falt-Historie beim Luxx revue passieren lasse.
Hallo,

dem Gpu-Client, der auf meiner GTX 480 lief, war es egal, ob ein CPU-Client parallel lief oder nicht.
Die PPD war quasi auf 15997 festgenagelt. Allerdings sank die PPD des SMP-Clients.

SMP-Client alleine: 54.xxx PPD
Stromverbrauch ca. 320 W

CPU- und GPU-client:
SMP: 41.xxx PPD
GPU: 16.000 PPD
Summe: 57.000 PPD
Stromverbrauch ca. 480 W

Ab da war klar, dass sich die GTX 480 fürs erste ausruhen darf.
Wie stark der GPU-client reinspielt, hängt vielleicht auch vom Projekt ab.
Mit dem Projekt, zu der die PPD von oben gehört, wars jedenfalls so schlimm.
Würd der SMP-Client weniger stark einbrechen, wärs was anderes. Aber fast die gleiche PPD mit deutlich
weniger Verbrauch finde ich einfach sinnvoller.

Ich würds einfach mal ausprobieren, was besser läuft.

ciao Tom

Das wäre mal klasse wenn du deine gesammelten Infos mal übersichtlich darstellst. Vielleicht gibts auch kleinere Tweaks,das F@H gut mit dem Ramtakt oder Timings etc. skaliert.

Ich warte ja noch auf eine Big WU. Bei mir Falten gerade 2 Xeons mit 8Kernen/16 Threads @2,45Ghz. Stromverbrauch liegt bei 235W. Kommt die 460 noch dazu gibts 10k ppd extra und der Stromverbrauch liegt bei 330W.
 
Hallo,

dem Gpu-Client, der auf meiner GTX 480 lief, war es egal, ob ein CPU-Client parallel lief oder nicht.
Die PPD war quasi auf 15997 festgenagelt. Allerdings sank die PPD des SMP-Clients.

SMP-Client alleine: 54.xxx PPD
Stromverbrauch ca. 320 W

CPU- und GPU-client:
SMP: 41.xxx PPD
GPU: 16.000 PPD
Summe: 57.000 PPD
Stromverbrauch ca. 480 W

Ab da war klar, dass sich die GTX 480 fürs erste ausruhen darf.
Wie stark der GPU-client reinspielt, hängt vielleicht auch vom Projekt ab.
Mit dem Projekt, zu der die PPD von oben gehört, wars jedenfalls so schlimm.
Würd der SMP-Client weniger stark einbrechen, wärs was anderes. Aber fast die gleiche PPD mit deutlich
weniger Verbrauch finde ich einfach sinnvoller.

Ich würds einfach mal ausprobieren, was besser läuft.

ciao Tom


Hei Dampfkanes,wenn Du ein oder 2 Kerne für die Karten lässt geht die CPU auch nicht zurück,dann macht sie ihre PPDs und die beiden Karten auch.:)

Und wenn Du auf dem Rechner sonst nichts machst sehr konstant.:coolblue:
 
Ach mich kotzt das echt an, die Stanford-Programmierer haben es Monate lang nicht gebacken gekriegt nen guten ATI HD5xxx client zu bauen, aber kaum kommt Fermi, gibts nen extra Fermi client. Ich sehe es ja ein dass das programmieren mit Cuda viel einfacher ist, aber da waren Monate Zeit...

Mal ganz abgesehen davon hab ich mir sagen lassen das sich OpenCL und Cuda extrem gleichen. Warum wird nicht einfach nen OpenCL oder DirectCompute Client geschrieben?

Ein gutes Programm womit man seinen Grakaspeicher checken kann gabs übrigens schon lange vorher, und das braucht nichtmal OpenCL: klick

Soo einfach ist das nicht, es geht aber darum, das gerade der RAM belastet wird auf Grund von OpenCL (damit soll der neue Client ja laufen). Ob euer RAM Probleme macht oder nicht bei anderen Anwendungen interessiert die ja gar nicht.
Naja NV ist um einiges gößer als AMD, die würden wesentlich mehr Rechenleistung verlieren, wenn die GTX4XX User nicht falten würden, als wenn die AMD58xxx nicht falten können. Kann auch sein, dass es sie gar nicht interessiert und sie einfach jetzt nen deppen gefunden haben, der das endlich mal macht.
Ich finde mal sollte sich darüber freuen und nicht noch unmut verbreiten.
Zumal der Client wahrscheinlich dann auch künftige Generationen (mit kleinen Änderungen) Versorgen kann.
Spielt ja dann nicht unerheblich mit rein, ob ich mir eine HD6870 o.Ä. hole oder doch lieber eine GTX470/480.... Also Wenn zum Start der HD6000 Reihe oder zumindest zum start der Potenten Karten nen Client lauffähig ist, dann wäre es schon schön...nicht wie jetzt, wo ich mit ner HD5870 fast genauso viele Punkte hole wie mit einer HD4870 :fresse:
 
Ich lasse jetzt einfach mal CPU- und GPU-Client ein paar Tage parallel durchlaufen. Die Grafikkarte scheint recht konstant bei 8600 ppd zu liegen. Die CPU schwankt etwas, je nachdem wie stark der PC nebenher genutzt wird. Ich denke es wird sich bei etwa 12.000 bis 13.000 ppd einpendeln.
 
Ich seh grad, dass Turbo Boost noch gar nicht funktioniert. Liegt wahrscheinlich an den Einstellungen im BIOS. Damit sollte sich auch noch mal ein wenig rausholen lassen. Wirkliches Übertakten ist erst mal nicht geplant.
 
Hmm... :shake:

Mach das doch mal. Ist supereinfach, ungefährlich und macht sogar Spaß.

Du musst wissen, was du willst. Falls du Hilfe brauchst, kriegst du sie.

Gruß
Hypo
 
Hmm... :shake:

Mach das doch mal. Ist supereinfach, ungefährlich und macht sogar Spaß.

Du musst wissen, was du willst. Falls du Hilfe brauchst, kriegst du sie.

Gruß
Hypo

Privat habe ich das schon mehrfach gemacht, aber hier am Arbeitsplatz ist das denke ich nicht angebracht. :)
 
Ja stimmt wohl. Lass dich nicht erwischen, bzw. frag nach, ob´s okay ist F@H anzuwerfen.
 
Hallo Jungs,

mal eine Frage an die X 6 Besitzer, wie taktet ihr den ?

Über BCKL oder den Multi und lasst ihr die Spannungen auf Auto ?.

In meinem Fall ein Asus Crosshair IV Formula.

Gruß

Tuono
 
^^ich würde es an deiner Stelle selbst testen, so eine Leistungsspritze könntest du gut vertragen, lieber Tuono58. Per Multi und mit manueller Spannung dürfte OC wohl am günstigsten sein.

Grüße
franeklevy
 
Er hier wieder... :fresse2:


@ tegel:
Nicht schlecht die BigWU!
Aber so generell auch - legst ja ordentlich Punkte vor!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh