Folding@Home - Hardwareluxx Team

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja Leute, was ist denn los. Ich hab schon ewig nimmer gefaltet und stehe trotzdem noch auf Platz 45 :shot:

Hätte erwartet, dass man mich bei der langen Pause rausfoldet. Leider hab ich aber aktuell ein Problem... Ich sitz hier in meiner Studentenbude, mein PC ist und bleibt daheim und zwar aus. Und mit einem Laptop falten... hm ô0

Würd sehr gerne wieder mit einsteigen, aber ohne PC garnicht mal so einfach. Viel Spaß an die Falterkollegen ;)
 
Mach Dir nix draus. Ich sitz' dank kaputtem Netzteil momentan auch auf der Reservebank. Aber solange genug andere falten, behalte ich mein reines Gewissen.

:wink:
 
@Schlingel_INV
Danke für den Link. Jetzt haben wir es schwarz auf weiß, dass der schwarze Peter wohl eher bei ATI (Treiber oder was auch immer) zu suchen ist und nicht unbedingt beim Folding@Home-Client.
Auf eine weitere direkte Vergleichsmöglichkeit hab ich schon länger gewartet. Von den ATI-Jüngern bekommt man ja immer nur die theoretische Gflops-Leistung zu hören.
 
Zuletzt bearbeitet:
ich schätze auch, dass wird nciht einfach durch den treiber zu beheben sein. ATI sieht die prio eben nciht wie nv im bereich GPGPU. ich bin mal auf die zukunft gespannt. das risiko ist groß für NV aber wenn es wirklich den durchbruch geben sollte sieht ATI ganz schön alt aus, weil sie die neuerung "verschlafen" haben
 
Bin euch auch mal bei FAH beigetreten, mal sehen wie lang ich diesmal dabei bleib.
Hab vor Jahren schonmal für Planet3DNow! FAH und später immer mal wieder BOINC gerechnet, bevorzugt im Winter weil ich dann im Büro die schlechte Heizung ausgleichen kann :d

Daheim lass ich's selten rennen aber jetzt wollt ich mal den GPU-Client auf meiner GTX285 rennen sehen drum macht die grad meine erste WU für euch.

Finds nur grad ziemlich krass dass ich massiv CPU-Load auf einen Kern bekomm wenn ich mir im Systray-Client die Grafik anzeigen lass.
Für Dauer werd ich wohl eher auf den Commandline-Client umsteigen nehm ich mal an.
 
Warum den Commandline Client ?
Du darfst den Viewer halt nur nicht öffnen der verbraucht halt Rechenleistung seitens CPU. Aber der Client läuft ja auch weiter wenn der Viewer nicht offen ist
:coolblue:
 
Da hast du natürlich recht, dachte es hätte anderweitig Vorteile aber ich seh grad dass es nicht so ist.
 
So nach Jahrelanger Seti Abstinenz habe ich mal meine PS3 ins F@H Netz integriert und natürlich die Gruppe meines Lieblingsforums ausgewählt. Mal schauen wie oft die Playsi was schafft. Würde zwar auch gerne mein CF 4890 Gespann was schaffen lassen aber da wird mir die Stromrechnung etwas zu hoch um das 24h laufen zu lassen.
 
soo erstes ziel erreicht :d

btw: irgendwie erstaunlich. die 8800GTX bekommt fast nur 1888er WUs ab und macht bei zwei gleichzeitigen WUs auf die art 7k PPD. Eine der GTX 260 schafft 6,3 mit den "normalen" kleinen WUs :hmm: also irgendwie unfair :fresse: das geht nun schon tage so. ab und an verläuft sich mal eine 1888er bei ner 260 GTX - da passiert aber wirklich äußerst selten...
 
das mit den 2 clients auf eine grafikkarte hab ich auch mal versucht aber irgendwie sind dadurch meine ppd nun gesunken :E ^^.
und kann man das nicht irgendwie beeinflussen das man größere wus bekommt?
Was mir jedoch aufgefallen ist das größere Wus weniger PPD ergeben zumindest auf meiner Zotac gtx 260² Amp version.
Hier mal ne Übersicht was mein System so hergibt (nicht wundern der status der 4 Cpu Clients ist noch nicht grün weil ich nicht dauercrunche und grade erst den Rechner wieder an habe).

ppd3uu7.png
 
@Oban
es hängt stark von den WUs ab, ob eine Mehrfachbelegung einer Graka eine PPD-Steigerung bringt.
Das erste Mal hab ich sowas bereits zum Jahreswechsel auf 2009 probiert. Da kam mehr bei rum. Im Februar ca. gab es dann nur WUs, die davon nicht profitierten (PPD blieb gleich). Ich hatte aber auch schon WU-Kombinationen, bei denen die PPD sank.
Im August 2009 brachten dann aber die 1888er WUs wieder eine PPD-Steigerung von 50 %.
Welche WU genau es sind, kann ich nicht mehr sagen, da es schon einige waren, die mein Maschinchen bearbeitet hat:
 
So also meine Graka cruncht jetzt doch noch ne Weile mit dann tut sie wenigstens was sinnvolles.
Nur das Spulengefiepe nervt :-( Das wär n Punkt wo ich für ne Graka gern nen 20er mehr hinlegen würd für ne bessere Verarbeitung.

Auf meiner Quadro FX 3800 @work liefs leider ned deswegen rechnet die Kiste jetzt BOINC für Planet3DNow! aber da werd ich mir das mit dem GPUClient nochmal anschaun.
Irgendwie hat der behauptet die Karte könnte das nicht was aber völliger Unsinn ist, Treiber ist auch der aktuellste drauf (gleicher wie @home, der 191er).

Ich schau's mir die Tage nochmal an wenn ich dazu komm.
Irgendwie erscheint's mir sinnlos auf der CPU zu falten wenn ich's auch auf der GPU machen kann.
 
Auf meiner Quadro FX 3800 @work liefs leider ned deswegen rechnet die Kiste jetzt BOINC für Planet3DNow! aber da werd ich mir das mit dem GPUClient nochmal anschaun.
Irgendwie hat der behauptet die Karte könnte das nicht...
eventuell läufts ja mit dem Befehlszusatz "-forcegpu nvidia_G80"
Wenn es damit geht, kannst Du diesen Befehl dann auch in der client.cfg unter extra_parms eintragen.
 
das spulenfiepen hab ich bei meinen auch jedoch zum glück nur sehr sehr leicht. die 8800er war auch etwas strange: letztens den wakühler kurz abgehabt und danach hats nur so krach gemacht. k.a. warum. nach zwei tagen war die karte dann wieder absolut leise. k.a. warum :hmm:

@Dankanes: Hast mal das Benchtool in der neuen Version + Treiber durchlaufen lassen? Mich würd mal interesieren was dabei rauskommt

zum Vergleich:

 
Zuletzt bearbeitet:
@Dampfkanes
danke für den Tip, probier ich bei Gelegenheit mal aus.
Wär ja schade wenn sich die GPU langweilen muss nur weil der Client sie nicht mag :)
 
@Schlingel_INV
Du wirst die 0.25er Version meinen, oder?
hier:

ich hab dann noch versuchsweise das Tool 3 mal parallel ausgeführt:

beide Male Catalyst 9.10
Wahrscheinlich kommt bei Dir bei einer parallenen Ausführung auch nicht mehr raus?
Ich hatte bereits einen Kommentar im Thread des Erstellers des Benchtools hinterlassen, den er leider überlesen hat.
Hello Pat,

i'm very interested in this theme. When you use DirectCompute ist there any way to consider that ATI-Shaders (5D) are different from Nvidia-Shaders (1D)? If i unterstand your posting above right, then there isn't a possibility. Is this right?
Therefore a better performance can only be reached by a better ATI-Driver, which can make a better use of the 5d-shaders of the GPU.

ciao Tom
hier noch das Posting von ihm, das ich meine:
...the codepath is one and the same for ATI/NV any any other DirectCompute enabled device that could be istalled in the system. It looks like this:

benchmark(compute shader code) -> DirectX11 API (compiler) -> DirectX11 API (run) -> drivers -> GPU.

...
Ich hab dann noch als Ergänzung gefragt, ob er mit Single oder Double Precision rechnet und ob er eine Wahlmöglichkeit ins Tool einbauen könnte.
Die Ergebnisse könnten imho aufschlussreich sein.
Sobald ich was neues höre, gebe ich Dir Bescheid.

ciao Tom
 
Zuletzt bearbeitet:
ich hatte es eben mal mit 2x F@H auf einer karte nebenbei laufen lassen. so kam ich auf knapp 33k. ich teste mal kurz mit 3x nebeneinander

@€dit:


btw: es lief auf der schlechteren der beiden karten. karte A hat auch bei diesem benchmalr nen leicht schlechteres ergebnis im vergleich zur anderen. das sieht man auch schön an den PPD bei F@H. entweder es liegt an der karte selbst oder aber an der boardanbindung. wobei bei der langsameren karte eigentlich die bessere anbindung vorliegt :hmm:

ich hab mit dem 191.07er treiber gebenched

wenn ich die leistung des i7@4ghz sehe kommen mir die tränen :heul:
 
Zuletzt bearbeitet:
@Dankanes: Hast mal das Benchtool in der neuen Version + Treiber durchlaufen lassen? Mich würd mal interesieren was dabei rauskommt

Hattest du noch andere Programme im Hintergrund laufen oder war der Rechner vollkommen im Idle ?
Wenn ja was hat deine Karte denn für Taktraten hab bei mir ebenfalls mal den Bench laufen lassen. Erklärt vllt auch warum meine Karte paar PPD mehr macht.





edit :

 
Zuletzt bearbeitet:
ich hab die "billigste" ausführung der 260er: 65nm und 192SP und standardtakt ;) mit 216SP hätte ich ähnliche werte denke ich

mal guggen: im mom werfen ja alle ihre nvs raus - vielleicht organisiere ich mir als dritte physx-karte noch ne 275GTX

@dampfkanes: jopp ich denke das liegt rein am treiber. es gehen zwar infos durchs netz, dass die 5870er mit anderen neueren clienten besser skalieren soll, das jedoch nur im vergleich mit den 4xxx und 3xxx-ATIs wies im vergleich zu NV aussieht ist wieder ne gute frage.


ich schätze directcompute ist ja schon ne nette vergleichsmöglichkeit. fehlt eigentlich nur noch ne opencl-version dieses benchmarks und man könnte die wesentlichen standards mit einander vergleichen
 
Zuletzt bearbeitet:
ist das normal, dass im falle von sli nur eine der karten cruncht?
 
jop ist normal allerdigns kann man soweit ich weiß mit hilfe der zusätzlichen parameter auch clients auf karten zuweisen. Kann dir sicher einer ausm Forum hier mal erklären =D.
 
ich habs noch nedd ausprobiert. ich unlinke die karten immer fürs folden. ich hab meinen screen mittels vga-kabel noch an karte zwei angeschlossen und dann denn bildschirm hierrauf erweitert. danach dann mittels "-gpu 1" die clienten auf karte 2 laufen lassen

hat man kein passenden anschluss am monitor mehr geht auch nen selbstbau VGA-dummy:

z.b. http://tvtool.info/go.htm?http://tvtool.info/german/dummy_d.htm
 
Zuletzt bearbeitet:
also ich glaube das deaktivieren von sli reicht bei mir schon aus. läuft jetzt mit ~300-350ns/day (benutz den standard gpu clienten)

€: nope, die erste karte langweilt sich immernoch -.-
 
Zuletzt bearbeitet:
@noize
wenn sich seit meiner Nvidia-Zeit vor 2 Wochen nichts geändert hat, dann sind die Tipps von Schlingel_INV immer noch notwendig.
1. Du brauchst eine Kopie des Client-Ordners
2. musst Du ein paar Anpassungen in der client.cfg vornehmen
a, den Wert von "machineid" ändern (z.B. Client 1 hat 1 und Client 2 hat 2)
b, bei extra_parms=schreibst Du einmal "-gpu 0" und einmal "-gpu 1" (wie Schlingel-INV auch schon geschrieben hat)
Dann sollten beide Grakas etwas zu tun haben.
Unter Win7 musste ich den SLi-Verbund zwar nicht mehr auflösen, die Clienten liefen aber nicht stabil. Damit hatte ich nur Probleme. SLi deaktiviert, Monitor (oder Dummy) und es lief wieder ohne Probleme.
Allerdings hatte ich zuletzt auch nur den 191.00 drauf

@Schlingel_INV
eine Unterstützung für OpenCL ist für das Tool schon in Planung.
Aktuell rechnet das Tool mit Single Precision. Über meine Anregung eine Wahlmöglichkeit (Single und Double) ins Tool einzubauen, denkt er nach. Damit könnten imho wieder Rückschlüsse gewonnen werden.
Auf die Nutzung der Shader hat er in DirectCompute tatsächlich keinen Einfluss. Die Programmierung ist hier völlig unabhängig von der GPU. Ok, das ist ja auch der Vorteil eines Standards.
Er hatte aber vorher unterschiedliche Thread-Aufteilungen probiert und dann die genommen, die auf HD 5870-Grakas am Besten lief.
 
Zuletzt bearbeitet:
bleibt also nur der treiber und die graka als ursache für die schlechten ergebnisse über. ich bin mal auf opencl gespannt. wenns da ähnlich aussieht wird uns auch nen neuer client in bezug auf ati nicht helfen.

SP und DP sollte auch inbesondere für den kommenden fermi recht interessant werden :)
 
bleibt also nur der treiber und die graka als ursache für die schlechten ergebnisse über. ich bin mal auf opencl gespannt.
ich hab mir nochmal sein letztes Posting hier durchgelesen:Klick
Da ein Compiler im Spiel ist, könnte der auch noch einen Einfluss haben. Das ist dann aber nichts, was die Graka-Hersteller direkt beeinflussen können.

Von daher bin ich ebenfalls mal auf OpenCL gespannt, da hier ja eventuell ein anderer Compiler verwendet wird (da ergibt sich ja schon wieder eine neue Frage an den Programmierer;))

mit DP sollte ein G200 theoretisch nur noch ein 1/8 an Gflops schaffen.
Bei ATI-Chips reduziert sich die Leistung auf ein 1/5. Sollten die ATI-GPUs aber überraschenderweise noch fast genauso schnell rechnen wie mit SP, dann würde sich mein Verdacht bestätigen.
Wobei es vielleicht noch etwas dauern könnte, bis beide Hersteller die neuen Standard-Schnittstellen auch vollständig korrekt unterstützen (die Performance mal außen vor).

falls Du Matlab haben solltest, dann ist dieser Thread vielleicht interessant für Dich:Klick
Je nach Berechnungsfall kann dort ein Phenom recht gut mit einem Core i7 mithalten (gegen Ende des Threads)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh