Mal eine ganz dumme Frage.
Was passiert eigentlich, wenn mein OC instabil ist, der PC beim Rechnen für FaH nicht abstürzt? Ermittle ich dann evtl. falsche Daten?
Es geht um einen 2500K, bei dem ich gerade neue Settings teste.
Zum Testen FAHBench Implicit ggf. Double Precision verwenden statt echten Workunits, geht schneller und die Fehlermeldung kommt während der Berechnung. Im Echtbetrieb kann man Glück haben und die Absturzmeldung ist aussagekräftig (CPU-OC, GPU-OC, RAM), meiner Meinung sollte der FAHbench sauber durchlaufen bevor man damit auf die folding Server losgeht und
den Forschungsprozess verzögert, weil die Workunit erneut ausgesendet werden muss.
OC Stabilität ist eine Definitionsfrage. Manche Übertakter wollen bis auf die hintersten Kommastellen lieber stunden- bis tagelange Stabilitätstest absolvieren, optimieren Spannungswerte bis zum Exzess ... nur um die Settings Wochen später erneut gegenprüfen zu müssen. Etwas Toleranz einbauen halte ich für sinnvoller bei folding, falls man weniger an jedem singulären point interessiert ist als ich sage mal die Hunderter bis Tausender Stelle vor dem Komma.
folding ist für mich kein Testprogramm, um damit miese OC settings zu entdecken, sondern eine ernsthafte Anwendung, um die Krankheitsforschung zu unterstützen. Dass die Cores so empfindlich für OC geworden sind, finde ich gut. Dass sie jedoch schon bei minimalen Abweichungen vom Chipdesign Takt mit Fehlermeldung abbrechen ist schlecht. Es haben ja bereits geprüfte Hersteller OC Design versagt, mehr bei den GPUs als bei CPUs, Letztere laufen ziemlich stabil, dort sind es eher zu scharfe RAM-Settings die Fehler produzieren.
Was die Pande Group mit schlechten, weil invaliden Ergebnissen macht, wieviele davon im Pool anfallen, da muss man vermutlich zwischen den Zeilen lesen. Mir ist keine Statistik darüber bekannt.