@Öse:
Sehr netter beitrag und auch schlüssig bis auf eine einschränkung.
Es ist für mich nicht nachvollziehbar, wieso bei einem Intel 1,5h prime reichen und bei einem Phenom die zeit 3 h betragen soll.
Über den sinn des programmes möchte ich mich nicht mehr äussern da ihr meine Meinung kennt.
Danke...
zu prime: ich hab ka ob die Intel Leute 1,5h primen oder 3h... wer stellt diese regeln auf? Das sind die User selbst. Und die dürfen das auch. Es sind auch nicht einzelne User. Sowas entwickelt sich. Evtl. auch Abhängig von der Systemarchitektur.
Grundsätzlich gilt: Mit Prime wie mit allen Fehlern bei allen Proggies ist es so. An der Grenze zwischen stabil und instabil geht alles um Statistik und Fehlerwahrscheinlichkeit. Wie in der Diskussion von naturwissenschaftlichen und technischen Problemen üblich gibt es systematische und zufällige Fehler. Systematische Fehler gibt es bei Inkompatibilitäten. Sie sind diskret verteilt und treten immer und wiederholbar bei Auftreten einer bestimmten Parameterkonstellation auf. Auch wenn der PC nicht übertaktet ist usw.
Dazu gehören auch inkompatible Timings bspw. oder zu straffe Timings und zu schnelle Schaltzeiten bzw. Takte. Diese fehler lassen sich sehr schnell feststellen. IdR bootet der PC gar nicht.
Dann gibt es zufällige Fehler. Die Wahrscheinlichkeit für zufällige Fehler ist auch bei einem "idealen stabilen" System, unübertaktet und frei von Bugs nicht null. Beispielsweise können in Speicherzellen durch die extrem unwahrscheinliche Einwirkung bspw. von Strahlung gespeicherte Datn verlohrengehen und dann Fehler passieren. Diese Wahrscheinlichkeit kann aber gesenkt werden, durch Erhöhung der Kondensatorladung durch regelmäßigen Refresh usw., so dass eine Einstrahlung von irgendwelchen Energiequanten keine Auswirkung besitzt. Dann müssen mehrere Strahlungsquanten zusammen diese eine Speicherzelle treffen. Die Wahrscheinlichkeit ist nahe Null aber nicht null. Soweit so gut. Das gleiche trifft auf Fehlerströme zu. Es gibt immer Fehlerströme. Diese müssen klein sein gegenüber den Signalströmen, damit keine Rechenfehler passieren. Es gibt trotzdem, da man es mit Quantenprozessen zu tun hat, eine statistische Wahrscheinlichkeit für solche Fehler. Aber auch diese ist im unübertakteten Zustand sehr klein. Genauergesagt so klein, dass bei den Tests beim Hersteller solche Fehler eben gerade nicht auftreten.
Wenn man jetzt den Takt erhöht können wieder systematische Fehler auftreten, wenn die Schaltzeiten zu kurz werden. In der Übergangsphase zur Instabilität treten diese von der Ursache her systematischen Fehler jedoch zufällig verteilt auf. Einzelne Transistoren schaffen die Schaltzeiten eben manchmal nicht.
Weiterhin erhöht sich die Wahrscheinlichkeit zufälliger Fehler, beispielsweise durch höhere Fehlerströme bei höherer Temperatur. Dem kann man durch Spannungserhöhung und damit Verstärkung der Signalströme entgegenwirken. Dadurch steigen allerdings auch wieder die Fehlerströme und die Temperatur.
Eine Grenze ist erreicht, wenn entweder die Schaltzeitengrenze fast erreicht ist oder die Fehlerströme zu groß werden. An dieser Grenze kriegt man in der Praxis eben mit Glück noch eine Vali hin. der PC bootet mal, mal nicht, erratisches Verhalten, jeder kennt das. Die Kiste ist völlig instabil.
Für alles daruinter nähert sich die Wahrscheinlichkeit, dass Fehler innerhalb einer bestimmten Zeitspanne auftreten, mit zunehmender Übertaktung in Richtung der Taktgrenze, 1 an.
Dabei sind die Fehler statistisch verteilt. Das heisst, bei einem bestimmten Takt kann der fehler nach 10min., aber auch erst nach 6h auftreten. Das heisst, die Wahrscheinlichkeit dass man einen Fehler bekommt, ist an dieser "Stabilitätsgrenze" um so höher, je länger man testet. Um also eine größtmögliche Stabilität zu erreichen, sollte man möglichst lange testen.
Allerdings kann bzw wird, auch bei einem "an sich stabilen" System, bei unendlicher testzeit auch ein fehler auftreten. Da die Wahrscheinlichkeit für zufällige Fehler nie null ist. Ich hoffe, man bekommt so ein Gefühl dafür, dass es hier um graduelle Unterschiede geht. Und darum, dass man sich beim OC, dass 24/7-tauglich sein soll, einer grenze nähert, wo Fehler dann mit recht großer Wahrscheinlichkeit bspw. nach 24h oder 48h starker belastung auftreten. das sind die "rockstable" kategorien. Man kann dann weiter OCen, bis man bspw. mit Glück einmal einen 3h prime run hinkriegt bei bspw. 50-100mhz mehr, oder nur einen 1,5h run.. In jedem Fall wird das system immer instabiler je höher man taktet. Das ist einfach ein Naturgesetz. Wenn sich die testzeit immer mehr Null annähert, kann man also immer höher takten. Wie weit man das treibt und mit welcher instabilität man dann zurechtkommt im tatsächlichen Gamingbetrieb kann man also selbst entscheiden. Trotzdem ist lange testen "sicherer", auch wenn bei unendlich langem testen bei jedem System, auch solchen, die keine systematischen instabilitäten beinhalten, ein Fehler theoretisch irgendwann auftreten wird.
Auf Deutsch: Wenn man 3h primt und der PC das wiederholbar und nicht nur zufällig schafft, ist er stabiler als wenn man nur 1,5h primt oder nur 10min. das folgt aus der statistischen Verteilung der fehler weil es wahrscheinlichkeiten sind und die Fehler, um die es geht, zufällig auftreten. Systematisch auftretende Fehler ODER mit einer extrem hohen Wahrscheinlichkeit auftretende Fehler sieht man dagegen schon beim Boot oder bei kurzen Primetests/Coredamage tests whatever, wobei man, dahingehend stimmt alles was hier gesagt wird, man sich bei 10min prime oder egal welchen proggis schon in einem gegenüber der totalen, systematischen Instabilität relativ stabilen Bereich der statistisch auftretenden und wie wir alle kennen von der temperatur etc abhängigen zufälligen Fehler bewegt. Das bedeutet, wenn der pc dann im täglichen Leben nicht abstürzt könnte man zufrieden sein, sicherheitsbewusste user oder leute, die nicht wollen dass ihnen ein spielstand oder eine arbeit, ein f@h workpackage, ein gecodeter Film oder whatever zufällig abschmiert müssen eben mehr testen.
Soviel zur Fehler-Wahrscheinlichkeitslehre