[Sammelthread] -= OC Prozessoren Intel Sockel 1366 Laberthread =- (12)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ab 98% Speicherauslastung als Richtwert für den Taskmanager wäre nicht übel ;)

Und wie willst du das praktisch umsetzen? Ich hatte bei mir jetzt schon ein paarmal probiert und komme über den gezeigten genutzten RAM nicht drüber ...
 
hatte bisher immer probs meine cpus über 4ghz zu prügeln, der fehlende turbo-multi (thx msi :fire:) machte die sache auch nicht einfacher. hab nun old-school nochmal von vorn angefangen: multi auf 14 und meinen gewünschten blck von 210 prime-large-stable gemacht (settings im anhang).

wollte nun den multi sowie vcore suksessive erhöhen. muss ich noch andere spannungen ala qpi, nb, vdimm, etc evtl noch anpassen?

:o

alles über 20*200 wird instabil, selbst mit 1,4v. hat nicht jemand nen tipp für mich zur weiteren vorgehensweise :wink:
 
So mein Status besagt, dass eine GPU ne Macke hat.
Habe alles auf Standard gestellt und habe immernoch Grafikfehler. Zwar nicht mehr so extrem wie mit OC, aber sie sind noch da. Nutze ich nur eine habe ich keinerlei Probleme und auch keine Grafikfehler. Ich habe mal die Bridge getauscht aber ohne Erfolg.
Sicherheitshalber habe ich das mal in nem Frapsvideo festgehalten...
und ich dachte es liegt am OC :fresse:
Dann kann ich ja noch optimieren^^
 
bekomm den blauen..dumping to disk bla...

temps sind mit ~65° im grünen. hab irgendwie das gefühl, dass das mobo abriegelt. ist halt nur merkwürdig, dass 19*210 problemlos laufen, aber genau ab 4ghz wird es tierisch zickig
 
bekomm den blauen..dumping to disk bla...

temps sind mit ~65° im grünen. hab irgendwie das gefühl, dass das mobo abriegelt. ist halt nur merkwürdig, dass 19*210 problemlos laufen, aber genau ab 4ghz wird es tierisch zickig

haste mal geschaut welche TDP in Core temp angezeigt wird?
siehe screen (Bin2good) kann sein das du schon recht früh an die 130 kommst, dann macht die ganze Sache natürlich dicht. Oder dein 920er mag nicht mehr?
 
Zuletzt bearbeitet:
das volle programm 130w. eine genaue anzeige unterstützt mein mobo wohl nicht

ist ein xeon w3520, beim 920er war genau das gleiche...
 
Ich habe den Starpost des OC-Threads mal überarbeitet und eine LinX-Liste eingefügt.

Trifft hoffentlich auf Zustimmung
:fresse2:

Gruß
 
@Druss: Solange einige Dinge über das Verhalten von LinX nicht bekannt sind, halte ich das Prozedere nicht für zuverlässig:

1) Warum zeigt LinX bei vergleichbaren Systemen völlig verschiedene GFlop-Werte?
a. Bei JZ waren es peak 51.8 auf einem X980@4.2 mit 5223MB@...
b. Bei Sanic 46.4 auf einem X980@4.6 mit 4096MB@1440MHz
c. Bei Dir dann 51.2 auf dem X980@4.2 mit 5297MB@1600MHz
d. Bei mir sind es 55.1 auf einem 920@4.2 mit 10800MB@1600MHz und 52.9 bei 1000MB@1600MHz

Die GFlop-Werte sind doch extrem wichtig, fast wichtiger als die GHz, da sie die tatsächliche Leistung des Systems zeigen. Wenn ich z.B. mit "B2B Cas Delay" den Speicher runterdrücke und damit viel höhere GHz hinbekomme, aber die GFlops natürlich völlig in den Keller gehen, dann ist das am Screen nicht ersichtlich und trotzdem überhaupt keine vergleichbare oder beeindruckende Einstellung.

2) Warum liefert LinX bei verschiedenen Starts hintereinander verschiedene GFlop-Werte?

Nach dem ersten Start bekomme ich manchmal z.B. 50.3, dann aber über alle darauffolgenden Iterationen sehr konstant. Und beim zweiten Start 55 und wieder sehr konstant über die Iterationen.

Meine Vermutung: Entweder Speicherallozierung oder unzuverlässiges Alignment der LinX-Threads zu den Cores. Letzteres wäre dramatisch, denn wenn ein Core weniger Last bekommt, geht natürlich der GFlop-Wert runter, aber die Belastung der Gesamt-CPU ist auch geringer und man kann höher takten. Vielleicht ist deswegen der GFlop-Wert bei Sanic so gering und die GHz-Zahl so groß.

3) Es kommt bei der Stabilität eines Systems nicht auf die Anzahl der Runs an, sondern
a. auf die reine Dauer in Stunden und hängt
b. vom Anteil der benutzen Speichermenge am Gesamtspeicher ab.

Mit 1.4 Vcore läuft mein System bei 1000MB unendlich, aber bei 10800MB verrechnet sich LinX nach 20 Min. Mit 1.42 verrechnet er sich erst nach 2 bis 4 Stunden und mit 1.45 erst nach 9 bis 12 Stunden.

VORSCHLÄGE:

1) Dauer ist als Kriterium unpraktikabel, aber man könnte ja sagen, 12GB-Systeme müssen 25 Runs machen, 6GB-Systeme 50 und 3GB 100. Dann dauert es ungefähr gleich lang und die eingebaute Speichermenge wirkt sich nicht mehr durch die kürzere Testdauer aufs Endergebnis aus, was mit einem 25-Run-Szenario der Fall wäre.

2) Wie bekommt man die variable Speicherbenutzung bei All in den Griff? Vorhandener aber von LinX nicht verwendeter Speicher, macht Runs stabiler. Also müssen alle Startup-Programme disabled werden und man muß den vollen Speicherausbau minus z.B. 1000MB verwenden: bei 12GB also 11000, bei 6GB 5000 und bei 3GB 2000. Das sollte bei jedem gehen.

3) Peak GFlop-Wert muß auch angegeben werden.

---------- Beitrag hinzugefügt um 14:42 ---------- Vorheriger Beitrag war um 14:33 ----------

Ach und übrigens, warum bringt der 980 weniger GFlop als der 920 ???
 
Zuletzt bearbeitet:
Wie sehr hängt OC eurer Meinung nach vom Board ab, wenn der Multiplikator der CPU nach oben hin offen ist?
Ich meine jetzt nicht OC mit LN2 o.ä., sondern ganz normales Übertakten mit LuKü oder WaKü.
 
Wie sehr hängt OC eurer Meinung nach vom Board ab, wenn der Multiplikator der CPU nach oben hin offen ist?
Ich meine jetzt nicht OC mit LN2 o.ä., sondern ganz normales Übertakten mit LuKü oder WaKü.

Immernoch wenig, weil nach wie vor die Güte der CPU entscheidend ist. Seit LGA1366 ist der Speichercontroller ja in der CPU und damit ein großer Faktor für OC nicht mehr auf dem Board. Zudem interessiert es leistungstechnisch nicht mehr, ob du 4GHz mit 16*200 oder 20*160 erreichst (seitdem der BCLK den FSB verdrängt hat).

@Thethe:

Berechtigte Kritikpunkte, aber irgendwann wollte ich die Liste eben mal einführen.
Ich denke, dass schon was dran ist, dass LinX eben noch nicht optimiert wurde für den Gulftown.

Wie sich unterschiedliche Werte hinsichtlich GFlops ergeben können - insbesondere dein Vergleich 980X/920 - kann ich dir natürlich auch nicht erklären.

Hinsichtlich der verbauten RAM-Menge sollte meiner Meinung nach eben doch nur eine minimale Anzahl von erfolgreich absolvierten Runs als Kriterium dienen.
Gerade die Systeme, die mehr RAM verbaut haben (12GB als Beispiel) brauchen dann eben länger, bei 3GB dauert es eben kürzer. Gerade da sehe ich die Vergleichbarkeit.

Würdest du auf sagen wir einmal 2h Dauer bestehen, dann wäre meines Erachtens der 3GB-Rechner "stabiler" gegenüber dem 12GB-Rechner, weil er je eben mehr Runs absolviert.
Hier sehe ich einen praktischen Vorteil gegenüber Prime.

Zudem solltest du in deine Überlegungen auch den Takt einfliessen lassen: ein 4GHz-Rechner wird bei gleicher Nutzung des Arbeitsspeichers schneller 25Runs abarbeiten als einer @3GHz.

Wie gesagt: die Anzahl der Runs ist mMn ein praktischer "gemeinsamer Nenner".

Ich stimme dir nach wie vor zu, dass auch LinX nicht perfekt ist bzw. eine perfekte Vergleichbarkeit bietet. Analog lässt sich das aber auch bei Prime diskutieren...
 
Immernoch wenig, weil nach wie vor die Güte der CPU entscheidend ist. Seit LGA1366 ist der Speichercontroller ja in der CPU und damit ein großer Faktor für OC nicht mehr auf dem Board. Zudem interessiert es leistungstechnisch nicht mehr, ob du 4GHz mit 16*200 oder 20*160 erreichst (seitdem der BCLK den FSB verdrängt hat).

Danke für die Antwort.
So ähnlich habe ich es mir auch gedacht.
Also brauche ich nicht z.B. zu einem teureren Board mit mehr SchnickSchnack greifen, wenn ich eh eine CPU mit offenem Multi habe und eben nur mit Wasserkühlung kühlen möchte?

Auch stelle ich mir die Frage, wie warm der Chipsatz etc. auf dem Board werden wird, wenn ich nicht mehr Spannung bzw. nur geringfügig mehr Spannung drauf geben werde, da ich ja ohnehin mit dem offenen Multi arbeiten kann und daher nicht zwingend 200BLCK oder mehr erreichen muss.
 
Danke für die Antwort.
So ähnlich habe ich es mir auch gedacht.
Also brauche ich nicht z.B. zu einem teureren Board mit mehr SchnickSchnack greifen, wenn ich eh eine CPU mit offenem Multi habe und eben nur mit Wasserkühlung kühlen möchte?

Auch stelle ich mir die Frage, wie warm der Chipsatz etc. auf dem Board werden wird, wenn ich nicht mehr Spannung bzw. nur geringfügig mehr Spannung drauf geben werde, da ich ja ohnehin mit dem offenen Multi arbeiten kann und daher nicht zwingend 200BLCK oder mehr erreichen muss.

Also

1. erreichst du so gut wie immer 200MHz BCLK und

2. wird da das Brett auch nicht sonderlich warm.

Boards wie ein EVGA CF oder ein R3E haben in meinen Augen nur eine Daseinsberechtigung für Hardcore-Overclocker, die das letzte MHz BCLK aus der CPU quetschen wollen (dann meist unter Chiller oder LN2).

Ansonsten sind die Ergebnisse sehr ähnlich, fast gleich (wenn du ein normales gutes Mainboard nimmst). Kaufen würde ich dann nach Ausstattung oder Optik.

Gruß
 
Und wie schaut der Unterschied zwischen einem 100€ X58 Board und einem 250€ X58 Board aus? Wenn der Unterschied noch immer sehr gering bis nicht vorhanden (zumindest in meinem Fall ;)) ist, dann hat sich die Frage geklärt. ;)
(Anzumerken ist aber, dass es sich bei mir nicht um den Preis dreht, sondern um was völlig verschiedenes)
 
Kann ich davon ausgehen, dass R3E und Classified besser für das ExtremOC sind, weil sie eine potentere Stromversorgung besitzen?

Wäre dies der Fall, würde ich das Classified, so schön es auch sein mag, mit Velaub für etwas überteuert finden. Eine potentere Stromversorgung dürfte sich doch nicht derart massiv im Preis niederschlagen... *duck*
 
Und wie schaut der Unterschied zwischen einem 100€ X58 Board und einem 250€ X58 Board aus? Wenn der Unterschied noch immer sehr gering bis nicht vorhanden (zumindest in meinem Fall ;)) ist, dann hat sich die Frage geklärt. ;)
(Anzumerken ist aber, dass es sich bei mir nicht um den Preis dreht, sondern um was völlig verschiedenes)

Für 100 Euro wirst du wohl kaum ein X58-Board bekommen ;)

Jedenfalls ist es für die meisten sage ich mal hinsichtlich OC ohne großen Unterschied, ob du z.B. ein UD3R oder ein UD7 nimmst. Der Preisunterschied ergibt sich zum überwiegenden Teil aus den Unterschieden bei Ausstattung und Lieferumfang. Zwar hat ein UD5 mehr Mosfets als ein UD3 und ein UD7 mehr als ein UD5, aber ob man das merkt...sicher auch erst, wenn man die CPU an die Grenzen treibt.
Dementsprechend würde ich dann hauptsächlich nach meinen Ansprüchen an das Board kaufen: brauchst du 2 LAN-Ports? (dann wäre ein UD3P schon außen vor) usw. je nachdem, was auf dem Board verbaut ist, muss der Hersteller eben auch den Preis kalkulieren, weil er entsprechend vorne Lizenzen an Chiphersteller bezahlen muss, die er eben an den Kunden weitergibt. So z.B. bei einem EVGA CF, da bezahlt man dann den NF200-Chip. Das erklärt dann vielleicht auch die Frage:

Kann ich davon ausgehen, dass R3E und Classified besser für das ExtremOC sind, weil sie eine potentere Stromversorgung besitzen?

Wäre dies der Fall, würde ich das Classified, so schön es auch sein mag, mit Velaub für etwas überteuert finden. Eine potentere Stromversorgung dürfte sich doch nicht derart massiv im Preis niederschlagen... *duck*

Dazu: jaaa....also gerade die Stromversorgung der CPU so stabil zu halten, schlägt sich dann auch im Preis eines CF oder R3E nieder. Um den Vorteil nutzen zu können, braucht man dann auch ein Netzteil mit zwei 8-Pin-EPS-Steckern etc. Und der Vorteil einer solch stabilen Stromversorgung zeigt sich wie gesagt erst in Regionen, in denen man nicht mal mehr mit einer (normalen) WaKü unterwegs ist. Woher der Mehrpreis sonst noch kommt, habe ich ja oben geschrieben ;)
 
Zuletzt bearbeitet:
Dann danke für die Klärung. Ich denke, ich werde dann bei meinem Board bleiben können. Die alten FSB-basierenden Boards waren die reine Hölle. Oft limiterte da der blöde FSB:fresse:
 
@Druss: Der gulftown hat gegenüber dem 920 keine sensationellen Neuerungen, die extra unterstützt werden müßten, daher bedarf es auch keiner geänderten Compileroptionen. 12 Threads müssen unterstützt werden und das tut LinX.

Mich würden die LinX-GFlops eines 980@stock interessieren. Vielleicht ist ja auch der einzelne Core langsamer geworden, oder das OC ist nicht optimal so daß der Gulftown waitstaits einfügen muß und langsamer wird.

Hinsichtlich der Run-Anzahl bin ich wirklich anderer Meinung, denn ich hab reproduzierbar mit mehreren Systemen immer wieder die Erfahrung gemacht, daß eben nicht die Anzahl der Iterationen, sondern die Dauer zusammen mit dem benutzten Speicheranteil die Stabilität des Systems bestimmt. Das ist ganz einfach zu testen, indem man mal ein paar unterschiedliche MB-Werte nach All bei einem bewußt mit zu niedrigem Vcore versorgten System einstellt.

Bei All wird LinX sich dann früh verrechnen (wenn Vcore nicht viel zu niedrig eingestellt wurde), und je weniger Speicher man einstellt, desto mehr Runs schafft das System. Natürlich wird sich auch die Gesamtdauer noch verlängern.

Entsprechend bedeutet ein Ergebnis bei geringem Speicheranteil und kurzer Laufzeit dann überhaupt nicht, daß das System stabil war.

Schreib doch wenigstens die "peak GFlop"-Zahl und die MB-Zahl zwingend vor, damit das Ganze wenigstens ein bischen vergleichbarer wird.
 
Zuletzt bearbeitet:
Hinsichtlich der Run-Anzahl bin ich wirklich anderer Meinung, denn ich hab reproduzierbar mit mehreren Systemen immer wieder die Erfahrung gemacht, daß eben nicht die Anzahl, sondern die Dauer zusammen mit dem benutzten Speicheranteil die Stabilität des Systems bestimmt. Das ist ganz einfach zu testen, indem man mal ein paar unterschiedliche MB-Werte nach All bei einem bewußt mit zu niedrigem Vcore versorgten System einstellt.

Wenn ich aber beabsichtige, immer möglichst viel RAM durch LinX testen zu lassen, dann wird dieser (salopp formuliert) bei einem 6GB-Sys bei X Minuten doppelt so oft durchlaufen wie bei einem 12GB-Sys. Deswegen sehe ich in der Anzahl der Runs einen gemeinsamen Nenner.

Oder reden wir jetzt aneinander vorbei [nochmal lesen, was du geschrieben hast]?

Schreib doch wenigstens die "peak GFlop"-Zahl und die MB-Zahl zwingend vor, damit das Ganze wenigstens ein bischen vergleichbarer wird.

Habe ich mit aufgenommen ;)
 
Zuletzt bearbeitet:
Soweit ich weiß ist der Speichercontroller des Gulftowns langsamer.
Beim Evga CF gibt es mit dem Biossen für die Gulfis einen Schalter der Turbo Perfomance heisst.
Ist für die Gulftowns gedacht um den L3 Cache zu beschleunigen.
Daher können auch die unterschiedlichen Werte von linx herrühren.
 
Ne ne,
der Gulfi hat ja auch das 1333 Speicher Interface, ist nur ein Druckfehler.
Ich meine die interne Anbindung des L3 Cache´s der CPU, da wurden die Latenzen zurück genommen.
War damals bei den S775 Quads (Q9550 usw) genauso, daher kamen die auch höher mit dem FSB.
 
Ne ne,
der Gulfi hat ja auch das 1333 Speicher Interface, ist nur ein Druckfehler.
Ich meine die interne Anbindung des L3 Cache´s der CPU, da wurden die Latenzen zurück genommen.
War damals bei den S775 Quads (Q9550 usw) genauso, daher kamen die auch höher mit dem FSB.

Deswegen hatte ich gefragt ;)
 
Haben ich von jemanden gehört, der mit Intel in einem engen Kontakt steht.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh