Dual Xeons oder i7 ?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hatte heute ein sehr aufschlussreiches Gespräch mit der Service Abteilung. Man kommte mir zwar keine genauen Zahlen nennen wie gut das Programm auf NUMA Nodes skaliert, es wurde aber auf den Multi Prozessorbetrieb hin optimiert (vor einigen Jahren musste man für halbwegs brauchbare Rechenzeiten auf Mehrprozessorsystem setzen). Eine GPU Beschleunigung gibt es zur Zeit nicht, ist aber in der Entwicklung. Leider wird das frühsten in ein bis zwei Jahren fertig sein. Vllt dann mit Xeon Phi Unterstüztung.

Der Support selbst benutzt 2 x 6 Kerner plus HT.

Für mich gibt es jetzt 2 bzw. 3 Optionen.
- 2x kleine Sechskerner
- 1x großer Achtkerner plus Dual Sockel Board
- Opteron System?
 
Das hilft uns jetzt leider auch nur bedingt weiter, "Multiprozessor-Optimierung" heißt nur, dass ein Pogramm mehr als einen Thread nutzen kann. Also leider ziemlich pauschal.

Damit muss man nun spekulieren, ob die Leute an NUMA dachten, oder nicht. Die Chancen stehen da wohl 50/50. Wenn sie das nicht wissen, würde ich nochmal anrufen und fragen, ob sie schon mal was von AMD gehört haben, bzw. nachfragen, welche Kisten die Entwickler herumstehen haben. Wenn das ne kleine Firma ist, kann der Service doch mal schnell zur IT durchklingeln, die wissen sicherlich, was in der Entwicklugnsabteilung an Hardware herumsteht.

Wenn die nur Intel Kisten haben ... dann wird AMD sicherlich schlecht skalieren.

Edit:
Nen Intel 8core würde ich generell auschließen. Da passen nur CPus in der 2 GHz Region in Dein Budget. Die sind dann Pi*Daumen wegen der Kerne doppelt so schnell als Dein 2700K, aber wenn Du Dir nen 3770K holst, dann rennt der locker auf 4,x GHz, und das auch stabil. Damit hat mal also den doppelten Xeon-Takt, womit der Nachteil der Kerne dann wieder ausgeglichen wäre. Es bleibt dann nur ein "kleiner" Preisunterschied ^^

Edit2:
Hast Du nach den unterstützten Befehlssätzen gefragt, oder hast Du das vergessen?

Edit3:
Wie groß ist die Gefahr, dass sich B0 ES Chips verrechnen?
Da gäbs auf ebay nette Angebote, zwei 8core Xeons 3,0 GHz S2011 für ~1300 Euro. Aber halt ES ...

Irgendwie tendiere ich gerade wegen der ganzen OC-Misere bei Intel (nicht mal BCLK OC geht, was bei den 2011er Chips normalerweise geht), zu nem 3930k und dann OC auf 4,0 GHz. Wäre dann ungefähr etwas mehr als die Hälfte schneller als Dein aktueller 2700K@stock. Nicht das Riesenspeedup, aber immerhin sparst Du runde 1000 Euro zu den Xeon/Opteron-Setups, die vermutlich nicht recht viel schneller wären :(

Müsste man mal grob an Cinebench vergleichen und bei den Opteron 4P Setups halt nicht vergessen, dass es ein best-case ist.
Edit:
http://cbscores.com/

Preis/Leistungsmäßig kommt man da mit dem 3930K wirklich am Weitesten. Alternative wären höchstens noch die übertakteten S1366er 2P Modelle, aber [SIZE=-1]X5650 kostet auch schon 800 Euro. Ende [SIZE=-1]2013 komm[SIZE=-1]en Ivy-Bridge-E, [SIZE=-1]der wird 12 Kerne [SIZE=-1]haben, leider [SIZE=-1]wirds aber wieder nur 6core i7 geben. Aber vielleicht werden die 8core [SIZE=-1]Xeons[/SIZE][SIZE=-1] dann doch etwas billiger, so dass sich ein Upgrade [SIZE=-1]vielleicht lohnen könnte. A[SIZE=-1]ber [SIZE=-1]viellei[SIZE=-1]cht ist da dann auch sch[SIZE=-1]on der GPU-Support f[SIZE=-1]ertig, dann[SIZE=-1] wäre es [SIZE=-1]sowieso egal.[/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE][/SIZE]
 
Zuletzt bearbeitet:
das wäre dann so als bekommt er 2 kerne mit SMT zu seinem jetzigem system.

wäre mir für diese großen kosten nicht wert.

lassen sich die Opterons übertakten (freier multi?) würde ich diese nehmen. wenn nicht, würde ich auf 2q 2013 warten und mir einen Neuen Haswell holen. sonnst hätte ich ein zu schlechtes gewissen wegen dem P/L faktor des upgrades.
 
das wäre dann so als bekommt er 2 kerne mit SMT zu seinem jetzigem system.
Jupp, also 50% mehr Kerne. Damit betrüge seine Rechenzeit nur noch 2/3, d.h. sein Rechenjob würde sich von 5 Tagen auf 3,3 Tage verringern, mit OC dann Richtung 3 Tage. 2 Tage eingespart, ist ne Menge.

wäre mir für diese großen kosten nicht wert.
Siehe oben, für den Wald- und Wiesen-Übertakter, der nur Cinebenchpunkte und fps im 5% Bereich jagt magt das stimmen, aber für jemanden, der Geld mit dem System verdient sind 2 Tage Ersparnis nicht von schlechten Eltern. Um da ein Verhältnis herstellen zu können, kann man grob mit nem Studenlohn rechnen und davon ausgehen, dass man die 2 Tage nichts anderes zu tun hätte aber bezahlt werden müsste. Passt in seinem Fall nun nicht, da er ja auf eigene Rechnung rechnet, aber um ein Gefühl für seine Sichtweise zu bekommen, sollte es reichen. Zeit ist Geld, und 2 Tage sind ne Menge Zeit.
lassen sich die Opterons übertakten (freier multi?) würde ich diese nehmen.
Natürlich nicht, wieso sollten sie? AMD blockt da leider genauso :( Gibt nur die Samples, die nen freien Multi haben, aber recht weit käme man damit auch nicht, da man auf den Serverboards keine Spannungen einstellen kann.
wenn nicht, würde ich auf 2q 2013 warten und mir einen Neuen Haswell holen.
Naja, wären wieder nur 4 Kerne. Aber immerhin sollten sich die Verbesserungen v.a. im SMT-Betrieb bemerkbar machen, das SMT-Scaling also besser ausfallen. Nehmen wir mal großzügig +20% an (ich glaub Intel verspricht +15% im Schnitt) und schätzen IvyB als +10% schneller als Sandy(=100%) ein. Dann hätte man also gesamt ne Leistungssteigerung bei gleichem Takt von: 100%*1,1*1,2 = 1,32. Das wäre dann immer noch langsamer als 4<>6 Kerne, das den Faktor 1,5 hat. Eventuell könnte man es mit nem höheren OC ausgleichen und billiger wäre es auch noch, ja, aber halt auch erst ab April erhältlich. Je nach Menge der Projekte, die er bis dahin rechnen lassen muss/will/kann, sind 4 Monate für nen Profi schon wieder zu lange.

Nachdem er sogar bis zu 2k Euros ausgeben will, nehm ich mal an, dass er eher mehr als wenig Arbeit hat. Somit würde ich sagen, dass ~1k ( 500 für die CPU, 200 fürs Board, Rest für WaKü-Ausbau, RAM etc.) für 1/3 Zeitgewinn asap eventuell schon recht interessant für ihn wären.

Besser wäre nur ein 2P System mit den 8core Samples @3 GHz zum billigen Preis aus HongKong. Mit 32Threads @3GHz ginge definitiv die Post ab. Aber Kernkraftwerke würde ich damit nicht berechnen lassen ^^
Mittellösung wäre vielleicht sich so ein System zusammenzustellen, und dann erstmal 1 Monat solche BOinc-Projekte als Test rechnen zu lassen, bei denen ein zweiter PC das Ergebnis überprüft.
 
Zuletzt bearbeitet:
Ich hatte heute ein sehr aufschlussreiches Gespräch mit der Service Abteilung. Man kommte mir zwar keine genauen Zahlen nennen wie gut das Programm auf NUMA Nodes skaliert, es wurde aber auf den Multi Prozessorbetrieb hin optimiert (vor einigen Jahren musste man für halbwegs brauchbare Rechenzeiten auf Mehrprozessorsystem setzen). Eine GPU Beschleunigung gibt es zur Zeit nicht, ist aber in der Entwicklung. Leider wird das frühsten in ein bis zwei Jahren fertig sein. Vllt dann mit Xeon Phi Unterstüztung.

Der Support selbst benutzt 2 x 6 Kerner plus HT.

Was mir da spontant einfällt. Wenn der Support solche Systeme stehen hat, kann man ggf. von dehnen in Erfahrung bringen, wie zumindest zwei NUMA Nodes skalieren. Ggf. lässt sich ein kleines Projekt (oder ein Demo/Showprojekt) vom Support mal testhalber auf diesen System testen. Sprich einmal mit im Taskmanager fest zugewiesenen Threads (die ersten oder die letzten 12), repräsentiert das Rechnen auf einem einzigen NUMA Node. Und das selbe Projekt mit vollen Cores der gleichen Testmaschine. Diese beiden Ergebnise werden dann verglichen.
Ist der Leistungszugewinn im Faktor ~1,8-1,9, ist alles in bester Ordnung in der Skalierung auf zumindest zwei NUMA Nodes. Kommt da hingegen nur was um die 1,5 bei rum, so ist die Skalierung recht mies.

Sofern die für dich/euch beim Support mal so ein Szenario gegentesten können, würde ich darauf aufbauend dann eine Entscheidung treffen.

sehr gute Skalierung -> hier könnte man ggf. gar über AMD nachdenken, sprich Dual G34 mit zwei dickeren acht Moduler/16 Thread CPUs. (~1,9)
gute Skalierung -> zwei Hexacores (~1,7)
schlechte Skalierung -> einen acht Kerner Intel mit möglichst viel Takt (~1,5 und schlechter)


das wäre dann so als bekommt er 2 kerne mit SMT zu seinem jetzigem system.

wäre mir für diese großen kosten nicht wert.

Das ist alles eine Frage der Kosten/Nutzen. Zwei Kerne bei ner Single CPU ggf. mit OC dürften gut und gerne 1,5x soviel Leistung bringen wie aktuell. Bei ~5Tagen berechnungszeit von einem Projekt heist das also immernoch eine enorme Einsparung an Zeit. Diese Zeit kann für anderen Aufgaben/Projeke genutzt werden. Somit sind die Kosten quasi optimalerweise 1:1 umgesetzt bzw. wieder rein.

Und zum Thema AMD. Soweit mir bekannt gibt es aktuell keine OC Optionen. Weder Multi noch Ref. Takt bei Dual G34... Zumindest finden sich irgendwie keine Ergebnise. Was potentiell geht, ist Sockel-F OC. Nur bringt es heute nix mehr, langsame und alte Sockel-F CPUs zu kaufen ;) Dazu kommt, auch ältere Intel Systeme kann man OCen. (Dual SR-2 zum Beispiel) Das mögliche NUMA Node Problem bleibt weiterhin bestehen und die Leistung pro Takt wird durch OC auch nicht besser. Es macht also nach wie vor keinen Sinn einfach ins blaue AMD zu empfehlen, ohne genanntes Hintergrundwissen :rolleyes:
Thema warten... Auch das ist quatsch. Wenn die Anforderungen bestehen, die Rechenzeit zu senken, muss man das Optimale aus dem Budget rausholen. Was meinst du wie viel sich mit simplen 50% mehr Leistung rein an Kosten einsparen lassen, wenn diese 50% mehr Leistung durch weitere Projekte und somit weiteres Geld gegengestellt werden können? Da kann man gut und gerne in einem oder zwei Jahren sicher nochmal so ein System hinstellen bzw. dann den Nachfolger einsetzen. (und dann die Arbeit aufteilen von mehreren Projekten, sofern diese existieren)
 
Zuletzt bearbeitet:
Aufrüsten wegen Faktor 1.5 ist Geldverschwendung, mein 2700k macht 5Ghz, das sind 43% mehr Takt und hier stürzt nichts ab...
Nächtes Jahr gibts interessante CPUs mit 8-12 Nativen Kernen, jetzt aufrüsten lohnt nicht.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
und du verdienst auch Geld mit deiner CPU? Betreibst diese unter Tagelanger, wenn nicht gar Wochenlanger Dauervolllast? Und kannst immernoch sagen, dass die CPU bei 5GHz jede Situation dieser Dauervolllast bequem mit 5GHz macht? -> ich denke nicht...
 
Die CPU braucht dafür nur 1.36v, wenn du sicher sein willst das die 5Ghz stabil bleiben sollen, dann einfach zusätzlich +0.05v vcore erhöhen, dann biste zu 99% auf der sicheren Seite ;)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Die CPU braucht dafür nur 1.36v, wenn du sicher sein willst das die 5Ghz stabil bleiben sollen, dann einfach zusätzlich +0.05v vcore erhöhen, dann biste zu 99% auf der sicheren Seite ;)

Bei so Projekten will man aber 100% Sicherheit,ein Rechenfehler am 2 oder 3 ten Tag unter Vollast,und bums der ganze Aufwand war für die Katz:)

Ein i7 kann tagelang bei 5GHZ spiele u benchmarktauglich sein,weil dort 1/2 Darstellungsfehler nicht ins Gewicht fallen,als Rechencluster aber die Katastrophe schlecht hin
 
Hm wenn man so denkt darf man keine CPUs mehr übertakten, dann besser auf die neuen Xeons 2013 setzen.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Anscheinend verstehst du den Unterschied zw. Consumer und Produktivem Bereich nicht...


[edit]
Sicherlich kann ne auf 5GHz aufgebohrte CPU ordentlich flott rechnen...
Doch fuern Produktivsystem ist das nichts weiter als ne Bastelbude.

Denn wenn ich ne Kiste 5 Tage ++ am Limit arbeiten lassen muss, dann habich mit deiner vorgeschlagenen Loesung einfach keinen kuehlen Kopf.

[/edit]
 
Zuletzt bearbeitet:
Naja, wären wieder nur 4 Kerne

ich meinte dann eig eher den 6 Kern Haswell falls direkt einer raus kommen sollte.

@FXsonne

mir war das mit der ungewissheit wegen numa bei der empfehlung bewusst. ich schlug es dennoch vor weil ich die gleiche sichtweise habe wie Duplex. ich würde auch lieber ein wenig mehr Ocen.

man muss ja nicht gleich 5 ghz nehmen, aber 4,6 ghz sollten locker drin sein. die laufen bei amd ja teilweise schon mit standard spannung.

wenn ich ne Kiste 5 Tage ++ am Limit arbeiten lassen muss, dann habich mit deiner vorgeschlagenen Loesung einfach keinen kuehlen Kopf.

Subjektiv daher irrelevant. Duplex kann es ja mal mit seinem Rechner vormachen und einen 14 Tage Dauer Vollbelastungstest machen.
 
Zuletzt bearbeitet:
Subjektiv daher irrelevant. Duplex kann es ja mal mit seinem Rechner vormachen und einen 14 Tage Dauer Vollbelastungstest machen.

Hat was mit Erfahrung zu tun. Wenn du ne weile mit Servern und richtiger Hardware deine Erfahrungen gesammelt hast wirst Du genauso darueber denken.
Richtige Maschinen kannst du einfach Tagelang unter voll-last laufen lassen, es interessiert sie einfach nicht die Bohne.
N Normaler PC bluescreened einfach mal wenner lustig ist.
 
ich meinte dann eig eher den 6 Kern Haswell falls direkt einer raus kommen sollte.

@FXsonne

mir war das mit der ungewissheit wegen numa bei der empfehlung bewusst. ich schlug es dennoch vor weil ich die gleiche sichtweise habe wie Duplex. ich würde auch lieber ein wenig mehr Ocen.

man muss ja nicht gleich 5 ghz nehmen, aber 4,6 ghz sollten locker drin sein. die laufen bei amd ja teilweise schon mit standard spannung.



Subjektiv daher irrelevant. Duplex kann es ja mal mit seinem Rechner vormachen und einen 14 Tage Dauer Vollbelastungstest machen.

Erstens wird es keine Haswell-Sechskerner geben. Zweitens bringen die Verweise auf OC bist er arzt kommt nichts, hier soll nicht Futuremark in Endlosschleife gebencht werden und drittens sind deine Argumente noch viel subjektiver als p4n0 bedenken, wenn Firmen das auch so sehen würden würden sie auch alle OCen. Es hat gründe warum man den Spaß nicht überall macht...
 
Hm wenn man so denkt darf man keine CPUs mehr übertakten, dann besser auf die neuen Xeons 2013 setzen.

Das würde aber heißen, er muss warten. Die Anforderung war aber, jetzt mehr Leistung zu bekommen. Warten kann man immer, 2014 oder 2015 gibt es noch schnellere Modelle geben ;)
Und ob es Sinn macht, die erste Generation gleich zu Release zu kaufen, steht ebenso auf einem anderen Blatt. Niemand wusste zu Sandy Zeiten, was OC auf den CPUs wirklich anrichtet. Ich sag nur Thema Speichercontroller bei zu viel Spannung auf den Speichern, wo man schön die CPU killen konnte.
Solche Erfahrungswerte kommen mit der Zeit. Also weiter warten.
Oder der Bug im Chipsatz der ersten B2 Boards... (dem unterliege ich heute noch, aber mein Board läuft aktuell noch... Wie lange, steht in den Sternen)

Wann soll S1150 kommen?
Q1-Q2 2013?
Halbes Jahr drauf für Erfahrungssammlung, schon bist du wieder bei Q4 2013... Das ist knapp ein Jahr von heute? Macht irgendwie keinen Sinn, wenn er jetzt die Leistung braucht...

mir war das mit der ungewissheit wegen numa bei der empfehlung bewusst. ich schlug es dennoch vor weil ich die gleiche sichtweise habe wie Duplex. ich würde auch lieber ein wenig mehr Ocen.

man muss ja nicht gleich 5 ghz nehmen, aber 4,6 ghz sollten locker drin sein. die laufen bei amd ja teilweise schon mit standard spannung.

Und genau das ist der Fehler... Mehr OC heist gleichsam mehr mögliche Instabilität.
Und ob AMD CPUs 4,6GHz bei default Spannung erreichen ist doch auch vollkommen egal. Ausgehend von einem 8350er vier Moduler wären das poplige rechnerische 15%. Das kannst du dir schenken. Vor allem, wenn es darum geht, das ganze System erst kaufen zu müssen. Da kommt er immernoch besser weg, sich ein OC Board für 150€ für S1155 zu kaufen, dieses Board in das aktuelle System zu setzen und den 2700K um 15% zu OCen -> Ergebnis absolut identisch, nur deutlich günstiger, weil keine neue CPU benötigt wird.
Dazu vergisst du abermals bei der Aussage, das es schlicht aktuell wohl nicht machbar ist, Dual AMD Systeme zu übertakten. Er wäre also bei 4,6GHz (sofern die CPU das macht und dabei kühlbar ist) gerade mal mit den popligen 15% theoretisch schluss. Wozu bitte neukaufen? Dann kann er gleich seinen 2700K behalten. Zur Info, der ist wohl ca. ähnlich so schnell ;)

Und noch eine Anmerkung, um so weiter höher man im Leistungsbereich klettert, desto teurer wird der Spaß auch. Gewisse Leistungsbereiche kann man überbrücken, wenn man OCed bzw. wenn man mit Bedacht kauft. Es wird aber immer schwellen geben, wo schlicht und einfach ein deutlicher Mehrpreisaufwand nötig ist, um die Leistung auch gewiss zu erhalten. Mit einem Dual Hexacore E5 Xeon System [2,2-2,4GHz) wirst du bei halbwegs funktionierender NUMA Node skalierung schlicht und einfach immer schneller sein, als mit einem OCed Quadcore... Und um diese Leistung auch garantiert zu haben, sind eben kosten nötig die es gegenzurechnen gilt. Wenn 2000€ Budget vorhanden sind, können auch 2000€ ausgegeben werden. Da brauch ich nciht über ne LowCoast Version für 800€ + mörder OC sowie mangelde Stabilität inklu nachdenken, wenn ich über 50% Luft im Preis habe...
 
Zuletzt bearbeitet:
Was mir da spontant einfällt. Wenn der Support solche Systeme stehen hat, kann man ggf. von dehnen in Erfahrung bringen, wie zumindest zwei NUMA Nodes skalieren. Ggf. lässt sich ein kleines Projekt (oder ein Demo/Showprojekt) vom Support mal testhalber auf diesen System testen. Sprich einmal mit im Taskmanager fest zugewiesenen Threads (die ersten oder die letzten 12), repräsentiert das Rechnen auf einem einzigen NUMA Node. Und das selbe Projekt mit vollen Cores der gleichen Testmaschine. Diese beiden Ergebnise werden dann verglichen.
Ist der Leistungszugewinn im Faktor ~1,8-1,9, ist alles in bester Ordnung in der Skalierung auf zumindest zwei NUMA Nodes. Kommt da hingegen nur was um die 1,5 bei rum, so ist die Skalierung recht mies.
Das hilft Dir dann aber auch nicht viel. Das Festackern der Threads, tackert ja nicht den Speicherbereich fest. Da kanns Dir passieren, dass Du ne tolle Skalierung misst, aber die simulierten 1P Werte verglichen mit nem echten 1P System schlecht sind, da die verwendeten Daten eben teilweise im RAM der anderen Node gespeichert sind.

ich meinte dann eig eher den 6 Kern Haswell falls direkt einer raus kommen sollte.
Ja sowas wär nett, wirds aber nicht geben. Man kann sich wohl bei AMD für die schlechte Konkurrenz bedanken :(
 
Zuletzt bearbeitet:
Hat was mit Erfahrung zu tun. Wenn du ne weile mit Servern und richtiger Hardware deine Erfahrungen gesammelt hast wirst Du genauso darueber denken.
Richtige Maschinen kannst du einfach Tagelang unter voll-last laufen lassen, es interessiert sie einfach nicht die Bohne.
N Normaler PC bluescreened einfach mal wenner lustig ist.

*gähn* Eine tolle Argumentation hast du da. Server kochen auch nur mit Wasser und bestehen oft aus der gleichen Hardware, die auch in "normalen PCs" steckt, sind aber evtl. anders validiert.
Mein popeliger PC rendert oft tagelang unter Volllast durch und läuft einfach, trotz OC. Was anderes kann ich mir auch garnicht leisten, und blue screens schon garnicht.
 
Das hilft Dir dann aber auch nicht viel. Das Festackern der Threads, tackert ja nicht den Speicherbereich fest. Da kanns Dir passieren, dass Du ne tolle Skalierung misst, aber die simulierten 1P Werte verglichen mit nem echten 1P System schlecht sind, da die verwendeten Daten eben teilweise im RAM der anderen Node gespeichert sind.(

Soweit mir bekannt sollte die CPU die Daten auch über den Speichercontroller ansprechen, wo die Threads laufen.
Aber sei es drum, ob das simulierte 1P Ergebnis gut ist, dürfte doch auch egal sein. Solange die Skalierung passt. Hochrechnen vom eigenen vorhandenen System kann man ja immernoch. Denn die sechs Cores dürften alle mal ähnliche Werte liefern als der vorhandene 2700K. Sofern also die Messung mit den CPUs skaliert, dürfte sich auch nie der Fall einstellen, dass man nur ein NUMA Node befeuern will.

Ich denke aber, wenn man den Support fragt, ob du eine CPU mal fix rausschmeißen, machen die nicht mit. Ggf. wäre im Bios/UEFI abschalten noch möglich...
 
Mein popeliger PC rendert oft tagelang unter Volllast durch und läuft einfach, trotz OC. Was anderes kann ich mir auch garnicht leisten, und blue screens schon garnicht.

Das mag ja auch funktionieren in einem gewissen Rahmen,nur wenn ich mich am oberen Maximum der Architektur bewege,und 5GHZ sind schon ne Hausnummer auch für Sandy,geht sich das in nicht fehlertolleranten Anwendungen eben nicht mehr aus:)

Und wird da eher für Frust statt Lust sorgen
 
Mit 4,2GHz ausgehend von 3,5GHz Allcore Turbo seines 2600K wäre er auch "gerade mal" 20% über dem spezifizierten Takt. Das dürfte durchaus machbar sein... Ggf. sogar über Tage stabil, wenn die Spannung, Kühlung und das drum rum passt ;)
Aber 5GHz ist da ne ganz andere Marke.

Mein 2600K geht beispielsweise 7 Tage Prime95 stabil erst ab 1,368V bei 4500MHz. Schon eine Stufe weniger und die Kiste schmiert mal nach 2 mal nach 3 Tagen ab. Und das ist nur Prime95 :fresse:
LinX läuft beispielsweise auch durch, erzeugt aber nen Unterbruch, wenn ein voller Test durch ist in der Last, wenn ich mich recht entsinne.
Und ob ein Kauf einer CPU mit diesem angepeilten Takt auch das bringt, ist ebenso unklar. Vllt ists ne Krücke und der macht die 4GHz erst mit über 1,3V? Soll ja schon Fälle gegeben haben ;) Dann gilt es händisch austesten -> kost Zeit und Nerven.
 
Wenn, wie hier Zeit Geld ist, dann würde ich von OC auch Abstand nehmen, denn das Ausloten braucht Zeit.
 
Soweit mir bekannt sollte die CPU die Daten auch über den Speichercontroller ansprechen, wo die Threads laufen.
Na wenn das so wäre, wozu bräuchtest Du dann die NUMA-Unterstützung?
Ich kann mich noch an ne BIOS Einstellung bei Opteronboards erinnern, die "Node interleave" hieß. Das war das Gegenteil von NUMA. Da wurde der Hauptspeicher zwischen den Nodes scheibchenweise aufgeteilt, quasi wie bei nem RAID0.
Ist aber schon länger her, kA wie das aktuell bei den Intels aussieht.

Wenn, wie hier Zeit Geld ist, dann würde ich von OC auch Abstand nehmen, denn das Ausloten braucht Zeit.
Naja, aber man macht es nur einmal. Bei den ersten 5 Projekten kann man auch noch den alten 2700er als Backup mitlaufen lassen, damit man im Notfall wenigstens nach 5 Tagen was hat und nicht nach 8 oder so, das sollte reichen. Oder einfach mal ein paar alte Projekte auf Probe nachrechnen lassen. Dauert dann natürlich schon etwas länger, aber nach so 2-3 Wochen ist man dann auch fertig und auf der sicheren Seite.
 
Zuletzt bearbeitet:
Für mich ist OCen keine Alternative. Da wie hier ausführlich erörtert wurde, es eine zusätzliche Fehlerquelle ist. Zudem sind CAE Programm um einiges empfindlicher was Rechenfehler angeht als ein Renderprogramm.
es kam schon vor, das die Anwendung wegen eines Rechenfehlers abgeschmiert. Die Stabilität ist nicht nur im Bezug auf die Rechenzeit wichtig. Es müssen auch Termin eingehalten werden, zum Beispiel für Meetings etc. weshalb man sich auf sein System verlassen können muss. Alles andere wäre Selbstmord. Deshalb sollte auch unbedingt EEC Ram eingesetzt werden. Gibt es überhaupt i7 die ECC unterstüzten?

Ich werde beim Support anfragen, ob sie für mich einen Test laufen lassen können. Deren Rechner ist ungefähr doppelt so schnell wie meiner, wenn man davon ausgeht, dass die Geschwindigkeit linear mit der Knotenanzahl skaliert.

---------- Post added at 19:43 ---------- Previous post was at 19:36 ----------

Außerdem wird nicht immer nur ein Projekt gerechnet. Es gibt auch die Möglichkeit mehrere Projekte parallel anstatt sequentiel abzuarbeiten. Zur Zeit macht das keinen Sinn, da die Zeit linear nach unten skaliert. Mit einem Multi Prozessorsystem sollte dass dann keine Probleme machen oder? Dann wäre ich bei der Berechnung nicht schneller könnte aber ohne Nachteil parallelisieren?
 
*gähn* Eine tolle Argumentation hast du da. Server kochen auch nur mit Wasser und bestehen oft aus der gleichen Hardware, die auch in "normalen PCs" steckt, sind aber evtl. anders validiert.
Mein popeliger PC rendert oft tagelang unter Volllast durch und läuft einfach, trotz OC. Was anderes kann ich mir auch garnicht leisten, und blue screens schon garnicht.

In meinem PC steckt weder ein XEON noch ECC Speicher, um nur 2 Unterschiede aufzuzeigen.
Sicherlich kann mein uebertakteter 3820 ner verlgeichbaren oder gar ueberlegenen XEON-Maschine performance-maeßig die Stirn bieten.
Trotzdem wuerde ich nicht dran denken meine Muehle ins RZ zu stellen um produktive Taetigkeiten damit aus zu ueben.

Aber lassen wir das, geht hier im Thread ja nicht um PCs <> Server.

Grueße
 
schade das wir niemanden kennen der diese cpu 2 x im betrieb hat
AMD Opteron 6344
 
schade das wir niemanden kennen der diese cpu 2 x im betrieb hat
AMD Opteron 6344

Jo, damit wären wir jetzt wieder bei den Systemen von Seite 1. Da hatten wir ja schon ne kleine Konfig damit.

Damit sind wir jetzt nach 3 Seiten auch nicht schlauer :(

Was man machne kann:

2x 12c Opteron / 24 Threads@2,6 GHz; Vorteil: Billig ~1.400
2x 16c Opteron / 32 Threads@2,3 GHz; relativ teuer, 2.000 Euro

2x Xeon 6c /24 Threads@2,3 GHz; Vorteil: Nur 2 NUMA Nodes, 1.800 Euro
1x Xeon 8c / 16 Threads@2,6 GHz; Vorteil: Aufrüstbar mit ner zweiten CPU, Nachteil: Teuer und ohne 2. CPU erstmal langsamer. Preis: Ca. 2000 Euro.

Ich glaub im Moment wär echt das Xeon 2P 6c System am besten. Grund ist die Aufrüstbarkeit, für die gleiche Plattform kommen ja noch Ivy-E mit bis zu 10 oder gar 12 Kernen. Da hat man dann mit 2 Nodes 20 oder 24 Kerne, also 40/48 Threads, da geht dann die Post ab. Wobei die dann aber auch sicher urteuer werden würde.

Der Aufrüstgedanke spricht auch gegen das vorläufige Singlesetup mit dem 8core, eine Mischbestückung mit einem Ivy und einem Sandy geht sicherlich nicht.

Edit:
Nehmen wir mal die SpecFP-RAte-Werte als Vergleichskriterium, da wir nichts besseres haben und die CAE-Sachen sicher FP-lastig sind. Nach dem Test hier:
CPU-Test: AMD Opteron 6380 mit 16 Kernen - Server-Prozessor mit Piledriver-Architektur | TecChannel.de

Ist bei der SSE3-Version ein 2P 16c Opteron System mit 32 Threads / 2,5 Ghz in etwa so schnell wie ein 2P 6c Xeon System mit ebenfalls 2,5 Ghz. Dabei ist das Intel Sys aber günstiger. Der Xeon kostet ~800 Euro, der Opteron knapp 1000. Zusätzlich dann noch der Aufrüstbonus .. da muss man dann den Xeon nehmen.

Bei der Frage, wieviel der schneller ist, machen wir mal wieder die Milchmädchenrechnung und blenden jeglichen Scalingverlust aus.
Aktuell:
3,5 Ghz und 8 Threads -> 28 GHzthreads

2P 6core System:
2,5 Ghz und 24 Threads -> 60 Ghzthreads

Das heißt, das System ist bestenfalls ca. doppelt so schnell. Wieviel man durch das 2P Setup verliert ... kA. Allzuviel wirds aber schon nicht sein. Eventuell gewinnt man noch was durch die deutlich gestiegene Speicherbandbreite. Da ist noch ein Extraplus drin. Ist ja Dual-Channel vs. Octa-Channel ^^

---------- Post added at 22:57 ---------- Previous post was at 22:06 ----------

So sähe das dann beispielsweise aus:
Knapp drüber. Eventuell könnte man noch beim RAM sparen, aber ich woltle RAMs aus der offiziellen Kompatibilitätsliste nehmen und da findet man nicht soviele, die 8GB Module waren die ersten. 4GB Module sind oft auch nur 10 Euro billiger, ingesagt also nur ~100 Euro, das rentiert sich nicht. Aber ich will nicht ausschießen, dass es da noch welche gibt. Das Board hat noch 3 PCIe 16 Slots, falls man mal GPUs nachrüsten will ansonsten sind die 2 Sockel weit voneinander weg, sodass die Kühlung kein Problem sein sollte. Weiss aber nicht, in welches Gehäuse sowas passt. Sowas eventuell:

Enermax Fulmo GT (ECA1092AG-BL) Preisvergleich | Geizhals Deutschland

?

Aber vielleicht ist ja schon was passendes vor Ort. Kühlung und NT wären dann die nächsten Sachen.

Falls gespart werden soll dann 200 MHz und 200 Euro weniger und nen E5-2630, spart zusammen dann 400 Mhz, "GHzthread-Rating": 55,2, ist nicht soooviel schlechter, naja um die 10% halt:


Oder die Zusammenstellung von AndreasPr von Seite 1
http://www.hardwareluxx.de/community/f11/dual-xeons-oder-i7-928501.html#post19814384

Sein Board schaut noch besser aus (PCIe Steckplätze ohne Ende ^^).
 
Zuletzt bearbeitet:
Gibt es überhaupt i7 die ECC unterstüzten?
Für Desktop/Server Systeme gilt bei Intel: mehr als zwei Cores und ECC geht nur mit Xeons.
Mit einem Multi Prozessorsystem sollte dass dann keine Probleme machen oder? Dann wäre ich bei der Berechnung nicht schneller könnte aber ohne Nachteil parallelisieren?
Sinnvoll ist es pro NUMA-Knoten eine Rechnung laufen zu lassen, dann stören sich die Rechnungen am wenigsten.
 
Na wenn das so wäre, wozu bräuchtest Du dann die NUMA-Unterstützung?
Ich kann mich noch an ne BIOS Einstellung bei Opteronboards erinnern, die "Node interleave" hieß. Das war das Gegenteil von NUMA. Da wurde der Hauptspeicher zwischen den Nodes scheibchenweise aufgeteilt, quasi wie bei nem RAID0.

Das wird genau dann interessant, wenn ein Programm so viele Threads benutzt, das eben mehrere NUMA Nodes eingespannt sein müssen (beim Intel System eben mehr wie 12)
Genau dann ist nämlich die Gefahr sehr hoch, wenn das Programm selbst sich nicht auf NUMA Nodes versteht, das es CPU Übergreifende querzugriffe auf den Speicher gibt. Heist Thread 1 ausgeführt von CPU 1 greift auf den Speicher hängend an CPU 2 zu.
Ebenso kommt dieses Verhalten zum Tragen, wenn das Programm im ganzen eben mehr RAM benutzt, als jeweils an einem NUMA Node jeweils hängt.

Bei AMD kommt an der Sache leider erschwerend hinzu, das die G34 Opterons nur 2x Dualchannel Speicherinterface nutzen. Sprich die Speicherbandbreite pro NUMA Node ist ebenso deutlich geringer (kann ausschlaggebend sein, muss aber nicht)

Um die Sache zu umgehen, kann man einerseits die Threads festpinnen. Oder eben, das Programm versteht sich auf NUMA Nodes. Beispiel VMware ESXi Server, die können das händeln. Optimalerweise wird ESXi seitig dort dann auch der Speicherbereich physisch über den Speichercontroller der CPU geschleußt, wo auch die virtuellen CPUs physisch liegen. Hast du also sagen wir 8GB physisch pro CPU an RAM bei nem zwei Prozessor System, so läuft eine 4GB VM genau auf einer CPU. Würde sich ESXi nicht auf NUMA Nodes verstehen, könnte es dir passieren, das ein Teil des RAMs über CPU 1 und ein Teil über CPU 2 gehändelt wird. Je nachdem, wie gut/schlecht die Software in der VM mit Speicherbandbreite skaliert, wäre die Leistung ungleich schlechter.


Zum eigentlichen Thema, wenn der TE sagt, es besteht sogar der Bedarf, mehrere Projekte gleichzeitig rechen zu lassen, würde das NUMA Node Problem zumindest bei zwei gleichzeitigen Projekten von einem Dual Intel System gänzlich unter den Tisch fallen, sofern er jeweils 12 Threads auf jeweils eine CPU pinnt. Bei einem AMD System wären zumindest um dort auszuschließen vier Projekte nötig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh