Work/Gaming Server -- Aufbau und Planung

Der E3-1230 entspricht am ehesten einem i5-2500 mit 100 MHz reduziertem Takt. Gestrichen wurde der IGP, dafür kommen 2 MB L3 Cache dazu.
Der i7-2600k hat aber ebenso HT wie der Xeon, dafür aber wieder einen IGP, was die Grafikkarte spart, und einen offenen Multi für etwas mehr Dampf, falls notwendig.
Das man durch OC nur "marginal" gewinnt ist ja wohl eher nicht ernst gemeint, oder? Klar, wenn man nur marginal übertaktet, DANN gewinnt man auch nur marginal.
Bezüglich Wärmeabgabe und besonders Lebensdauer muss man sich absolut keine Gedanken machen.
Ich sehe für diese Anwendungen auch eher normale Desktophardware als Serverkomponenten.
Was der TE hier sucht ist kein Server, sondern eine Kiste zum rumspielen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei den Xeons kriegt man für ca. 5€ Aufpreis auch die integrierte Grafik (1235,1245...). Ich benutze bei meinem 1245 die integrierte Grafik.
Um die Lebensdauer muss man sich beim OC kaum Gedanken machen, aber um die Betriebssicherheit und den Verbrauch.
 
Der i7-2600k hat aber ebenso HT wie der Xeon, dafür aber wieder einen IGP, was die Grafikkarte spart, und einen offenen Multi für etwas mehr Dampf, falls notwendig.
Ein Serverboard hat ohnehin einen VGA-Chip und IPMI integriert, der IGP ist also überflüssig.
Das man durch OC nur "marginal" gewinnt ist ja wohl eher nicht ernst gemeint, oder?
Doch! Wenn man von 3,4 auf 4,0 GHz übertaktet, wären das gerade mal 18%. Selbst wenn man von 3,4 auf 4,5 übetaktet sind das nur 32%. Selbst von 3,4 auf 5,0 GHz sind das nur 47% - effektiv sind es eh weniger. Solange man keine Spiele zockt ist das alles vernachlässigbar, und der Aufwand ist den minimalen Nutzen nicht wert - zumal man die Hardware massivst außerhalb der Spezifikation betreiben muß. Es mag hier in einem Gamerforum schmerzen, aber OC ist mehr oder minder ein virtueller Potenzvergleich. Für jeden Computer den man wirklich 24*365 betrieben will - auch für private Zwecke - verbietet sich das von selbst.

P.S. Ich mache HPC, und selbst dabei sind 30% Unterschied meist nicht den Aufwand wert, den man betreiben muß. Man sorgt sich dort um bessere Algorithmen und effektive Parallelisierung, dann reden wir ganz schnell über Zehnerpotenzen an Laufzeitunterschied.

---------- Beitrag hinzugefügt um 17:51 ---------- Vorheriger Beitrag war um 17:40 ----------

@ jdl
sehr richtig. Und wer kein IPMI braucht, kann auch an ein C206 Board denken - ich hab ein ASUS P8B WS in Betrieb mit Xeon E3-1245 und ECC RAM.
Ich hatte mich wegen der Graphiktreiberproblematik unter Linux gegen den E3 1245 entschieden und mir das ASUS P8B WS mit E3 1240 und dedizierter Graphikkarte gekauft. Ich bin damit sehr zufrieden. Als Server würde ich trotzdem zu einem C202 bzw. C204 Board greifen ggf. sogar mit einem E3 1220.
 
Zuletzt bearbeitet:
Ich kann hier Kullberg nur zustimmen. Ich habe einen Server umgerüstet von Dual E5520 auf einen Single E3-1235 (mit Grafik) auf einem Asus P8B WS (C206). Seitdem bin ich von Leistung und vorallem Stromverbrauch der neuen CPUs/Chipsätze sehr angetan.
 
@jdl:
Das schon erwähnte Asus P8B WS hat aber schonmal keinen IGP, ist soweit ich das sehe aber auch das einzige!

Meiner Meinung nach verkennst du hier die Lage. Es geht nicht um HPC und auch nicht um eine nur im Ansatz professionelle Anwendung.
Zunächst einmal muss man den 2600k garnicht übertakten, er ist auch so schon so schnell wie der Xeon. Wenn man aber will oder Bedarf hat, dann kann man. Im Gegensatz zu professionellen Komponenten spart man sich aber einiges an Kosten.
Wenn man den Xeon an die Grenzen belastet hat man keine große Auswahl mehr bezüglich seiner Möglichkeiten.
Wenn man ein Dual CPU Board gekauft hat, und das vllt. zu Beginn nur mit einer CPU betreibt, dann könnte man für relativ viel Geld eine zweite CPU nachschieben, deren Sinn aber von der Menge der geöffneten Threads abhängt.
Im Gegensatz dazu skalieren die Anwendungen mit CPU-Takt aber erstmal weiter.
Und 32% mehr Takt sind dann nunmal 32% mehr Takt, dass ist erstmal besser als garnichts.
Natürlich gilt das alles unter der Vorraussetzung, dass man den 2600k erstmal voll auslastet, was man ja erstmal schaffen muss und dann auch über einen langen Zeitraum, damit sich solche Überlegungen überhaupt lohnen.
 
@jdl:
Das schon erwähnte Asus P8B WS hat aber schonmal keinen IGP, ist soweit ich das sehe aber auch das einzige!
Irgend was bringst Du gerade durcheinander. Das ASUS P8B WS ist das einzige Mainboard, daß Xeons mit IGP unterstützt. Es gibt noch Workstations von HP und Dell mit C206 Chipsatz, aber einzelne Boards sind mir sonst nicht bekannt. Alle Boards mit C202 oder C204 haben spezielle Graphikchips integriert mit VGA Ausgang und dazu IPMI.

Zunächst einmal muss man den 2600k garnicht übertakten, er ist auch so schon so schnell wie der Xeon.
Ein 2600k ist in Relation zu einem Xeon E3 1220 lediglich 0,3GHz schneller getaktet, er hat HT, er kann nicht alle Virtualisierungsoptionen und er ist vor allem deutlich teurer (d.h. 80-90EUR). Wenn man unbedingt HT will, dann kann man zum Xeon E3 1230 greifen, da reduziert sich aber der Preisvorteil. Den großen Cache hat auch schon der E3 1220. IGP braucht man in den C202 oder C204 Boards ohnehin nicht.

Was das Übertakten betrifft, das wird maßlos überschätzt. Die z.B. 32% sind ein theoretischer Maximalwert, den kein System jemals bei echtem Workload erreichen wird. Wie lange ein übertakteter i7 2600k hält weiß wohl nur Intel, und die haben kein Interesse das zu publizieren, denn im Zweifelsfall kaufen sich die OCler halt eine neue CPU - gut für Intel. Damit man überhaupt OC kann, muß man aufwendiger kühlen, das Gehäuse muß entsprechend gekühlt werden etc. pp. hohe Mehrkosten für einen extrem geringen Mehrwert, dazu erkauft man sich das ganze mit der Gefahr eines Instabilen Systems, das etwa bei sommerlichen Temperaturen oder hoher Systemlast unerwartet nicht mehr so funktioniert wie es sollte.
 
Deswegen ist es ja das einzige, weils das einzige mit C206 ist! :)

Andersrum wird ein Schuh draus, denn was machst du, wenn du den 2600k auslastest und mehr Leistung benötigst, aber nicht mehr Threads erzeugen kannst, weil die Programme das nicht liefern und du selbst keinen Einfluss darauf hast?
Da bleibt nur OC und entsprechende Programme werden auch relativ gut damit skalieren. 100% Takt in Performance umzuwandeln geht natürlich nicht immer, aber das fordert ja auch keiner.
Bis zu dem Punkt, wo Xeon und i7 am Anschlag laufen haben wir absolut keinen Unterschied in dieser Situation. Mit dem Xeon bist du dann relativ gekniffen, mit dem i7 hast du immerhin noch eine Option. Das ist die Wahl zwischen "Leb damit" und "Lass es uns doch versuchen".
Das du die Stabilität gefährdest ist ja hier echt wurscht. Zunächst passiert das nicht, wenn man weiß was man tut. Und darüber hinaus kann ich es nur wiederholen. Es handelt sich um eine Spielekiste und keinen ernsthaft betriebenen Server.
Die Mehrkosten gegenüber dem Mehrwert stehen in einem deutlich besseren Verhältnis als im Szenario mit dem Xeon, wo du eigentlich nur die Chance auf garkeinen Mehrwert hast, der dann natürlich auch nichts kostet. Das bringt dich aber nicht weiter.

Sobald es sich hier um ein kritisches System handelt bin ich sofort bei dir. Dann müsste man sich noch über andere Dinge unterhalten wie redundante Netzteile und NICs, um entsprechenden Support und einen zweiten Server zum clustern falls sich im ersten das Board verabschiedet.
Ist aber hier nicht der Fall.
 
Andersrum wird ein Schuh draus, denn was machst du, wenn du den 2600k auslastest und mehr Leistung benötigst, aber nicht mehr Threads erzeugen kannst, weil die Programme das nicht liefern und du selbst keinen Einfluss darauf hast?
Wie wäre es mit warten? Zumal Du ja immer wieder betonst es sei eine Spielekiste, da geht das problemlos.
Die Mehrkosten gegenüber dem Mehrwert stehen in einem deutlich besseren Verhältnis als im Szenario mit dem Xeon, wo du eigentlich nur die Chance auf gar keinen Mehrwert hast, der dann natürlich auch nichts kostet.
Extrem merkwürdige Betrachtungsweise: Für ca. 100% Aufpreis (Kosten für einen E3 1220 mit Serienkühler in Relation zu i7 2600k mit Hochleistungskühler) bekommt man unsichere 35% Mehrleistung, da setzt jemand sehr effektiv das Geld ein.
 
So, wir haben uns jetzt entschieden erstmal die neuen Prozessoren abzuwarten. Für den Minecraftserver bauen wir nen kleinen Pc mit Single- oder etwas Glück Dualcore(Stichwort UCC). Wenn es dann soweit ist, und wir nen größeren Server kaufen, läuft auf dem kleinen dann der Fileserver. Wir danken euch für die Hilfe und die vielen guten Ratschläge und werden uns, wenn es soweit ist nochmal melden:wink:
 
Ich glaube dann belassens wir dabei jdl. Ich bin definitiv anderer Meinung.
Zumal siosio ja jetzt sowieso warten will könnte sich bis es wieder akut wird sowieso alles geändert haben.
 
da der TE sich hier nicht mehr meldet, hat es sich entweder erledigt, oder es war eh nur doofes gelaber.

Von einigen selbsternannten Experten hier aus dem Forum ( jdl z.B. ) von welchen wir noch nichts gesehn haben war es wohl nur "Gelaber" und andere haben die Mühe verschwendet.
Der TE war wohl nur ein "Kiddie" was mal "rumfragen" wollte...
Immerhin war seine Usage von Grammatik und Rechtsschreibung besser als meine :d

MAFRI
 
Was das Übertakten betrifft, das wird maßlos überschätzt. Die z.B. 32% sind ein theoretischer Maximalwert, den kein System jemals bei echtem Workload erreichen wird. Wie lange ein übertakteter i7 2600k hält weiß wohl nur Intel, und die haben kein Interesse das zu publizieren, denn im Zweifelsfall kaufen sich die OCler halt eine neue CPU - gut für Intel. Damit man überhaupt OC kann, muß man aufwendiger kühlen, das Gehäuse muß entsprechend gekühlt werden etc. pp. hohe Mehrkosten für einen extrem geringen Mehrwert, dazu erkauft man sich das ganze mit der Gefahr eines Instabilen Systems, das etwa bei sommerlichen Temperaturen oder hoher Systemlast unerwartet nicht mehr so funktioniert wie es sollte.

Wo ist eigentlich dein Problem?
Wenn du mehr Leistung brauchst, dann legst du mehr Takt drauf...
Des weiteren ist OC mittlerweile so weit anerkannt, das selbst die Serien CPUs sich anhand Thermischer Messwerte selbst OCen und somit ihre Leistung steigern (Stichwort Turbo)

Sich hinzustellen und zu behaupten, OC wäre instabil ist völlig daneben, Man kann wenn man möchte auch mit 4500MHz+ ein stabiles System bekommen.
Des weiteren hinken deine Vergleiche...
Wenn ich eine CPU habe, die (im Falle des 2600K) beim Rendern zum Beispiel (so schrieb der TE) am Anschlag läuft, dann hilft nur mehr Takt oder mehr Cores.
Von einem E3 1220 Xeon zu einem 2600K@4500MHz sind es mal locker flockig 45% Taktunterschied. Das heist, auch annähernd 45% mehr Leistung wenn mindestens ein Core voll ausgelastet wird.
SMT bringt dazu noch bis zu 20% (beim Rendern zumindest)

Wenn dir der Leistungsunterschied zu gering ist, bitte... Aber der TE bzw. andere denken da vllt anders.

Übrigens, zum Thema Preis. Nimmt man halt anstatt dem 2600K den 2500K, verzichtet auf SMT, kommt mit ca. 170€ weg. Und hat obendrei gar noch etwas mehr Taktspielraum obenraus...
 
Fürs Videotranscodierung würde ein 2600K auch besser passen als ein 2500K oder? Ich kann mir vorstellen, das SMT dort auch gut greifen wird!

Obwohl der 2600 besser ins Bild für einen Server passt (VT-d, TXT, etc.), wenn man nicht übertakten möchte. Wie du ja schon sagtest tut die CPU das ja auch bereits selbst!

Obwohl das ehr weniger mit Profi Hardware zu tun hat ..!
 
VT-D brauch es aber nur, wenn er virtulalisieren will... Bei aktuell genannten Aufgabengebiet ist das nicht der Fall.

Ansonsten kommt es halt auf die Anwendungen an, ob diese mit acht Threads klar kommen. Können acht Threads genutzt werden, so wird idR auch SMT seine groben 20% Mehrleistung bringen.
 
Wo ist eigentlich dein Problem?
Das man hier der Meinung ist selbst im Unterforum für "Server/Workstation Profibereich" den Nutzer OC aufschwatzen zu müssen.
Wenn du mehr Leistung brauchst, dann legst du mehr Takt drauf...
Wenn ich mehr Leistung brauche, dann erhöhe ich garantiert nicht den Takt einer CPU, denn das hat bei der Art von Software die ich nutze und bei der ich viel Leistung benötige gar keinen Sinn, dazu parallelisiert diese viel zu gut. Die Software ist für HPC Cluster geschrieben und läuft mit MPI+OpenMP, sie skaliert bei Bedarf auf einige hundert Cores. Was ich privat mache ist vorallem Testen von Algorithmen und somit Beispielrechnungen, daß ist vollkommen zeitunkritisch. Trotzdem ist wichtig, daß die Ergebnisse stimmen, damit ich sehe, ob die Algorithmen funktionieren wie sie sollen. Für große Rechnungen reicht ein Server/PC (eine IBM Regatta wäre die Ausnahme) ohnehin nicht aus.

Des weiteren ist OC mittlerweile so weit anerkannt, das selbst die Serien CPUs sich anhand Thermischer Messwerte selbst OCen und somit ihre Leistung steigern (Stichwort Turbo)
OC bedeutet, daß man die CPUs außerhalb der Spezifikation betreibt. Bei den Xeons der 5600 Serie gab/gibt es spezielle ausgewählte Exemplare für OEMs: z.B. Xeon 5698, 2 Kerne, 4,4GHz, 40°C Tcase. Daran sieht man, daß die Erhöhung der Taktfrequenzen alles andere als eine Trivialität ist. Zudem würde Intel sofort Xeons mit extra großen Aufpreis verkaufen, wenn diese CPUs dauerhaft einen hohen Takt vertragen würden.
Sich hinzustellen und zu behaupten, OC wäre instabil ist völlig daneben, Man kann wenn man möchte auch mit 4500MHz+ ein stabiles System bekommen.
Und wie lange hast Du das System unter Vollast getestet? Eine Stunde, einen Tag, eine Woche oder einen Monat? Die Sandy Bridges sind noch gar nicht so lange am Markt (knapp 6 Monate), als daß man hier eine vernünftige Aussage über die Lebensdauer beim OC treffen könnte. Nach ein paar Stunden kann man auch keine Aussage über Stabilität treffen. Zudem mit Rendern kann man die Stabilität kaum testen, da fallen Fehler beim Rechnen mit hoher Wahrscheinlichkeit gar nicht auf.

Des weiteren hinken deine Vergleiche...
Wenn ich eine CPU habe, die (im Falle des 2600K) beim Rendern zum Beispiel (so schrieb der TE) am Anschlag läuft, dann hilft nur mehr Takt oder mehr Cores.
Rendern ist trivial parallelisierbar, da braucht man keinen großen Aufwand betreiben, um mit zusätzlichen Computern die Renderleistung nahezu beliebig steigern zu können. Ein billiges i5 System ohne Festplatte kostet nicht viel und beschleunigt die Rechnung um nahezu 100%.
Von einem E3 1220 Xeon zu einem 2600K@4500MHz sind es mal locker flockig 45% Taktunterschied. Das heist, auch annähernd 45% mehr Leistung wenn mindestens ein Core voll ausgelastet wird.
Das funktioniert nur dann, wenn der Code im Cache läuft, sobald man den Arbeitsspeicher benötigt, läuft es auf beiden Systemen nahezu gleich schnell, denn hier zählt nur noch die IO-Bandbreite der CPU und diese skaliert nicht mit dem Takt. Nicht ohne Grund sind moderne Multiprozessorsysteme ccNUMA Systeme.
 
Anwendung!=Anwendung.

Wir reden hier
1. nicht von einem Produtivsystem
2. nicht von einem Cruncher

Ein Produktivsystem hat durchaus die Aufgabe richtig lange zu laufen und dabei seine Aufgabe bis zum Schluß zufriedendstellend zu machen.
Das sind mitunter bis zu 10Jahre. CPUs halten, entsprechend den SPECs das auch locker aus und noch viel mehr.

Wenn man aber von einem Homeserver ausgeht und dieser hier ist einer, dann ist es nicht immer sinnvoll einen extremen Aufpreis in multi CPU Systeme zu investieren. Da ist es der einfacherer Weg, mal eben den Takt anzuziehen und damit zu arbeiten. Nach 3 Jahren wird das System eh durch was Neues ersetzt. Da ist es dann egal, ob die CPU nun 20 oder 10 Jahre Lebensdauer hat, denn das wird diese hier nicht sehen.
Einfache Kosten - Nutzenrechnung.

Wir sind hier bestimmt die letzten die einfach mal so nen OC empfehlen. Wenn du dir mal alle Threads der vergangen Jahre anschauen würdest, dann würde das
Das man hier der Meinung ist selbst im Unterforum für "Server/Workstation Profibereich" den Nutzer OC aufschwatzen zu müssen.
nicht kommen.

Man muß hier einfach mal dir Kirche im Dorf lassen.
Klar könnte man alles mit einem 8way System und 8GB Modulen totmachen, aber ist das sinnvoll? (soll auch Anwendungen geben, die alle Kerne über 4 garnicht interessieren, da zählt dann nur Takt, klar ist das kein Renderer, aber das war auch nicht die Fragestellung)

Wie gesagt, wenn es um Produktivsysteme geht, sind wir die letzen, die hier ein OC und anderen Krimskram vorschlagen würden, aber in einem solchen Fall wie hier....

Wir haben hier keinen Fall von Produktivserver, HPC-Cluster, produkive Renderingmachine, was weiß ich .
Wir haben hier "kleine Jungs", die hier nach einer Serverconfig für einen lumpigen Gameingserver anfragen, nichts weiter.

Da muß man einfach mal knall hart differenzieren und kann hier nicht einfach so nen 8way Toaster ansetzen.

(und wenn einer zu Hause rendert, dann kann es auch sinnvoll sein, dass er OC betreibt, weil es eben Kosten spart und der Nutzen dennoch da ist)

Merke: Nicht anhand einer Momentaufnahmen pauschalisieren, denn SOWAS ist wir HIER nun wirklich NICHT notwendig.
 
Zuletzt bearbeitet:
Das man hier der Meinung ist selbst im Unterforum für "Server/Workstation Profibereich" den Nutzer OC aufschwatzen zu müssen.

Wenn ich mehr Leistung brauche, dann erhöhe ich garantiert nicht den Takt einer CPU, denn das hat bei der Art von Software die ich nutze und bei der ich viel Leistung benötige gar keinen Sinn, dazu parallelisiert diese viel zu gut. Die Software ist für HPC Cluster geschrieben und läuft mit MPI+OpenMP, sie skaliert bei Bedarf auf einige hundert Cores. Was ich privat mache ist vorallem Testen von Algorithmen und somit Beispielrechnungen, daß ist vollkommen zeitunkritisch. Trotzdem ist wichtig, daß die Ergebnisse stimmen, damit ich sehe, ob die Algorithmen funktionieren wie sie sollen. Für große Rechnungen reicht ein Server/PC (eine IBM Regatta wäre die Ausnahme) ohnehin nicht aus.

Du verkennst die Lage... Erstens bewegen wir uns hier im Homeserver Bereich. Zweitens wie schon x mal angesprochen geht es hier in keinster Weise um ein Produktiv System. Drittens begehst du permanent den Fehler deine Auffassung und deine Anwendungsszenarien dem TE aufdrücken zu wollen...
Nochmal, er hat nix mit HPC und Produktiveinsatz am Hut...


OC bedeutet, daß man die CPUs außerhalb der Spezifikation betreibt. Bei den Xeons der 5600 Serie gab/gibt es spezielle ausgewählte Exemplare für OEMs: z.B. Xeon 5698, 2 Kerne, 4,4GHz, 40°C Tcase. Daran sieht man, daß die Erhöhung der Taktfrequenzen alles andere als eine Trivialität ist. Zudem würde Intel sofort Xeons mit extra großen Aufpreis verkaufen, wenn diese CPUs dauerhaft einen hohen Takt vertragen würden.
Das ändert nix an der Tatsache, das durch den Turbo Modus aktueller Xeons sowie Hexacore AMDs (und auch der kommenden Bulldozer Modelle) die CPU werksseitig Übertaktet wird, inkl. erhöhter Spannung...

Und nein, Intel würde bestimmt nicht schnellere Modelle auf den Markt bringen. Wozu auch? Die aktuellen Hexacore Xeons sind die schnellsten CPUs am Markt in ihrem Bereich. Es würde keinen Effekt bringen hier auf biegen und brechen mehr Leistung zu wollen.
Wie sich Intel verhält, wenn AMD in Form des Bulldozers ernsthafte Konkurenz bringt, wird sich zeigen... Das man dann womöglich alles an Takt rauskitzelt, was irgendwie geht, sieht man aktuell an den Desktop Phenoms sowie damals zu Netburst P4 Zeiten an Intel.

Und wie lange hast Du das System unter Vollast getestet? Eine Stunde, einen Tag, eine Woche oder einen Monat? Die Sandy Bridges sind noch gar nicht so lange am Markt (knapp 6 Monate), als daß man hier eine vernünftige Aussage über die Lebensdauer beim OC treffen könnte. Nach ein paar Stunden kann man auch keine Aussage über Stabilität treffen. Zudem mit Rendern kann man die Stabilität kaum testen, da fallen Fehler beim Rechnen mit hoher Wahrscheinlichkeit gar nicht auf.
Wie lange ich mein System teste, spielt dabei keine Rolle...
Es geht darum, was der TE will. Und wenn bei einem Rendervorgang 10h braucht und inkl. OC eben 45% weniger Zeit braucht, so kann er für sich selbst testen, wie er sein System einstellen muss, damit es für seine Zwecke reicht...
Da keine CPU absolut Fehlerfrei ist, kann dir auch mit Standard Settings oder gar konservativen (also underclocking) Settings ein Rechenfehler passieren... Das ist eben der Punkt.
Es gilt hier abzuschätzen, was geht und was eben nicht...

Rendern ist trivial parallelisierbar, da braucht man keinen großen Aufwand betreiben, um mit zusätzlichen Computern die Renderleistung nahezu beliebig steigern zu können. Ein billiges i5 System ohne Festplatte kostet nicht viel und beschleunigt die Rechnung um nahezu 100%.
Das habe ich anfangs schon gesagt, anstatt einer dicken Dual/Quad Sockel Maschine kommt man mit mehreren kleinen Renderknoten deutlich günstiger weg... Aber auch hier sollte man die Lizenzkosten nicht außer acht lassen, je nach Software übertrumpfen die Lizenzkosten pro Renderclient die Hardware um ein vielfaches...

Das funktioniert nur dann, wenn der Code im Cache läuft, sobald man den Arbeitsspeicher benötigt, läuft es auf beiden Systemen nahezu gleich schnell, denn hier zählt nur noch die IO-Bandbreite der CPU und diese skaliert nicht mit dem Takt. Nicht ohne Grund sind moderne Multiprozessorsysteme ccNUMA Systeme.

Wenn nicht die CPU Leistung an sich zum Limit wird, bringen dir auch keine mehr Cores etwas... Das ist das Problem. Und nochmal, du schließt wieder von irgendwelchen HPC Aufgaben auf den TE, der einfach nur trivial ein paar Gameserver und ein bisschen Rendern will...
 
Zuletzt bearbeitet:
Das weis ich... Da wir aber quasi (von den ersten Beiträgen mal abgesehen) über Desktop Hardware sprechen war das auch so richtig ;)
 
Das man hier der Meinung ist selbst im Unterforum für "Server/Workstation Profibereich" den Nutzer OC aufschwatzen zu müssen.

Das stimmt mMn. nichtmal. DAS ist nicht dein Problem.
Dein Problem ist, dass du IMMER NOCH davon ausgehst, dass es sich hier um eine Thematik dreht, bei der ein professioneller Serverbetrieb im Vordergrund steht, nur weil der TE, genau wie du, die Lage verkennt und den Thread ins falsche Forum stellt.
Dein ewiges HPC Geschwafel machts da auch nicht besser, denn die Anwendungen des TE skalieren mit Sicherheit nicht mit der Anzahl der Kerne.

Glaubst du ich renne in der Firma rum und fange an die Server zu übertakten, abgesehen davon, dass es garnicht möglich ist?
Mitnichten...

OC ist hier aber durchaus eine legitime Maßnahme zur Leistungssteigerung.
Wenn du das nicht einsehen kannst oder willst, dann muss ich leider sagen, dass du an dieser Stelle ziemlich inkompetent bist.
Denn zur Kompetenz gehört es auch über den Tellerrand hinaus Situationen entsprechend zu beurteilen und danach zu handeln. In diesem Fall würde das beudeten, eine Empfehlung abzugeben, die nicht in deinem täglichen Aufgabenfeld liegt, aus dem du versuchst die richtigen Maßnahme heraus abzuleiten.
HP hat vor einiger Zeit die Westmere-EX im DL580 G7 eingeführt und ich habe mich heute mal damit befasst zu schauen, inwiefern das in unser Portofolio passt bzw. wo man da profitieren kann bei der Umstellung der Standardsysteme.
Ich empfehle dem TE deswegen noch lange keinen DL580 G7, obwohl ich natürlich davon überzeugt bin, dass es sich um hochwertige und potente Hardware handelt. Und das mache ich deswegen nicht, weil jene professionelle Hardware hier komplett fehl am Platz ist. Daher lege ich hier auch nicht die Standards an, die ich an einen Server für den Betrieb in unseren Rechenzentren durchaus anlegen würde und muss!
 
so kiddies es reicht mal so langsam... ich bin zwar nix mod - aber dieser kindergarten, muss doch nicht im bereich mi den meinstens nur fähigen usern seien, wohin sich selten, aber wie nun bewiesen, alle jahre, ein troll hin verirrt...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh