Erste Details zu Intels 10-Kern-Serverprozessoren

Koksom

Enthusiast
Thread Starter
Mitglied seit
12.11.2007
Beiträge
355
<p><img style="float: left;" alt="intel3" src="images/stories/logos/intel3.jpg" width="100" height="100" />Erst kürzlich kamen die neuen Sandy-Bridge-Prozessoren in den Handel - <a target="_blank" href="index.php/news/hardware/prozessoren/17453-sandy-bridge-ab-heute-im-handel.html">wir berichteten</a> -, schon gibt es erste Details zu <a target="_blank" href="http://www.intel.com/">Intels</a> neuen Server-Prozessoren. Eine Liste mit Daten zu den unter dem Codenamen Westmere-EX bekannten 32nm-CPUs ist bei den Kollegen von <a target="_blank" href="http://www.cpu-world.com/news_2011/2011012402_Preliminary_specifications_of_Intel_Xeon_E7_microprocessors.html">CPU-World</a> aufgetaucht. Genauso wie die Desktop-Prozessoren Core i-2000, basieren die Xeon-E7 Prozessoren auf...<p><a href="/index.php?option=com_content&view=article&id=17632&catid=34&Itemid=99" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja aber 10kerne mit ht dual oder quad sockeln das sind dann 40 bzw 80 treads!
WAS GEHTN :)
 
Du hast ganz unten die Octo-Sockel übersehen.

8x
Xeon E7-8867L 10 2,13 GHz 30 MB 6,4 GT/s 105 Watt

bedeutet 80 Kerne, 160 Threads, 240MB Cache und wahrscheinlich ein 5 stelliger Preis
 
@Lee u. Lares

Bei hohen Takten sinkt die Effizienz (Rechenleistung pro Watt) und diese spielt bei den Servern (mittlerweile) eine nicht unbedeutende Rolle. Außerdem sind 105W-CPUs einfacher zu kühlen als die mit 180W (Multi-CPU-Server haben nur selten Platz für große Kühler), zumal man gleich bis zu 8 Stück davon auf dem Board sitzen hat.
Man packt also lieber ein paar CPUs mehr in die Kiste, anstatt an der Taktschraube zu drehen.
 
na so 2.8 ghz. wie die xeons vorher
Natürlich ist die verlustleistung ein problem aber wenn man die hoheren taktzahlen will kann man die auch kühlen weil wenn die so 3.2 wie die aktuellen desktop cpu´s laufen dann sind dass bei 10 kernen gute 2.5 ghz die verloren gehen nur die frage wie viel watt die dann ziehen würden warscheins lohnt es sich net sonst würden sie es machen.
 
Das sind ja MP CPUs. Da geht mit unter um maximale Rechenpower/Volumeneinheit.
Dass die CPUs so niedrig getaktet sind hängt wohl eher damit zusammen, dass man solche Abwärme nicht mehr schnell genug von der CPU wegbekommt, das die HotSpots viel zu klein sind. Das ist der Tribut den man an die Zuverlässigkeit der Server zahlen muß.

Und die GreenIT ist zwar ein wichtiger Fakt, aber ob ich nun ne 2GHz 10Core CPU auf 1GHz runtertakte oder ne 2,5GHz CPU ist dabei nicht ausschlaggebend. GreenIT lebt ja davon, dass ich so viel wie möglich auf eine Maschine zusammenfasse und das geht am besten wenn ich so viel wie möglich Rechenpower in dieser Maschine auffahre.

AMD hatte btw mal vor langer langer Zeit auch scon octa socket maschines Tyan Transport VX50 (8x Opteron Sockel-F | heise online-Preisvergleich Das war übrigens zu der Zeit als Intel noch mit dem FSB rumgemacht hat und damit nicht in der Lage war die enorme Rechenleistung auch mit entsprechendne Datenströmen anzufahren.

So neu ist das also nicht. Eben nur die konsequente Weiterentwicklung, preislich liegen gerade die MP CPUs natürlich weit über dem, was man hier für gewöhnlich für gesamte quad SLI Highend Combos ausgibt. Mal zum gewöhnen Intel Xeon MP X7560, 8x 2.26GHz, Sockel-1567, boxed (BX80604X7560) | Geizhals.at Deutschland, in dem Preisrahmen werden sich auch die neuen MP CPUs bewegen.

Also eher weniger für die Consumer, falls doch, dann auf jeden Fall mal im Serverbereich vorstellig werden, da gibt es noch mehr verrückte. ^^

Und die Verlustleistung ist nicht so das Problem. Netzteiltechnisch aggieren Server schon länger im >2kW Bereich und was die Abwärme betrifft, dafür gibt es Lüfter die jenseits von 50dB mit der Arbeit beginnen. Wer mal in einem 18°C kalten Serverraum vor nem geclustern Rack gestanden und geschwitzt hat, der weiß was ich meine.
 
Zuletzt bearbeitet:
na so 2.8 ghz. wie die xeons vorher
Der Vorgänger, Nehalem-EX (Beckton), hatte aber nur 2,27 GHz. Wie kommst du auf 2,8 GHz?

Natürlich ist die verlustleistung ein problem aber wenn man die hoheren taktzahlen will kann man die auch kühlen weil wenn die so 3.2 wie die aktuellen desktop cpu´s laufen dann sind dass bei 10 kernen gute 2.5 ghz die verloren gehen
Das ist aber eine ziemliche Milchmädchenrechnung. Die CPUs hier haben auch einiges mehr an Logik als Desktop CPUs, zB mehr Interconnects und mehr Cache. Das braucht ebenfalls Strom.
 
Jop steht doch dort das es sich warschein net lohnt man les halt durch ich hab mich halt nur gewundet das die Cpu´s verkaufen unter 2 ghz mein gott dumm bin ich auch ent das ich net weiß das es um die kühlung geht ihr musst auch alles auf die goldwage legen
 
und wegen den 2.8 ghz les mal nach was ich geschrieben hab dann deine antwort und wenn du zu faul zum suchen bist dann kann ich dir net helfen aber ich las mich net als dumm darstellen
 
Die CPU´S sind ja eh etwas für die Firmen mit nem Intra-Net, so wie wir es auf Arbeit haben. Wer weiss denn schon was in 5 oder 10 jahren für Prozessoren in den Heim PC´S ihre Arbeit tun.
 
Für maximale Rechenleistung pro Platz ist das nix. Da fährt man denke ich wesentlich besser mit 2 normalen XeonEP Kisten pro HE. Sind 2 Systeme mit 2x6Cores pro HE also 24 Cores/HE mit anständigen Taktraten von bis zu 3.33GHz.
Geht man mal von 2HE für so eine 4 Sockel Kiste aus passen also entweder 40 2-2.4GHz Cores in den Platz oder 48 2,4-3,3 GHz Cores.
Nein Für HPC ist das nix. Allein weil die meisten Projekte auch irgendwo Geld als Limitierenden Faktor haben.

Für andere Anwendungsbereiche sieht die Rechnung anders aus.
Wenn die Aufgabe nicht geteilt werden kann z.B.
Für richtig dicke Datenbanken z.B. wären solche Kisten schon eher sinvoll. Voneinander unabhängige Workloads, die nahezu ideal skaliereren sollten und downtimes tun richtig weh. Wenns hochverfügbar werdern soll nimmt man halt 2 dieser kisten und konfiguriert failover für die Storage anbindung usw. halt alles Aufwand der bei 2 Kisten noch denkbar ist, bei mehr Servern wirds dann aber schnell kritisch.
Wenn man wirklich viel RAM benötigt sind diese Rechner natürlich auch eine nette Option.

AMDs 8 Sockel Kisten wurden eingestellt weil es probleme gab die CPUs untereinander ausreichend schnell zu vernetzen. Es gab meinei ich eh nur 2 Hersteller die da was passendes angeboten haben.
Bis 4 Sockel funktioniert das beim AMD noch erstaunlich gut. Wenn man bedenkt das jede CPU ihren eigenen Speichercontroller hat und Speichgerzugriffe halt öfter mal über fremde Sockel statfinden.
Allerdings ist auch bei Magny Core der einzelne Core etwas langsamer als man das von den EP-Xeons kennt. Aber immerhin hat man da nicht den hohen Preis wie bei den hier vorgestellten Intel CPUs.
Und es sind 48Kerne beim 4 Sockel System. Die in etwa das leisten was 24 Kerne aus 2 preiswerten Dualcoresystemen schaffen. Und es macht einen großen Unterschied ob man die gleiche Leistung von 24 oder 48 Cores abrufen kann, die meiste Software skaliert nicht linear.
 
80 Kerne mit 8 mal 10Kern cpu ;), krass find ich die TDP den die Dinger haben sicher mehr Power als son SB und verbrauchen dafür nur etwas mehr oder seh ich das falsch?
 
Ihr müsst mal weiter denken, so eine Kiste mit 8 CPUs wird nie als einfacher Server laufen, da kommt dann ein VM System drauf, bei 80 Kernen lässt man locker 40 -50 virtuelle Server laufen.
 
Wer mal in einem 18°C kalten Serverraum vor nem geclustern Rack gestanden und geschwitzt hat, der weiß was ich meine.

So sieht es aus. Und ohne Ohrenstöpsel hat man hinterher einen Tinitus ;)

das ist aber dann ein sehr ineffizientes Rechenzentrum. 18°C verbraucht viel zu viel Klimaleistung und wenn die Lüfter so laut sind das man die Stimme anheben muss zur Unterhaltung hat der Klimatechniker auch nicht aufgepasst und es wird sinnlos Strom verheizt für die Lüftung. So ein Rechenzentrum hat also nix mit GreenIT zu tun.
(ich stehe fast jeden Tag neben Racks wo bis zu 1000 Cores drin sind)



und was mir bei den neuen Xeons auffällt, dass hier keine einzige weniger als 100W TDP hat :eek:
hoffen wir dass die wenigstens im Idle dann so sparsam sind wie die i7-2600.
Weil bisher ist hier keiner wirklich interessant für ein "grünes" Rechenzentrum.

Denn was die meisten vergessen: viel CPU Power bringt nix, wenn die IO Leistung nicht hinter-herkommt. Auch ein 8GBit FC-SAN ist irgendwann am Limit und auch ein 10Gbit FCoE macht nicht viel mehr. Was sollen also 160Threads machen, wenn IOwait dauernd bei 100% ist.



bei 80 Kernen lässt man locker 40 -50 virtuelle Server laufen
eben nicht, zumidnest nicht wenn die VMs auch noch selbst IO-Last erzeugen. bei 50 VMs auf einem Server kommst du in Bereiche wo selbst ein SSD-RAID im 5-stelligen Preisbereich nicht mehr hinterher kommt. Rein CPU lastige VMs sind wohl denke eher selten.
 
Zuletzt bearbeitet:
Klar, wenn man alle Maschinen über ein Storage laufen lässt, wirds eng, da muss man dann schon mehrer nehmen, mit natürlich Fibrechannel anbindung, sonnst wird das nix.
 
Ihr müsst mal weiter denken, so eine Kiste mit 8 CPUs wird nie als einfacher Server laufen, da kommt dann ein VM System drauf, bei 80 Kernen lässt man locker 40 -50 virtuelle Server laufen.

Ja klar ...
gerade VMs für die es Systeme gibt die beim Ausfall eines Hosts ohne teure downtime die Vms einfach auf einer anderen Kiste hosten.
Wo CPU-Leistung sogut wie nie der limitierende Faktor ist.
Da gibt man doch gern das 4 fache aus um die Leistung von 2 getrennten Maschinen in einer zu haben...
 
und wegen den 2.8 ghz les mal nach was ich geschrieben
Was soll ich lesen? Du hast geschrieben, die vorherigen Xeons hätten 2,8 GHz gehabt. Und das ist nicht nur falsch, sondern völlig an den Haaren herbeigezogen. Die Nehalem-EX Xeons gingen nur bis 2,27 GHz.
 
Ich vermute mal eine Verwechslung mit den Nehalem EP Xeons für 2 Sockel, die es mit bis zu 3.3GHz gibt. 2.8Ghz waren da sicher auch mal eine der flottesten lieferbaren Varianten.
 
Selbst Nehalem-EP wurde mit 3,2 GHz gelaunched. Später kam dann noch ein Modell mit 3,33 GHz. Wie kommt er also auf 2,8 GHz? Ergibt für mich Null Sinn.
 
Denn was die meisten vergessen: viel CPU Power bringt nix, wenn die IO Leistung nicht hinter-herkommt. Auch ein 8GBit FC-SAN ist irgendwann am Limit und auch ein 10Gbit FCoE macht nicht viel mehr. Was sollen also 160Threads machen, wenn IOwait dauernd bei 100% ist.

Und warum sollte man das SAN mit nur einem Bein anbinden?
Bei FC ist freilich der "HBA" der limitierende Faktor...
Aber wie wäre es mit 10GBit NICs und NFS/iSCSI?
Das kannst du quasi so weit hoch skallieren, wie PCIe Ports vorhanden sind...

Mal ganz davon ab sind sequenzielle Datenraten sogut wie nie das Problem. Das Problem sind die Zugriffszeiten. Mit nem ordentlichen SAN als Background kommt man schon sehr sehr weit auch mit nur einem einzigen Dual Port FC 8GBit Adapter.

Und man sollte wohl eher diese Maschinen in Rechenzentren sehen, wo quasi verschiedene Dienste pro VM an Kunden verkauft werden. Da erzeugt erfahrungsgemäß nichts wirklich permanent Dauerlast in Sequenzieller Datenrate. Das sind idR punktuelle Lastspitzen...
Alternativ könnten solche Maschinen in riesigen Clusterumgebungen gut dastehen. Mit mehreren solcher vier/acht Sockel 10 Core Servern könnte man schon einen kleinen "Supercomputer" @ Home hinstellen für vergleichsweise wenig Geld.
 
Naja für das gleiche was ein paar solcher Kisten kosten kann man ein ganzes Rack mit dual Xeon EP Maschinen füllen un die untereinander noch mit Infiniband vernetzen. Preis/Leistungsmäßig fährt man da besser.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh