Intel Xeon Platinum 9200 als MCM-Design mit bis zu 56 Kernen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.151
intel-xeon-platinum.jpg
Um im HPC-Bereich die zunehmende Konkurrenz im Zaum zu halten, präsentiert Intel mit den Cascade-Lake-Xeons auch eine Multi-Chip-Variante, die als 9200-Serie eingeführt wird. AMD wird mit den EPYC-Prozessoren der 2. Generation bis zu 64 Kerne bieten und die Plattform als solches kann zudem ein Octa-Channel-Speicherinterface sowie 128 PCI-Express-Lanes bieten. Diese Punkte möchte Intel mit den Xeon Platinum 9200 adressieren.Da das aktuelle Design aber auf bis zu 28 Kerne pro Die ausgelegt ist, muss sich Intel einen Trick einfallen lassen, um die Anzahl der Kerne und das Angebot an Speicherkanälen sowie PCI-Express-Lanes zu erweitern....

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Inwiefern? Das es Cascade Lake-AP CPUs als MCM geben wir war seit November bekannt und wurde von Intel offiziell bestätigt.
 
Mit dieser absurd hohen TDP, werden die mit Rome wohl kaum konkurrieren können;)

Wieder ein Treffer von AdoredTV ;)

Was genau soll AdoredTV wenn wieder richtig vorhergesehen haben?
Wie Don schon richtig sagt, hat Intel das selbst schon alles so vor langer Zeit verkündet!
 
Faszinierend, da ist ja die Anzahl der CPU-Kerne schon höher als mein IQ :fresse:

Jedenfalls muss der Kleber von Intel gut sein. ;)
 
Jedenfalls muss der Kleber von Intel gut sein. ;)

AMDs Marketingabteilung sollte diesen Satz schlachten, bis es Intel wieder aus den Ohren rauskommt. Und das mit der "Zuverlässigkeit und Sicherheit" können die dann auch gleich mit in den Sack packen.

Intel ist im absoluten Panik-Modus und siehe da: Auf einmal ist Bewegung im Busch.
 
56 Kerne bei 350-400W
dazu noch das hier:
Das riesige Package, auf dem Intel zwei 28-Kern-Dies der Serie Cascade Lake-SP mit zwölf Speicherkanälen unterbringt, liegt nur im BGA-Format mit 5.903 Kontaktpunkten und minimalem Abstand von knapp einem Millimeter zwischen den Kontakten vor. Es muss also immer direkt mit dem Mainboard verlötet werden, was, wie Intel zugibt, den Support mitunter vor eine Herausforderung stellen wird. Denn ein CPU-Defekt in einem Dual-Sockel-System, für die die Lösung primär gedacht ist, zieht so schnell den kompletten Platinen- oder gar Serverwechsel nach sich.
 
56 Kerne bei 350-400W
dazu noch das hier:

Ein 8280L kostet knapp 18.000 US-Dollar. Entsprecht hoch dürfte der Preis für die Modelle der 9200 Serie sein. Intel baut die Boards mit den BGA-Chips drauf und tauscht im Zweifelsfall einfach alles aus. Ich würde aber auch davon ausgehen, dass Intel die Hardware in der Form testet, um Defekte so gut es geht auszuschließen. Das eine CPU einfach so stirbt, passiert ja nicht allzu oft. Eine gewisse Quote wird es über die Zeit aber geben, das stimmt.

- - - Updated - - -

Hier mal ein Vergleich der Package-Größen:

7E993174-C1B6-4CE2-B3B7-A25C8A053A9E.jpgC6C20E2F-E332-4265-A09F-2C087DA5255A.jpg
 
400W ist arg, die Leute drehten ja schon durch, als ich vor Monaten 350W in den Raum geworfen hatte.

Die CPU dient aber eh nur dazu, offiziell nicht Leistungsmässig hinter Rome zu fallen, der mit 180W TDP wohl etwas schneller als so ein 350W Xeon sein wird.
 
Es kommt halt immer darauf an, für welche Anwendung du die Hardware vorsiehst.

12 Speicherkanäle können ein Argument für CLX-AP sein. 58 CLX-Kerne können auch schneller als 64 Zen-2-Kerne sein – das kommt eben auf die Anwendung an. Die 400 W schocken mich ehrlich gesagt nicht. Derzeit gibt es einen Trend zu immer höherer Leistungsaufnahme für "Spezialhardware", sei es GPU-Beschleuniger oder eben CLX-AP.
 
Zuletzt bearbeitet:
Einen Trend zu immer höherer Leistungsaufnahme, weil man bei der Fertigung nicht mithalten kann sehe ich aber nicht.

Zumindest nicht mehr seit Bulldozer, den man auf bis zu 220W TDP hochprügeln mußte!
 
Über den Grund will ich nicht mutmaßen. Aber NVIDIA liefert die Tesla V100 erst als SXM2 mit 300 W, nun mit bis zu 450 W. Für eine solche Entscheidung wird man einen Grund haben.

Intel hat sich ja sicherlich auch gut überlegt, ob man einen Xeon Platinum 9282 mit 56 und einen 9242 mit 48 Kernen bringen wird, da man aber nur Cascade Lake-SP mit 28 Kernen hatte wurde es ein MCM-Design und wenn ein Xeon Platinum 8280 bei 205 W liegt, kann ein solches MCM-Design eben nur bei 400 W enden. Ich sehe daher zumindest einen gewissen Trend sich nicht mehr an 250 bis 300 W festzuhalten, sondern bei Bedarf auch gerne mal "über die Stränge" zu schlagen.
 
Aber noch besser sind Leute die mit dem Typen auch nur ein Wort wechseln ^^
 
Es kommt halt immer darauf an, für welche Anwendung du die Hardware vorsiehst.
Das ist ja der springende Punkt. nVidias Tesla ist da doch sehr speziell.

Intel hingegen zielt mit dem 9200 direkt auf die Server-Sparte ab und muss sich daher mit dem Epyc messen.

Im Übrigen sind die synthetischen Server-Benchmarks für die Füße, weil die Intels unter Real-World-Testbedingungen abkacken. AVX512 grätscht da immer fett dazwischen. Das würde beim 9200 ein Fiasko werden. 400 Watt Brennleistung und die Bandbreite bricht zusammen. Ich bin gespannt.

Wait What? Epyc Is Actually Faster Than Xeon In Real World Use Cases That Leverage AVX-512? : AMD_Stock
 
Es geht bei den CPUs nur darum:
Mit den dazugehörigen Servern hat Intel die Möglichkeit, hinsichtlich der Rechenleistung, auf engstem Raum weitere Alternativen zu bieten.
Das wird im Artikel bei Anandtech auch deutlich herausgestellt:
Dies sind also nur für diese speziellen Einsatzzweck gemacht und natürlich kann man für viele derartige Anwendungen die Berechnungen auch auf GPUs machen, aber nicht bei allen und dann braucht man genau solche kompakten Rechner mit extrem hoher CPU Performance, wie die Intel damit anbieten wird:
Es werden von den Enterprisekunden heutzutage eben immer stärker spezielle Lösungen verlangt, statt Hardware von der Stange auszuwählen:
Das dürfte die Folge der Cloud sein, wo immer weniger, dafür sehr große Firmen an Gewicht gewinnen und die Arbeiten der kleinen Unternehmen auf ihren riesigen Serverfarmen ausführen. Statt also Tausend Unternehmen ja ein paar Server zu verkaufen, werden nun von einer ein paar Tausend Server gekauft die diese Arbeit in der Cloud machen.
 
Nur im BGA Format bei der Größe? Das sehe ich schon etwas als kritisch an für die BGA Balls...das Mainboard worauf die CPU gelötet ist, wird sich minimal anders ausdehnen als das CPU Package, was auf kurz oder lang sicherlich die bleifreien Lötkugeln brechen lassen wird befürchte ich :(
 
Der Pitch ist mit 0,99 mm aber auch nicht kleiner als bei anderen, ähnlichen Lösungen. Aber ja, das Package als solches ist natürlich um einiges größer.
 
Zuletzt bearbeitet:
das mag sein, aber es geht eher um die größe des Packages, was eben aus einem anderen Material besteht als das Mainboard worauf das ding gelötet wird. Und wenns warm wird, verzieht sich das ding ungleichmäßig, sodass die äußeren Lötkugeln vom Prozessor ganz schön was mitmachen könnten...

wie es früher bei den GTX8800 der fall war, die sind auch gerne mal ausgestiegen, eben wegen gebrochenen Lötkugeln. Gut die SolderingBalls wurden später überarbeitet, aber auch bei einer GTX980ti z.B. wo eben auch auf ein großes Package gebaut wird, brechen manchmal trotzdem noch die äußeren Kugeln, wodurch man bei der GTX zumindest ein Blackscreen bekommt, und die karte macht dann auch kein mux mehr. Ist zumindest meine erfahrung die ich die Jahre über so gemacht habe
 
BGA bietet aber auch einen besseren Wärmeübergang. Es sind sowieso Speziallösungen und nur für Enterprisekunden, da brauchen wir uns keinen Kopf drum zu machen, die haben alle ihre Serviceverteäge und wenn der Lieferant die Boards zu oft wegen Defekten tauschen muss, wird er Intel schon auf die Füsse treten.
 
Hi,
aber ob diese Firmen es so gut finden das die Reparaturen kaum möglich sind wage ich mal zu bezweifeln, da es sehr viel aufwendiger ist einen ganzen Server wieder einzubinden bei jeder Reparatur, inc. asset managment usw.
lg
 
Hi,
aber ob diese Firmen es so gut finden das die Reparaturen kaum möglich sind wage ich mal zu bezweifeln, da es sehr viel aufwendiger ist einen ganzen Server wieder einzubinden bei jeder Reparatur, inc. asset managment usw.
lg
Ich glaube, wer >100 Kerne/Einheit nachfragt, bindet öfter neue Server wieder ein/wird halt dann weiter seine 4/8-Sockel-Systeme kaufen. Aber wenn man hier im Forum liest, hat ja auch heute schon jedes KMU mindestens 2 voll ausgelastete Dual-8174-Systeme dastehen. Asset-Management mit MAC-Adressen und Co wird so funktionieren, wie bei Thinkpads auch, wo man dann einfach die MAC-Adresse per Servicetool anpasst.
 
Mir stellt sich da eher die Frage, wo das mehr an Risiko sein soll ggü. einem Defekt des Boards wie bei jedem auf dem Markt befindlichen anderen Server auch?
Weil da noch CPUs drauf verlötet sind? Defektrate rein auf CPU Seite dürfte gegen Null gehen. Wenn man jetzt anfängt, da Teile des Boards gesondert zu bewerten müsste man das konsequenterweise für jedes andere Bauteil auch tun. Ergibt wenig Sinn - so haben Boards mit zusätzlichen Storage Controller dann mehr Risiko, Boards mit zusätzlichen Chips für andere/weitere NICs mehr Risiko usw.


Am Ende interessiert sowas den Betreiber effektiv kein Stück. Der bewertet das Risiko des Bauteils - in dem Fall des Boards. Diesem Risiko stellt er die Kosten für einen (Hardware)Wartungsvertrag - ggf. mit Techniker vor Ort Einsatz gegenüber und fertig. Höhere Verfügbarkeiten heist straffere SLAs bei der Wartung. Bis zu dem Punkt, wo man lokal Spareparts vorhält. Die Kosten für das Zeugs münzt man 1:1 auf die Kunden um.
Und ja, Wartung kann auch firmenintern erbracht werden -> die Rechnung ist exakt die gleiche.

Eigentlich sind solche Themen soooo einfach - aber in den Köppen erfindet man immer Konstrukte um sonstwas dran aussetzen zu können :rolleyes:
 
Zuletzt bearbeitet:
Ich glaube, wer >100 Kerne/Einheit nachfragt, bindet öfter neue Server wieder ein/wird halt dann weiter seine 4/8-Sockel-Systeme kaufen.
Das hängt immer vom Einsatz ab, diese CPUs sind für Nutzungen wo viel CPU Performance auf kleinem Raum gefragt ist.

Die werden entweder auch als Blade erscheinen, wobei ggf. die Kühlung bei der hohen TDP dem im Wege steht, oder treten halt in den Wettbewerb mit den Blades. Die DB- und Web- etc. Server auf deren Daten diese Blades dann rumrechnen, werden dann weiterhin die klassischen 4 / 8 Sockel System sein. Je nach Anforderung vielleicht auch ein redundanter Cluster mit sogar nur Dual Sockel Rechnern. Gerade bei Enterpriseanwendungen ist die Bandbreite der Anforderungen extrem hoch und daher auch die Bandbreite der Enterprisehardeware. Nur weil eine Firma die man kennt diese oder jeden Anforderungen hat und sich dafür die entsprechenden Hardware angeschafft hat, bedeutet dies noch lange nicht, dass die Konfiguration auch für alle anderen Firmen mit ihren oft ganz anderen Anforderungen, ebenfalls optimal ist.
Asset-Management mit MAC-Adressen und Co wird so funktionieren, wie bei Thinkpads auch, wo man dann einfach die MAC-Adresse per Servicetool anpasst.
Es ist durchaus üblich, dass man bei Serverboards die MAC selbst ändern kann. Wenn ein Server ausfällt, muss man also nur dem Ersatzgerät die MAC(s) des defekten verpassen, baut ggf. noch die Laufwerke um und schon läuft alles wieder wie vorher.
 
Jetzt können die Intel-Fanboys gar nicht mehr über die "zusammen geklebten" CPUs von AMD lästern.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh