AMD stellt die EPYC-Serverprozessoren der zweiten Generation mit bis zu 64 Kernen vor

Nennt sich ein Nazi selbst Nazi? Nennt sich ein Verschwörungstheoretiker selbst Verschwörungstheoretiker?
Wohl eher nicht, ne?

Die Aussage, dass Softwareentwickler "Intel-affin" entwickeln, und es eine SecretSouce gäbe, ist nichts weiter, als eine Verschwörungstheorie.

Und was hat jetzt die Verfügbarkeit von OEMs und Workstations mit dem Code des Softwareentwicklers zu tun?

Genau, gar nichts.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Begriff Secret Sauce kommt aber von Intel selber:
"In den Circuit News beschwört Intel daher die »Sechs Säulen der Innovation«, um die eigenen Mitarbeiter anzuspornen. Die sogenannte »Secret Sauce« besteht laut dem Memo aus Prozess, Architektur, Speicher, Interconnect, Sicherheit und Software."
 
Die Aussage mag von Intel selbst kommen, wird hier aber offensichtlich nicht kapiert...

Wie gut der Maschinencode ist, der aus der Hochsprache übersetzt wird, ist eben maßgeblich abhängig vom Compiler - der wird aber von Intel/AMD selbst bereitgestellt/(weiter)entwickelt und nicht vom Softwareentwickler. Wenn der GCC scheiße mit AMD/Intel "skaliert", dann maul AMD/Intel an, dass sie eine entsprechende Verbesserung am GCC vornehmen sollen. Aber hör auf zu labern, dass die Softwareentwickler FirmaXY-affin entwickeln. Das tut keiner... mein Gott.
 
@Topic

AMDs Epic mit 64 Kernen und 225/240 Watt TDP für ca $7000 gegen Intels "Konter" in 2020 mit 56 Kernen und absurden 400W TDP zu ca. $12-15K. Für welche CPU wird sich der Betreiber eines Rechenzentrums wohl entscheiden?
Der Kontext ist wichtig. Lässt man darauf Oracle o.ä. laufen, sind die 8 zusätzlichen Kerne ein großes Problem, weil sie die Lizenzkosten in die Höhe treiben. Es gibt nun einmal Software da interessiert die Hardware nur am Rande, da die jährlichen Lizenzkosten das eigentlich Teure sind.

- - - Updated - - -

Latenzen sind wichtig keine Frage, aber warum skaliert AMD dann besser bei Multicore?
AMDs Ansatz skaliert eindeutig schlechter (maximal 128 Kerne pro System) als der von Intel (maximal 228 Kerne pro System). Aber er liefert für das gleiche Geld deutlich mehr Kerne.

- - - Updated - - -

Hat ja ewig gedauert, bis überhaupt Server-Systeme mit Epyc tatsächlich verfügbar waren - von Workstations will ich gar nicht erst anfangen.
Erst der EPYC 7371 kann man bedingt als Workstation tauglich bezeichnen. Die anderen EPYCs der erste Serie sind Singlethreaded hoffnungslos langsam. Bei Threadripper haben sie es nicht fertig gebracht ein WS Board auf den Markt zu bringen. Meines Wissens gibt es erst jetzt ein Board von ASRockRack und das würde ich nicht als optimal bezeichnen. Von Asus gibt es nun ein Ryzen WS Board. So etwas hätte es gleich zur Markteinführung von Zen geben müssen.
 
Naja der AMD Ansatz bietet halt die bessere Dichte. Ich hab zumindest noch kein Xeon Scalable 1HE 4S/8S System gesehen (sind überigens max. 224 Kerne, nicht 228) - 1HE 2S Epyc Systeme gibts aber en Masse. Und 8S Systeme sind wahrlich Exoten - würde aber gern mal sehen wie gut das ganze über ne ordentliche Backplane skaliert - also 4x 8S Xeons gegen 8x 2S EPYCs.
 
Naja der AMD Ansatz bietet halt die bessere Dichte.
Mehr Cores pro Sockel ja, pro Die nein, da ist Intel besser. Was AMD macht ist unter dem Aspekt Kostenreduktion sehr sinnvoll. Nur verplempern sie viel Zeit. Z.B. gibt es auch bei EPYC2 keinerlei Workstation taugliche CPU, da die Singlethread Turboboost Werte zu niedrig sind. Der EPYC 7371 schafft es zumindest auf 3.8GHz (3.6GHz Allcore), damit kann man zumindest eine Workstation betreiben. Intel hat momentan zwei große Probleme, die wohl viel Arbeitsleistung der Mitarbeiter absorbieren. Es gibt Fertigungsprobleme und man rennt deshalb hinterher und man muss sich um Spectre und Meltdown kümmern. Wenn das kein Problem mehr sein wird, wird Intel das Design der CPUs umstellen, um billiger viele Cores liefern zu können. Wahrscheinlich wird das schon geplant und bei der nächsten größeren Revision auch so umgesetzt. In der Zwischenzeit müsste AMD mit den Partnern brauchbare Produkte auf den Markt bringen. Nur die gibt es einfach nicht. Wie bereits erwähnt gibt es erst jetzt die ersten Workstation tauglichen Produkte. Weshalb nicht gleich beim Marktstart? Bei den Server sieht es auch nicht gut aus. Außer der 2S Standardbox gibt es faktisch nichts auf dem Markt. Keine Storageserverlösungen, keine Blades, …

Ich hab zumindest noch kein Xeon Scalable 1HE 4S/8S System gesehen (sind übrigens max. 224 Kerne, nicht 228) - 1HE 2S Epyc Systeme gibts aber en Masse.
Sorry Tippfehler.
Man bekommt relativ problemlos 4S Xeon SP Server, und bei Supermicro kriegst Du die Dinger auch als Blades. Die dann billiger sind als die doppelte Menge 2S Blades.
 
Naja der AMD Ansatz bietet halt die bessere Dichte. Ich hab zumindest noch kein Xeon Scalable 1HE 4S/8S System gesehen (sind überigens max. 224 Kerne, nicht 228) - 1HE 2S Epyc Systeme gibts aber en Masse. Und 8S Systeme sind wahrlich Exoten - würde aber gern mal sehen wie gut das ganze über ne ordentliche Backplane skaliert - also 4x 8S Xeons gegen 8x 2S EPYCs.

Da wird eher der Interconnect limitieren, wenn man sie wirklich ins CPU-Limit treibt.
 
Da wird eher der Interconnect limitieren, wenn man sie wirklich ins CPU-Limit treibt.
Die EPYCs hätten da theoretische Vorteile, da die Mellanox IB Karten dank IBMs POWER9 schon länger als PCIe 4.0 Karten erhältlich sind. Aber aus der Vergangenheit weiß ich, dass das Thema Treibersupport für IB-Karten und AMD CPUs recht problematisch war. Ja, die Mellanox Karten liefen, aber sie taten das suboptimal, weil nicht alle Fähigkeiten der CPUs und der IB Karten selbst genutzt wurde. Da sind wir wieder beim Dauerthema AMD und Softwaresupport.
 
AMD holt nicht auf, der Takt von AMD geplanten Releases von next Ryzen ist hart, die wollen vorbei. Bei der Geschwindigkeit haben wir bis 2025 3NM und dann?
 
Topic AMD stellt die EPYC-Serverprozessoren der zweiten Generation mit bis zu 64 Kernen vor

Was hat der ganze Chat der letzten Seiten damit zu tun ?

@Topic Meint ihr man könnte eine Dual Board mit 1 x Rom und 1 x Epyc 1 bestücken? Nur ein Sockel zu bestücken ist ungünstig (Lanes Zuteilung Ram usw.), und man müsste nicht sofort Kohle in 2 CPU investieren.
 
Mit 64 Kernen und 128 Threads braucht es prinzipiell ohnehin keine Dualsocket Boards mehr.
 
Also möglich ist vieles - aber das halte ich für absolut unwahrscheinlich, dass das gehen wird. Es gab früher mal Boards, die fraßen zwei verschiedene Opteron CPUs. Aber hier ist das nahezu ausgeschlossen. Dafür ändert sich zu viel. Was technisch vllt geht wäre ein großer und ein kleines Modell der gleichen Generation.

Die Frage wäre für mich eher, was versprichst du dir aus dem Mischbetrieb?? Lass doch die Büchse wie sie ist bis du das Geld für den Wechsel zusammen hast?

- - - Updated - - -

Mit 64 Kernen und 128 Threads braucht es prinzipiell ohnehin keine Dualsocket Boards mehr.

2P = doppelter möglicher RAM (ggf. günstiger in Summe weil mehr, dafür kleinere Riegel häufig günstiger). 2P = doppelte PCIe Lanes. 2P gleich mehr IF Bandbreite/Uplinks. 2P auch = 2x NUMA Nodes -> je nach Anforderung ein Problem oder ein Vorteil.
 
@Ryze mit Sauce Dual Board vorhanden. H11DSi | Motherboards | Super Micro Computer, Inc.
@fdsonne Geld wäre nicht das Problem und nötig ist es auch nicht, aber naja :asthanos: das haben wollen... Interessant wäre es auch was der ESXI dazu sagen würde...
2P = doppelter möglicher RAM (ggf. günstiger in Summe weil mehr, dafür kleinere Riegel häufig günstiger). 2P = doppelte PCIe Lanes. 2P gleich mehr IF Bandbreite/Uplinks. 2P auch = 2x NUMA Nodes -> je nach Anforderung ein Problem oder ein Vorteil.
Bei diesem und den meisten Dualboard ist es auch nötig beide Sockel zu bestücken, sonst sind nicht alle Steckplätze Lanes usw. versorgt.

Momentan sind 2 x AMD EPYC 7251 - 2.1 GHz - 8-Core - 16 Threads - 32 MB Cache-Speicher verbaut. Letztes Jahr im Januar 2018 gab es noch keine Kaufbaren 1 Sockel Epyc Server Boards (über nicht kaufbare Epyc CPU reden wir erst gar nicht), daher musste eines der ersten Boards und CPU ins Haus. Wir sind damals von Intel Servern direkt auf AMD geschwenkt (im Nachhinein auch unnötig aber egal).

Ich dachte mir das ich evtl. wie früher zu einem 8 Core einen 16 Core dazustecke und später wenn nötig noch einen 16 Core. Es würde sich ja anbieten direkt auf die aktuelle Generation gehen anstelle der baugleichen ersten Generation. Aber wie du schon sagst, es hat sich dann doch einiges geändert.
 
Zuletzt bearbeitet:
Also möglich ist vieles - aber das halte ich für absolut unwahrscheinlich, dass das gehen wird. Es gab früher mal Boards, die fraßen zwei verschiedene Opteron CPUs. Aber hier ist das nahezu ausgeschlossen. Dafür ändert sich zu viel. Was technisch vllt geht wäre ein großer und ein kleines Modell der gleichen Generation.

Die Frage wäre für mich eher, was versprichst du dir aus dem Mischbetrieb?? Lass doch die Büchse wie sie ist bis du das Geld für den Wechsel zusammen hast?

- - - Updated - - -



2P = doppelter möglicher RAM (ggf. günstiger in Summe weil mehr, dafür kleinere Riegel häufig günstiger). 2P = doppelte PCIe Lanes. 2P gleich mehr IF Bandbreite/Uplinks. 2P auch = 2x NUMA Nodes -> je nach Anforderung ein Problem oder ein Vorteil.

Du hast aber mit Rome keine 2x 128 PCIe Lanes im 2S Betrieb, sondern 160.
Damit dominiert man zwar den 1S und 2S Markt, im Vollausbau betrachtet kommt man aber nicht an die 384 Lanes eines Xeon Scalable ran. Ok, er hat PCIe 4.0, aber eine entsprechende Bandbreite an Enterprise SSDs erkenn ich da noch nicht.
 
Einfach ein zweites System ist keine Option?
Weil normal wechselt doch eh keiner die CPU - zumindest nicht produktiv. Wenn Geld kein Problem ist, dann würde ich eher ne zweite Kiste hinstellen und die erste damit früher oder später ablösen. Wie sinnvoll das in deiner Konstellation ist oder nicht, musst du entscheiden.

- - - Updated - - -

Du hast aber mit Rome keine 2x 128 PCIe Lanes im 2S Betrieb, sondern 160.

Du brauchst dann aber auch erstmal ein Board mit allen rausgeführten Lanes... Was soweit ich das bisher sehe vergleichsweise wenig häufig anzutreffen ist.
Zudem die Gegebenheit auch ein Dual Board ist -> heist, nur eine CPU bestückt = nicht alle Slots beschalten.
 
Mit OCuLink Schnittstellen eigentlich recht einfach machbar. Mein Asus KNPA-U16 hat 6 Stück davon.
 
Und dann hantierst du mit irgendwelchen Adaptern und/oder Risercards oder externen Gerätschaften. Kann man alles machen - steht außer Frage, aber was man alles so kann, wenn man sich da entsprechend "verbiegt" war doch nicht der Background auf den die Aussage fußt. Vor allem im Zusammenhang mit: "Nur ein Sockel zu bestücken ist ungünstig (Lanes Zuteilung Ram usw.), ..." -> man könnte auch einfach mal annehmen, dass bei dieser Basis reguläre PCIe Slots auf dem Board gemeint sind/waren. Ergibt Sinn meinst du nicht?
 
Zuletzt bearbeitet:
Ich hatte es oben angekündigt - wenn der Kindergarten hier weiter geht.
Weiterhin werde ich dieses jüngste Beispiel intern zur Diskussion stellen und es werden sich ggf. die Kollegen bei den Beteiligten melden.

:btt:

PS: Sorry, falls ein Post mit Themenbezug bei sein sollte - ich habe versucht den ganzen Unsinn zu erwischen, möchte aber nicht ausschließen, dass da einer bei war, der doch zum Topic gehörte. Auch wurden dem Lesefluss bedingt alle Antworten auf entsprechende OT Stunkmache-Posts entfernt, egal wie richtig oder sinnvoll sie waren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh