AMD priorisiert Server- und Notebook-CPUs plus Trend zu 1S-Servern

Es dürfte also extrem wenige Serverkunden geben, die 1S Server bevorzugen, weil sie damit bei EPYC pro Sockel mehr PCIe Lanes bekommen.
Ich kenne da ein paar, die nur 1S Epyc-Systeme kaufen, je nach Anwendungsfall ist das sinnvoller/günstiger.
Cloudflare z.B.
Mein AG kauft auch, neben 2/4S Intel-Systemen eigentlich nur 1S AMD-Systeme, da die Grundplattform meist auch günstiger zu haben ist, und man darauf nicht immer lizenzierte Software laufen lassen muss.
Ich denke die Verteilung ist auch aufgrund von Lizenzbestimmungen recht unausgeglichen, da z.B. VMWare seit vSphere 7 pro CPU-Lizenz nur noch max. 32 Kerne akzeptiert.
Wären es 64 Kerne, würden bestimmt noch mehr Kunden lieber 1S-Systeme nutzen als 2S.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn man das nicht vergisst ;) daß 32 Kerne 64 Threads bedeuten, pro Einschub/Server, sollte es einleuchten warum man nach und nach zu 1S übergeht. Vor allem wenn man Zen2 gegen Zen3 wechselt. Für die Leistung und Druchsatz war nicht gleich vor Urzeiten ein ganzer Rack nötig. Die Last dagegen ändert sich nicht in solchen gigantischen Schritten. Vor allem also im gewöhnlichen unternehmersichen Umfeld sind 2S so nach und nach am aussterben.

Das mit vSphere kann ich verstehen aber gleichzeitig finde ich hat das Teil auch ordentlich zugelegt was kaum jemanden weh tun sollte. Vor allem da trotz all der Virtuallisierung Einschübe mit 64 Threads weiterhin eher selten als gewöhnlich sind.
 
Die Lizenzbestimmungen haben immer auch Einfluss auf die Hardwareauswahl und Lizenzkosten können die Kosten der Hardware bei weitem überschreiten.
 
Die Anzahl der Lanes in Summe ist nicht das Problem, es geht da eher um bspw. das wie bei der Anbindung. 128x Lanes bei einer CPU = alle Lanes werden von gleichen IO Die bereitgestellt = keine Limits durch IF Connects zwischen den Sockeln, keine Latenprobleme, single NUMA Node, kompletter RAM im gleichen Sockel, Threadscheduling ist einfacher usw... Es ist bei 2P Epyc Boards dann eben auch idR. so, dass die PCIe Lanes entsprechend an beiden CPU Sockeln angebunden sind. Allerdings sollte selbst dir auffallen, wenn du im ungünstigsten Fall 4x16x Lanes über den Sockel Interconnect treten musst und zudem noch RAM Daten und Traffic von Daten aus Caches da durch müssen, dass das schnell zu nem Limit werden kann... Sowas merkt man üblicherweise aber nicht, wenn man nur Datenblätter ließt, nakte Theoriezahlen gegeneinander stellt und dann ganz hochnäsig ein "Na und?" raus lässt. ;) Damit schießt du deine Aussagen bei solchen Thematiken direkt in die Laberbacken-Ecke. Nur so als kleiner Hinweis aus der zweiten Reihe.
Ich kenne da ein paar, die nur 1S Epyc-Systeme kaufen, je nach Anwendungsfall ist das sinnvoller/günstiger.
Cloudflare z.B.
Mein AG kauft auch, neben 2/4S Intel-Systemen eigentlich nur 1S AMD-Systeme, da die Grundplattform meist auch günstiger zu haben ist, und man darauf nicht immer lizenzierte Software laufen lassen muss.
Unabhängig der Lizenzen sind 2P auch wieder zwei NUMA Nodes, je nach Anwendung ist das wünschenswert oder sehr hinderlich. Der Charme ist ja gerade, dass man den zweiten Node gar nicht hat. Zumindest mit Zen3 und den 1xCCD/CCX = bis zu 8C ergibt das meiner Meinung nach nur Sinn auf 2P zu gehen, wenn man NUMA aware unterwegs ist und sowohl die mehr RAM Channel dadurch nutzt als auch den Inter Sockel Traffic damit gehändelt bekommt. 0815 Software ist eher selten wirklich NUMA aware und so Probleme mit Daten über Schnittstellen nach extern verschlimmern das nur noch unnötig. Dicke NVMe Arrays an der einen CPU, fette NICs an der anderen und ne Software die nicht NUMA aware unterwegs ist und der Fabric Link in der Mitte glüht :fresse: mit 1P absolut kein Ding.

Andererseits - der Trend zu 1P ist allerdings klar auch ein Resultat aus dem relativ großen Sprung der potentiellen Möglichkeiten. Das Zeugs gibts zwar im Regal, aber deswegen braucht man sowas ja noch nicht auf einmal. Bei aller Euphorie darüber muss man auch dazu sagen, 28C bei Intel sind und waren bis dato auch nicht das Brot und Buttergeschäft. Masse kommt ne ganze Ecke drunter. Mit 2P Epyc musste da fast schon wieder Kompromisse eingehen, wie nur halbe RAM Bandbreite wegen zu wenig aktiven Compute Dies oder bei voller Beschaltung eben zu geringer Core Anzahl pro Compute Die. Das Design ist halt nicht gut flexibel für "klein". Da kann man gut auf 2P verzichten wo es nur einigen Fällen überhaupt nen Mehrwert gibt, die Nachteile aber Effektiv immer drin sind.
 
@fdsonne
Irgendwie hast du als Erklärbär den Focus imho jetzt leicht in eine Richtung übersteuert. Zuviel darüber wie schlecht es sein könnte 2S Epyc zu fahren und viel zu wenig darüber welche Vorteile 1S Zen3 Epycs haben.

Was ist denn da in der Überlegungsphase passiert? :sneaky:
 
Und wer ganz, ganz viele PCIe Lanes pro Rechner braucht, der greift im Zweifel sowieso zu einem 8 Sockel System, auch wenn ich mich dann schon frage, wie das Mainboard aussieht, um die alle rausführen und damit auch nutzen zu können und welche Anwendungen man darauf dann fährt.
Bei so einem System verschieben sich aber die Kosten pro Sockel sehr deutlich. Dazu gibt es die aktuellen Xeon SP G3 (Ice Lake) nicht als 4S oder 8S CPUs. Wer so einen Server braucht, muss auf Intels Xeon SP G2 „Refresh 2“ CPUs (Cooper Lake) zurückgreifen, die Intel als Xeon SP G3 „H“ Modelle verkauft. Mehr als 28 Kerne pro Sockel gibt es da dann nicht. Und ein 4S Modell hat nur maximal 112 Kerne, wohingegen ein IceLake 2S 80 Kerne haben kann, oder ein AMD EPYC 2S 128 Kerne. Die 4S Lösung ergibt da wenig bis gar keinen Sinn.
Die Aussage dazu war ja nur, dass 1S Systeme auf Grund der wachsenden Anzahl an Kernen immer sinnvoller werden. 1S Systeme sind nun im Vergleich günstiger und selbst der CPU Hersteller spart sich Sachen für externe CPU CPU Kommunikation.
Wenn man die Kerne zum Numbercrunchen o.ä. braucht, sind 2S immer noch deutlich günstiger, weil man für 1S etliches doppelt braucht. D.h. pro Sockel ist man auf tausenden Server billiger mit den 2S dabei. 1S Systeme sind dann sinnvoll, wenn aktuell mit max 64 Kernen auskommt und sonst keine Rahmenbedingungen hat, die nicht von billigeren 2S Systemen profitieren: d.h. Lizenzen, Administration von VMs, … spielen eine größere Rolle.
 
Das ist zwar nur... Semantik, aber wenn man Numbercrunching macht, nennt man die Nodes weiterhin Server? ;)

1S Systeme sind dann sinnvoll, wenn aktuell mit max 64 Kernen auskommt und sonst keine Rahmenbedingungen hat, die nicht von billigeren 2S Systemen profitieren: d.h. Lizenzen, Administration von VMs, … spielen eine größere Rolle.
Hört sich an wie: nachts ist es kälter als mittags...(?)

Die Diskussion ist so lala. Die Serverlandschaft verschiebt sich schon länger stetig zu 1S Systemen, weil deren Leistung (nicht nur pure Rechenleistung) viel schneller stieg als die Last die man solchen Maschinen auferlegt. Fertig. Die Admins kommen nun viel öfters mit 1S aus als davor und das wirkt sich halt direkt auf die Bestellungen aus.
Jetzt ist die Verschiebung pregnant genug damit die Portale gesagt bekommen können draus News zu machen. Wie kommt der Luxx dann dazu 2 Seiten lang darüber zu diskutieren? ;)

edit:
Da es nun eine absolut überweltigende Mehrzahl an genutzten x86 SMT2 haben versuche ich schon ewig die Leute dazu zu bewegen von Threads und nicht von Kernen zu sprechen. Die Zahlen wirken dann eindeutiger 😏, es wird ggf. klarer über welche Leistung man spricht. Es scheint aber aus mir noch unbekannten Gründen (irgendwas psychologisches?) sehr schwer das zu etablieren.
 
Zuletzt bearbeitet:
@fdsonne
Irgendwie hast du als Erklärbär den Focus imho jetzt leicht in eine Richtung übersteuert. Zuviel darüber wie schlecht es sein könnte 2S Epyc zu fahren und viel zu wenig darüber welche Vorteile 1S Zen3 Epycs haben.
Dann hast du offenbar was missverstanden - da die Aussage darauf abzielte Holts Behauptung zu widerlegen, es wäre egal ob 2S Epyc bzgl. PCIe Lanes oder 1S Epyc - weil 2x64 Lanes auch 128 Lanes sind. Und das ist es eben nicht. Natürlich untermauere ich diese Widerlegung mit Aussagen über die Nachteile des 2S Konstrukts. Was für Mitdenkende auch direkt die Vorteile eines 1S Konstrukts einschließt, nämlich wenn man erkennt, warum der Nachteil eben ein Nachteil ist - da muss das andere ja offenbar einen Vorteil dagehen sein.

Ich frag mich aber, was deine Aussage jetzt konkret beiträgt? Was ist denn da in der Überlegungsphase passiert? :sneaky:
Die Diskussion ist so lala. Die Serverlandschaft verschiebt sich schon länger stetig zu 1S Systemen, weil deren Leistung (nicht nur pure Rechenleistung) viel schneller stieg als die Last die man solchen Maschinen auferlegt. Fertig. Die Admins kommen nun viel öfters mit 1S aus als davor und das wirkt sich halt direkt auf die Bestellungen aus.
Du hast irgendwie nen komischen Blick - wir sprechen über ~90% Marktanteil von Intel. Wo und an welcher Stelle siehst du da bitte eine Verschiebung zu 1S? Das ist praktisch einfach komplett an allen Realitäten vorbei. 1S ist bei Epyc der Massenmarkt Fokus. Nur wie immer, wenn man Rosinen pickt, ist das praktisch am Markt einfach nur ne kleine Nische.
Selbst bei den Ice Lake Xeons ist 2P eher die Regel als die Ausnahme. Man kauft halt dann nicht die Dickschiffe - hat man vorher aber auch nicht. Nach immerhin 5 Jahren oder sowas im Dreh, wie es die "Scalabe Xeons" nun gibt darf es dann auch mal im Schnitt paar Cores mehr sein.

Btw. ob du etwas mit Threads oder Cores bewertest, ist praktisch auch irrelevant. Gerade bei den Kosten interessiert sich dafür idR keiner. Lizenzen bspw. werden vielen Fällen auf die Physik berechnet und nicht auf logische Einheiten. Einfacher wird das bei weitem auch nicht. Eigentlich macht auch deine Herleitung keinen Sinn. Man spricht über Kerne, wenn man über die Physik spricht. Und man spricht von Threads, wenn man eben logische Einheiten meint.
 
@fdsonne
Das ist so, weil man bei Xeon bisher 2P schlicht für die Leistung benötigt. Mit Epycs nicht mehr. Und da nun auch Intel so nach und nach ausreichend Leistung liefert merkt man die Verschiebung auch langsam. AMD ist imho aber auch erst mit Zen3 allgemein attraktiv geworden.

Warum macht es denn Sinn bei Servern rein über die Physik zu sprechen? Das ist eine Festlegung die für mich keinen Sinn ergibt. Ich bin hier auch nicht aus PR-Gründen und möchte keine Lizenzen verkaufen. Warum sollte ich auch immer nur von Kernen reden? ;)

Es gibt aktuell eh nichts technisches was die Entscheidungen beinflusst. Das ist bei uns auch nicht anders. Wir fahren auch Intel und rüsten Intel auf, weil das schon ewig so ist. Mittlerweile gibt es aber halt auch paar Epycs die sogar schon produktiv laufen, weil man mal schauen will... Schauen will :poop:

Erwachsene Menschen-Profis brauchen nun erstmal Erfahrungsphasen um das Wissen der Spielkiddis zu glauben und zu verdauen 🤪
Die Denke, daß wenn HPE oder Dell Server mit Epycs bauen, daß sie das viel schlechter validieren könnten als bei Xeons (wtf?) und man erstmal Erfahrungen bezüglich der Systeme sammeln muss. Ne ist klar ;)

Wegen eben dem Overbiasing (du weißt was ich meine) glaube ich deswegen trotzdem nicht gleich an irgendwelche Siegeszüge, aber wenn bis dahin keine Meteoriten die Erde desinfizieren, stehen die 15% für AMD nächstes Jahr eher fest. Und die dazu kommenden werden zu allermeist 1S-Systeme sein. Weil das bei Epyc reicht. Ähnliches wird sich halt auch bei Intel fortsetzen, auch wenn das bei denen erst Fahrt aufnehmen muss.

edit:
2x 64 Lanes sind nicht 1x 128. Das ist technisch gesehen schon richtig. Allerdings fehlt mir grad eine reale Anwendungstechnik wo dieser Unterschied wirklich durchschlägt, solange wir nur von Servern sprechen.
Bei HPC (FP) dagegen kommt man aktuell um Trento/MI200/Slingshot nur rum, wenn man das durch irgendwelche Zwänge muss. Wie in Argonne oder Leibniz...
 
Zuletzt bearbeitet:
Und ein 4S Modell hat nur maximal 112 Kerne, wohingegen ein IceLake 2S 80 Kerne haben kann, oder ein AMD EPYC 2S 128 Kerne. Die 4S Lösung ergibt da wenig bis gar keinen Sinn.
Es ging darum die maximale Anzahl an PCIe Lanes in einem Rechner zu haben, daher ist es total am Thema vorbei, jetzt hier wieder mit der Anzahl der Kerne zu kommen, zumal selten beides gleichzeitig maximiert werden muss. Denn viele PCIe Lanes braucht man ja meinst um viele Beschleunigerkarten (GPUs) zu betreiben oder viele NVMe SSD oder was weiß ich, dies muss ja derjenige wissen, der so ein System plant. Deshalb gibt es ja eben auch so eine große Bandbreite an Servermodellen, von kleinen 1S Systemen bis zu den 8s, auch wenn der Anteil an 4S und 8S Systeme sehr gering ist, denn so kann jeder der Kunden für die unterschiedlichen Anwendungen Modelle finden, die möglichst optimal für seine Anforderungen ist.

Die Numbercruncher setzen in aller Regel sowieso auf verteilte Systeme und damit meisten auf Blades, die haben meist sowieso maximal 2 Sockel und brauchen nur weniger von deren PCIe Lanes. Da werden auch nicht unbedingt immer die Spitzenmodelle der CPU Reihe eingesetzt, entweder weil die ganz nicht verfügbar sind, da ihre hohe TDP dort nicht zu kühlen wäre oder eben auch, weil es am Ende immer noch billiger ist ein paar mehr der günstigeren Blades mit CPUs mit etwas weniger Kernen zu nehmen. Deshalb werden ja auch nur recht wenige dieser Spitzenmodelle verkauft, die Masse kauft die Mittelklassemodelle, genau wie es übrigens auch beim Desktop ist, die wenigsten haben einen 16 Kerner in ihrem AM4 Board stecken.

Auch deshalb ist es eben für den Alltag nicht wirklich so relevant wie viele Kerne es maximal gibt und wie viele PCIe Lanes eine CPU bieten kann, sondern eher ein Schw*nzvergleich für Fanboys in Foren. Wenn es genug PCIe Lanes sind, interessiert es keinen wie viele ungenutzt bleiben. Wenn die Modelle mit weniger Kernen wirtschaftlicher oder für die Aufgabe ausreichend sind, dann werden diese genommen. Das ist im Desktop ja auch nicht anders, die Masse kauft da immer noch 6 und 8 Kerner und die Mainstream- statt der HEDT Plattformen, vielleicht ist es hier bei HL etwas anderes, aber dies ist ein Forum mit kleiner Reichweite noch weniger Leute schreiben hier aktiv.
 
Die Numbercruncher setzen in aller Regel sowieso auf verteilte Systeme und damit meisten auf Blades, die haben meist sowieso maximal 2 Sockel und brauchen nur weniger von deren PCIe Lanes.
Was ich weggequotet habe war schon ok, aber das hier ist nicht richtig. Außer paar spezielleren Fällen ist Supercomputing ohne GPUs quasi tot. Und die brauchen sehr wohl die Lines...

Das ist im Desktop ja auch nicht anders, die Masse kauft da immer noch 6 und 8 Kerner und die Mainstream- statt der HEDT Plattformen, vielleicht ist es hier bei HL etwas anderes, aber dies ist ein Forum mit kleiner Reichweite noch weniger Leute schreiben hier aktiv.
Es geht weniger um die Reichweite von Luxx als um die Foristen. Der Anteil der Nerds, Mininerds wie auch einfach Fanboys ist klar überwiegend. Deren Sicht auf den Alltag des schnöden PC-Pöbels ist durch ihre Blasen meist stark getrübt.
 
Zuletzt bearbeitet:
Es ging darum die maximale Anzahl an PCIe Lanes in einem Rechner zu haben, daher ist es total am Thema vorbei, jetzt hier wieder mit der Anzahl der Kerne zu kommen, zumal selten beides gleichzeitig maximiert werden muss.

Kaum eines der Multiprozessorsysyteme erlaubt es auch nur Ansatzweise die maximale Anzahl an PCIe Lanes zu nutzen. Man muss schon sehr gut suchen, um überhaupt solche Systeme kaufen zu können. Wer massiv IO braucht ist mit IBMs zSeries oder pSeries besser bedient.
Denn viele PCIe Lanes braucht man ja meinst um viele Beschleunigerkarten (GPUs) zu betreiben oder viele NVMe SSD oder was weiß ich, dies muss ja derjenige wissen, der so ein System plant. Deshalb gibt es ja eben auch so eine große Bandbreite an Servermodellen, von kleinen 1S Systemen bis zu den 8s, auch wenn der Anteil an 4S und 8S Systeme sehr gering ist, denn so kann jeder der Kunden für die unterschiedlichen Anwendungen Modelle finden, die möglichst optimal für seine Anforderungen ist.
4s und 8S Intel Systeme sind mit sehr hohen Mehrkosten verbunden, weil die CPUs deutlich teurer sind bzw. in der aktuellen Generation technisch den 1S und 2S CPUs hinterherhinken. Nur bei der ersten beiden Xeon SP Generationen waren 4S Systeme attraktiv, weil man die Gold 6000 CPUs in einem 4S nutzen konnte, und das waren auch die Brot und Butter Modelle für die 1S und 2S Systeme. Bei AMD war das zuletzt bei den Opteron 6x00 der Fall. Wobei die 6200 und 6300 Bulldozer wegen des schlechten CPU Designs ein Totalausfall waren.
Die Numbercruncher setzen in aller Regel sowieso auf verteilte Systeme und damit meisten auf Blades, die haben meist sowieso maximal 2 Sockel und brauchen nur weniger von deren PCIe Lanes. Da werden auch nicht unbedingt immer die Spitzenmodelle der CPU Reihe eingesetzt, entweder weil die ganz nicht verfügbar sind, da ihre hohe TDP dort nicht zu kühlen wäre oder eben auch, weil es am Ende immer noch billiger ist ein paar mehr der günstigeren Blades mit CPUs mit etwas weniger Kernen zu nehmen. Deshalb werden ja auch nur recht wenige dieser Spitzenmodelle verkauft, die Masse kauft die Mittelklassemodelle, genau wie es übrigens auch beim Desktop ist, die wenigsten haben einen 16 Kerner in ihrem AM4 Board stecken.
Blades werden meistens nicht für HPC verwendet. Überhaupt kommen Blades sehr aus der Mode. Üblicher sind Twin Server, d.h. 2 Server pro Höheneinheit in einem Gehäuse. Der Unterschied zu einem Blade besteht darin, dass diese Systeme keine internen Switches o.ä.h haben und nur den Strom auf die Einschübe verteilen. Die Packungsdichte ist bei HPC ohnehin ein Problem (mittlerweile geht das Richtung 50kW pro Rack) und aus Kostengründen setzt man ohnehin auf Wasserkühlung – entweder im Rack oder direkt im Gehäuse, weil man sich dann einen Chiller sparen kann, der enorme Betriebskosten verursacht. D.h. Die Wasserkühlung der Systeme ist wegen der Packungsdichte nicht so sehr das Problem.
Beitrag automatisch zusammengeführt:

Was ich weggequotet habe war schon ok, aber das hier ist nicht richtig. Außer paar spezielleren Fällen ist Supercomputing ohne GPUs quasi tot.
Der Spitzenreiter der Top500 zeigt, dass das nur ein Momentanzustand ist. Wenn sich dieser Trend bei der CPU-Entwicklung vorsetzt, dann wird es bald keine GPUs mehr in HPC-Systemen mehr geben.
 
Wer massiv IO braucht ist mit IBMs zSeries oder pSeries besser bedient.
Dann kommt man aber in ein ganz nandere Ökosystem und dies wollen viele Kunden vermieden, daher sehe ich IBM nicht als so direkten Konkurrenten zu x86 Servern an. Entweder hat man IBM oder eben x86, aber die wenigsten wollen einfach mal so beides gemischt haben.
4s und 8S Intel Systeme sind mit sehr hohen Mehrkosten verbunden
Deswegen machen die ja auch nur einen kleinen Teil des Markes aus.
Blades werden meistens nicht für HPC verwendet.
Doch, immer wenn Berechnungen auf CPUs und nicht auf GPUs erfolgen, dann nimmt man auch heute noch Blades, da diese die höchste Dichte an CPUs pro Rack ermöglichen. Auch wenn da zuweilen nicht die CPUs mit der höchsten TDP drin stecken, ist es immer noch in den meisten Fällen die wirtschaftlichste Lösung.
Überhaupt kommen Blades sehr aus der Mode.
Mode interessiert im Enterprisesegment niemanden, sondern Leistung und TCO!
 
Doch, immer wenn Berechnungen auf CPUs und nicht auf GPUs erfolgen, dann nimmt man auch heute noch Blades, da diese die höchste Dichte an CPUs pro Rack ermöglichen. Auch wenn da zuweilen nicht die CPUs mit der höchsten TDP drin stecken, ist es immer noch in den meisten Fällen die wirtschaftlichste Lösung.
Es gibt aber kaum noch Bladecenter am Markt!

TwinServer hingegen bekommst Du relativ problemlos. Was die Packungsdichte betrifft: Bei SuperMicro bekommst man das 8U Bladecenter (die 4U und 6U Blade Center gibt es nicht mit der Option auf Infiniband) mit 20 2S Intel Blades oder mit 20 1S AMD Blades, die Intel Blades gibt es mit Wasserkühlung ohne Powerlimit. FatTwins haben auf 4U 8×2S AMD oder Intel. D.h. die Packungsdichte ist bei einem EPYC bei den FatTwins mit 16×2=32CPUs höher als mit den 20×1=20 CPUs im Bladecenter. Von Lenovo gibt es ein Bladecrenter 14×2S in 10U, Dells Blade Center ist ausgelaufen und das MX7000 hat nur 8×2S auf 7U. Fujitsu, Asus und etliche andere bieten nur noch Twins an.
 
Der Spitzenreiter der Top500 zeigt, dass das nur ein Momentanzustand ist. Wenn sich dieser Trend bei der CPU-Entwicklung vorsetzt, dann wird es bald keine GPUs mehr in HPC-Systemen mehr geben.
Nicht wirklich. Es gibt jetzt eine CPU die da was taugt und damit braucht man Abermillionen Kernen um nichtmal auf 500Pflops zu kommen. Das taugt nicht wirklich und ist ein Projekt um die japanische Wirtschaft zu subventionieren. Frontier macht mit Zen3 und MI200 mit unter 30MW aus dem Stand: das DREIFACHE. Das sind 1.5 Exaflops.

Das vierfache, also 2 Exaflops, wird ElCaptain mit Zen4 und MI200 machen.

Jetzt mal davon ab was NV als nächstes Jahr raushaut. Ein Fugaku macht keine "Trends". Das ist lächerlich.
 
Zuletzt bearbeitet:
Nicht wirklich. Es gibt jetzt eine CPU die da was taugt und damit braucht man Abermillionen Kernen um nichtmal auf 500Pflops zu kommen.
Du solltest Dir die News zu ARM durchlesen, die SVE Extension des Befehlssatzes ist mittlerweile ein offizieller Bestandteil der ARM Plattform, und sie ist nicht auf 512Bit wie beim Fujitsu A64FX beschränkt, sondern erlaubt Implementationen mit 128Bit bis 2048Bit – in Schritten zu 128Bit. Bei 2048Bit wäre man dann auf den Niveau der NEC SX Vector-CPUs. Der große Vorteil bei ARM ist, dass SVE so entworfen ist, dass man unabhängig von der tatsächlichen Implementationsbreite Code schreiben kann, und dieser automatisch von einer breiteren Implementation profitiert.

Was das Thema Cores betrifft, jede GPGPU verfügt aber sehr viel mehr Cores als eine CPU mit SIMD Erweiterung. Ich halte diese Diskussion über die Zahl der Cores daher für reichlich sinnfrei. Was zählt ist wie viel Performance/Watt kommt raus, und wie leicht lässt sich Software für die Plattform schreiben. An dem letzten Punkt scheiterten bisher viele AMD Produkte.
Das vierfache, also 2 Exaflops, wird ElCaptain mit Zen4 und MI200 machen.
Mal schauen was der Softwarestack von AMD taugt. Sowohl Intel wie auch nVidia haben ihre SDKs frei zugänglich gemacht, und Intel setzt immer mehr auf FOSS bei den Libraries. Ich habe lange auf AMD HPC gemacht, und das Ergebnis mit AMDs Softwarestack war damals eher desaströs. Deshalb wurde nur Intels Softwarestack genutzt, und man musste die kleinen schmutzigen Tricks von Intel wieder aushebeln, so dass die Software auch richtig lief.
Belege? Also ich sehe von den großen OEMs immer noch neue Blades für Ice Lake-SP (3rd Gen Intel® Xeon® Scalable Processors):
Du hattest Blades als Basis für HPC angeführt, vor allem wegen der Packungsdichte. Das Cisco Blade Chassis bietet keinerlei Möglichkeit im Chassis Infiniband zu nutzen – für die meisten HPC Lösungen damit nutzlos, die Packungsdichte ist mit 10×2S auf 6U ebenfalls schlecht. Das Dell MX7000 hat in der aktuellen Version eine schlechte Packungdsdichte (8×2S auf 7U) und keinerlei IB Option – auch untauglich. Das ist eine tolle Lösung um Server failsafe zu machen, weil man die FC JBODs/RAIDs da leicht miteinbauen kann (untypisch für ein Blade Chassis). Das eigentliche Blade Chassis von Dell ist ohne Nachfolger. Das Lenovo Blade Chassis hat keinerlei IB Option und eine schlechte Packungsdichte (14×2S auf 10U).

Das SuperMicro SBE-820H erfüllt die Bedingungen für ein HPC Blade Chassis, maximale Leistung der Xeon SP G3 aber nur mit Wasserkühlung. Dafür gibt es die Option auf ein IB HDR Switch Im Chassis, d.h. man braucht keinen extra Leaf IB Switch mehr. Mit HDR ist dank der 40 Port pro Switch der Uplink non blocking, die ältere Version ist leider nur in Teilbestückung nonblocking, weil die EDR IB Switche nur 36 Ports haben.

Dazu wird das Angebot an Blade Lösungen kleiner.
 
Du solltest Dir die News zu ARM durchlesen, die SVE Extension des Befehlssatzes ist mittlerweile ein offizieller Bestandteil der ARM Plattform,
Warum sollte ich das nicht wissen und was hat das mit meiner Meinung zu tun? Ist AVX-512 kein offizieller Bestandteil der x86-Architektur?

Was das Thema Cores betrifft, jede GPGPU verfügt aber sehr viel mehr Cores als eine CPU mit SIMD Erweiterung. Ich halte diese Diskussion über die Zahl der Cores daher für reichlich sinnfrei. Was zählt ist wie viel Performance/Watt kommt raus, und wie leicht lässt sich Software für die Plattform schreiben. An dem letzten Punkt scheiterten bisher viele AMD Produkte.
Warum scheitern bei Perf/Watt die AMD-Produkte, aber nicht Intel-Produkte? Oder meintest du x86-Produkte?

Mit AMDs GPGPU, nochmal, macht man diesjahr aktuell 1.5 Exaflops unter 30MW. Der Plan war zwar irgendwann nebenbei zu schreiben, daß du ein begnadeter Märchenonkel bist, damit warte ich aber wohl noch... ;) :
"Eine relevante Einschränkung bestand darin, den Energiebedarf von 40 Megawatt (MW) nicht zu überschreiten. Fugaku kommt mit 28 MW aus. Zum Vergleich: Summit verbraucht nur 10 MW. Fugaku ist mindestens 2,8 Mal schneller. Im Hinblick auf die Energie-Effizienz tun sich die beiden Systeme erstaunlicherweise nichts."
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh