56 P-Cores am Limit: Der Intel Xeon w9-3495X im Test

Ich Frage mich immer was man mit 128 / 256 und noch 512 GB Riegel anfangen möchte. Jeder Server den ich so kenne läuft als Knoten maximal mit 128 - 256 GB bei 16 Dimms, auch bei den aktuellen Supercomputern. Knoten mit 512 GB sind eher schon selten.
Es kommt halt drauf an in welchem Bereich du tätig bist. Ich kenne mehr als nur eine Workstation die 128+ GB RAM. Arbeite selbst an einer. Server mit 32 Kernen und bis zu 1 TB RAM, sind oft im Bereich Virtuelle Maschinen eher dir Regel als die Ausnahme. Zu mindestens dort wo ich unterwegs bin.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es kommt halt drauf an in welchem Bereich du tätig bist. Ich kenne mehr als nur eine Workstation die 128+ GB RAM. Arbeite selbst an einer. Server mit 32 Kernen und bis zu 1 TB RAM, sind oft im Bereich Virtuelle Maschinen eher dir Regel als die Ausnahme. Zu mindestens dort wo ich unterwegs bin.

Gut als Workstation bzw. kleine Servereinheiten kann das scon sein, ist das aber nicht altmodisch? Und selbst Da kommt man mit 64 GB Riegel locker auf die 1 TB RAM. Ich kenne halt nur Knoten die zu einen HPC Cluster verbunden werden, bis hin zu Supercomputer und diese haben pro Knoten nie mehr als 256 GB, weil man im Cluster eh gigantische Speicherkapazitäten erreicht. Könnte mir gut vorstellen die 128 bis 512 GB Riegel sind bestimmt gute Ladenhüter.

Dann kennst Du ganz einfach keine Server für Anwendungen die so viel RAM brauchen bzw. eben von so viel RAM profitieren, was aber nicht bedeutet, dass es diese nicht gibt.

Stimmt, das finde ich aber altmodisch. HPC Cluster = enorme Rechenleistung + gewaltige Speicherkapazitäten, da tuen es auch die 32 GB Riegel.
 
Wobei ich aber auch mal abwarten würde, wie die Leistungsaufnahme, gerade im Idle, bei den OEM Workstations sein wird, denn hier wurde ja nun ein Mainboard für Extrem Übertakter genommen (welches auch beim dem OC Rekord benutzt wurde) und die sind selten auf Effizienz oder Idle Leistungsaufnahme optimiert. Wie viel die BIOS Einstellungen gerade bei der Idle Leistungsaufnahme ausmachen können, sieht man ja gut im Review des 13900KS, wo der auf 6,2GHz übertaktetem KS im Idle 29,8 W statt 4,3W Package Power hatte und selbst die 4,2W des KS und des 13900K auf dem ASUS Mainboard im Review sind mehr als doppelt so viel wie mein 13900K auf meinem ASRock Z790 Steel Legend zieht.
Allerdings. Es würde mich zwar nicht wundern, wenn die Leistungsaufnahme nie so ganz wenig wird, aber deutlich weniger als 90 W geht bestimmt. (Ich wette, da war die Hälfte der üblichen Energiesparmechanismen deaktiviert.) Dann wäre auch die Skalierung bei reduzierten Powerlimits gleich deutlich besser. Wenn bei Begrenzung auf 150 W nur noch knapp 60 W für die Cores übrigbleiben, dann ist das gerade 1 W pro Kern, was soll da schon bei rumkommen unter Last?

Witzig finde ich ja, wie ein aufgemotzter NH-U14S (mit größerer Kontaktfläche und 2 Lüftern) noch mit ~600 Watt klarkommt, während bei gewöhnlichen Desktop-CPUs weniger als die Hälfte kritisch wird. Eine bessere Demonstration, wie wichtig der Wärmeübergang ist, gibt es fast nicht.
 
Könnte mir gut vorstellen die 128 bis 512 GB Riegel sind bestimmt gute Ladenhüter.
Das mag sein, aber gäbe es gar keine Kunden dafür, würde es sie auch nicht geben und für die Anwender die sowas brauchen, ist es dann ein Segen das es sie gibt. Ob wir diese Anwender oder deren Anwendungen kennen, ändert daran nichts!

Es würde mich zwar nicht wundern, wenn die Leistungsaufnahme nie so ganz wenig wird, aber deutlich weniger als 90 W geht bestimmt.
Mit der Idle Leistungsaufnahme eines 13900K der nicht komplett verkonfiguriert wurde, wird man bei weitem nicht erreichen, aber von den 90W in dem Test sollte noch einiges runter kommen, wenn man in diese Richtung optimiert. Schade das dies im Review nicht gemacht wurde.
Ich wette, da war die Hälfte der üblichen Energiesparmechanismen deaktiviert.
Davon gehe ich aus. denn das verwendete Mainboard ist eben für Enthusiasten und darunter verstehen die Hersteller eben immer Leute die Höchstleistung wollen und denen die Leistungsaufnahme dafür egal ist. Für solche Leute ist auch die Nutzung des Boards beim Extrem-OC mit 1900W dann ein Kaufargument und daher sollte es nicht wundern, wenn Energiesparen da gar nicht im Lastenheft steht. Das Aktivieren von Energiesparzuständen kostet immer Performance, da es es eben immer eine Latenz beim Verlassen dieser Energiesparzuständen gibt.
Eine bessere Demonstration, wie wichtig der Wärmeübergang ist, gibt es fast nicht.
Ja, wobei such der eben aus der großen Chipfläche ergibt über die die Wärme verteilt anfällt, eben weil sich die Leistungsaufnahme auf die Kerne (und den Unscore Bereich) verteilt und bei so vielen Kernen pro Kern nicht so viel übrig bleibt. Es dürfte beim Lesen gestaunt haben, dass man so eine Leistungsaufnahme noch mit Luft kühlen kann.
 
Danke für den Test- Bericht. Guter Ansatz von Intel. Man darf halt nicht den Zug verpassen, um vorn Voll dabei zu sein.
Trotzdem- wenn Intel es nicht verkaufen kann- würden Intel es nicht herstellen. mfg Harry
 
Das ganze Thema ist / soll übrigens auch heute noch auftauchen (aktuelle Plattformen / Architekturen) und mehrere Herausforderungen mit sich bringen.

Daher scheint meine Frage für "größere Serversysteme" nicht veraltet gewesen zu sein (und höchstens bei aktuellen Workstations erst gar nicht auftauchen können , da die Anzahl DIMM Steckplätze einfach gar nicht erst vorhandenen sind / die Limitierungen erst gar nicht auftauchen können). Dazu kommt, dass 2 Sockel WS / Server Hybride wie mein ASUS Z10PE-D16 WS aktuell eher nicht mehr anzutreffen sind. Das kann sich aber auch wieder ändern, wenn AMD Intel dazu zwingen sollte (bzw. die OEMs können es ja eh und die Board Hersteller selbst werden das dann vielleicht in Zukunft auch wieder mal umsetzen).


- Gehäuse Spezifikationen würden so tatsächlich schon nicht mehr eingehalten werden.
- Herausforderung bei der Kühlung.
- Herausforderung bei der Signalwege, Verkabelung und Design der Platinen Layouts .

Entweder muss man vorerst mit der geringeren Bandbreite (wie z.B. ich selbst) oder halt der geringeren Kapazitäten des RAMs leben.

Artikel dazu (ich mache wirklich keine Werbung für die, aber die haben nun mal aktuelle Artikel und Informationen aus dem Server Bereich dazu ^^) : https://www.servethehome.com/why-2-dimms-per-channel-will-matter-less-in-servers/

Auszug: (ihr solltet das trotzdem da mal lesen, da dies für die nächsten Generationen bestimmt umgesetzt werden könnte):

1-8 DIMMs, the theoretical bandwidth is similar between AMD and Intel

- 9-12 DIMMs populated, and Intel increases capacity but lowers bandwidth. AMD increases both capacity and bandwidth.

- 13-16 DIMMs, both Intel and AMD increase -capacity at lower 2DPC memory speeds

- 17-24 DIMMs, AMD continues to add capacity at the lower 2DPC memory speeds


Der nächste heiße Scheiß soll die Ram Anbindung über PCIe (CXL) realisieren, um die Herausforderungen (Speicher Controller) dazu umgehen zu können.

Manche Hersteller haben da laut Artikel schon einiges kreatives designt oder OEMs dazu Anpassungen ausgeführt, um die Bandbreite bei der Anzahl DIMM Steckplätze (Kapazität! ) nicht verringern zu müssen..

Und ja, all diese Dinge sind nun mal halt in der Virtualisierung interessant.

Ich könnte mir persönlich vorstellen, dass mit vielen kleineren Nodes (ohne HCI Ansatz) die Ausfallwahrscheinlichkeit eines Knoten im Gegensatz zu größeren (aber weniger Nodes) steigen könnte.

Der Arbeitsspeicher wird (bis auf Microservices oder kleinere Linux VMs) bei Windows VMs immer weiter steigen (Zumindestens kann man das schon länger feststellen) und bestimmte Applikationen arbeiten einfach performanter (damit meine ich noch nicht mal DBs, SAP oder IIS Pools) mit mehr vRam pro vCore.

Selbst unaufgeregte Terminal Server fressen immer mehr VRam und vCPUs, weil die User da vermehrt auf Browserbasierte Webapplikationen (als Client Software Ersatz) zugreifen müssen.

Zu den Artikel bei HWLuxx:
PS. Sehe die CPUs in Bezug Wärmeverteilung (inkl. des Comebacks der integrierten Spannungsversorung innerhalb der CPUs) auch als großes Plus an.
Selbst AMD ist da aktuell wieder aktiv dran, dies auch für die nächsten Shrinks umzusetzen.
Das hat halt Vorteile.
 
Zuletzt bearbeitet:
Der Artikel ist falsch und daher Mist, denn dort steht:
The simple math behind these two 32x DIMM configurations is:

32 DIMMs for 2 CPUs
2 CPUs each have 16 DIMM slots
Each CPU has 8 memory channels
Der letzte Satz ist falsch, da die AMD EPYC 9004 “Genoa” CPUs nämlich 12 RAM Channels haben, während die Xeons nur 8 besitzten und nur deswegen kann AMD bei 9 bis 12 DIMM Bestückung auch noch bei der Bandbreite zulegen, eben weil da bei 12 dann alle RAM Channels mit einem DIMM bestückt sind. Bei beiden Systemen mit bei 2DPC der RAM Takt gesenkt werden, aber 2DPC sind bei AMD eben erst ab 13 DIMMs unumgänglich, bei Intel aber schon am dem 9. DIMM. Aber wer nicht wirklich so sehr viel RAM braucht, kann ggf. durch die Nutzung von Riegeln mit mehr Kapazität ja die 2DPC umgehen, wesalb diese ggf. schon Sinn machen.
 
Keine Ahnung wo das im Artikel (so alleine, für sich gestellt ohne weiteren Bezug!) so vorkommt, aber ich lese den Artikel so, dass die Größe des Board Layouts (CPU Sockel Größe, Anzahl DIMMs bei 2 Sockel, PCIe Steckplätze usw.), das einfach (meistens) aufgrund der Gehäuse Limitierung nicht allzu häufig zulässt / zugelassen hat und damit einfach praktisch sehr selten bis gar nicht anzutreffen war / ist.

Die erwähnen ja meist nur Beispiele, die OEMs können ja augenscheinlich schon ziemlich viel umgehen (den neuen Microsoft Azure Server könnten die gerne mal inkl. Netzwerk Infrastruktur bei mir kostenfrei zuhause abladen... ^^) .

Das Zitat ist aus dem Artikel:

For AMD EPYC 9004 “Genoa” we continue to increase to 12x memory channels. Going to 13 means we head off the 2DPC cliff and to a 16.7% lower plateau. That 16.7% lower plateau is higher than where Intel is because there are 50% more memory channels.

"One may read the above, and assume that AMD is clearly better: but there is a catch. Sometimes what one can theoretically add to a platform and what one can physically add are different. Not all motherboards support 16 or 24 DIMMs per CPU. Some, even support less."

An example is the ASRock Rack GENOAD8UD-2T/X550 we reviewed that due to form factor constraints only has 8 of the 24 possible DIMM slots.


Oder lese ich das bei meinen eher schlechten Englisch falsch raus?

Eigentlich auch gar nicht so wichtig, interessanter finde ich dann die PCIe / CXL Zukunft...(wahrscheinlich mit zusätzlichen HBM2e als zeitlichen Workarounds bis dahin, ähnlich wie aktuell Intel Optane Speicher). 😉
 
Zuletzt bearbeitet:
An example is the ASRock Rack GENOAD8UD-2T/X550 we reviewed that due to form factor constraints only has 8 of the 24 possible DIMM slots.
Mit dem Mainboard kann man dann auch nur 8 der 12 vorhandenen RAM Channels nutzen und nur als 1DPC. Platz ist eben ein Problem wenn es einmal immer größere CPUs und damit Sockel und zum anderen auch noch immer mehr RAM Channels gibt, von immer mehr PCIe Lanes gar nicht zu reden, die ja auch an Slot oder anderen Stecker gebracht werden müssen, wenn sie Sinn machen sollen.

Eigentlich auch gar nicht so wichtig, interessanter finde ich dann die PCIe / CXL Zukunft...(wahrscheinlich mit zusätzlichen HBM2e als zeitlichen Workarounds bis dahin, ähnlich wie aktuell Intel Optane Speicher).
Vergiss PCIe / CXL für RAM, dies wird wegen der hohen Latenzen immer viel langsamer sein als lokal angebundenes RAM. Optane ist von Intel eingestellt worden, leider mag man sagen, aber dabei gibt es nicht um die Geschwindigkeit, da waren die RAM Module DRAM nämlich unterlegen, sondern vor allem um die maximale Kapazität und die wird mit DDR5 auch so 512GB erreichen, was auch bei denne mit Optane das Limit war. HBM dürfte bei Intel auch nur eine Zwischenlösung gewesen sein, MCR dürfte erstmal die direkte Zukunft sein:
Aber das hatte ich doch schon im Post #44 geschrieben.
 
Das sind NVMes auch, und werden trotzdem effektiv als Cache genutzt (zumindest bei unseren HCI Datacenter Clustern sowohl als auch für Hot Data inkl. Ram. Live Migrationen / Failover Migrationen auf anderen Hosts oder andern Cluster sind so schnell, dass selbst die Ping Verluste sich maximal - wenn überhaupt im Bereich von 2-5 Sekunden halten Das Monitoring / Kunden merken das bisher nicht).

Laut neusten Berichten zieht sich Intel aus der Server Eigenentwicklung zurück und verkauft die Sparte.

Ich denke mal, lass uns einfach mal abwarten, was die HPC Sparte demnächst mit den GPU Beschleunigern für ULM in Bezug auf HBM2 Speicher alles so anstellt (direkte Zugriffe für CPU und DRAM demnächst möglich).

Da kommt noch einiges spannendes und neue Ansätze auf uns zu, welche dann später auch für die WS Sparte / den Mainstream interessant werden können.

AMD ist / wird offensichtlich aufgrund der Auslagerung der Fertigung an Intel davon gezogen (selbst im Enterprise / HPC Segment) sein.

Nur im Patent Bereich hat sich Intel noch einige Technologien einverleibt (analog zu Nvidia Firmen geschluckt), wo es um die Anbindung im HPC Segment geht.
Wenn die Auslaufen und Intel in der Fertigung immer noch 2 - 3 Generationen hinterher sind, wird es so langsam duster (da wird Intel doch glatt mal der Spiegel vorgehalten).

Wird uns nicht schmecken (wir erinnern uns doch alle noch, was Intel ohne starke Konkurrenz getan hat? 4 Cores Stagnierung im Mainstream für Jahre etc...).
 
Zuletzt bearbeitet:
Der Artikel ist falsch und daher Mist, denn dort steht: INTELREFERENZ.

Der letzte Satz ist falsch, da die AMD EPYC 9004 “Genoa” CPUs nämlich 12 RAM Channels haben, während die Xeons nur 8 besitzten

Mal wieder den standard-stupiden holtschen Blödsinn dahergesabbelt.

Der Artikel ist nicht falsch, du bist nur nicht in der Lage, ihn korrekt zu verstehen.

Das Zitat bezog sich nicht wie von dir fälschlicherweise verstanden auf AMDs Genoa, sondern auf Intel:

Here is an example of a newer Supermicro SYS-221H-TNR 4th Gen Intel Xeon Scalable “Sapphire Rapids” server. Here we can also see 32 DIMM slots, but only the Blue slots have DDR5 memory modules installed. The black DDR5 slots are unpopulated. This is a one DIMM per channel or 1DPC configuration.

The simple math behind these two 32x DIMM configurations is:
  • 32 DIMMs for 2 CPUs
  • 2 CPUs each have 16 DIMM slots
  • Each CPU has 8 memory channels
  • So there are 2 DIMM slots per channel x 8 channels x 2 CPUs = 32 DIMMs

Aber Hauptsache erstmal dumm drauf losgeholzt. Typisch.

Beitrag automatisch zusammengeführt:

Keine Ahnung wo das im Artikel (so alleine, für sich gestellt ohne weiteren Bezug!) so vorkommt,

Kommt es nicht. Er hat's nur vercheckt,
 
Zuletzt bearbeitet:
Vielleicht noch bezüglich des HWLuxx Artikels und des erhöhten Strombedarfs der Plattform (welcher ja leider nicht genau differenziert wurde, bis auf das 94 Watt das CPU Package verbraten soll und 140 Watt die gesamte Plattform - mit welchen BIOS Settings? ) :

Falls HWinfo bei mir nicht lügt, fressen bei mir die Anzahl DIMMs eigentlich 50 % des Stromverbrauchs der gesamten Plattform im idle (Idle, Balanced im BIOS inkl. EIST aktiviert und Windows 11 Balanced Profil, kein Standby / kein Hybrid Standby, Ram to Disk reduziert, normaler Autostart mit massig Hintergrund Apps etc. - also auf dem Desktop) !

Die SSDs, HDDs , NICs, PCIe Karten mal außen vor gelassen (soweit es geht).
Ich habe natürlich noch 12 Lüfter, Fan Controller, Optisches Laufwerk, Licht, Soundkarten etc... Die werden ggfls. teilweise (leider) noch mal beim Board dazu gezählt / ausgelesen.

Die CPUs und vor allem das Board, sind da eher weniger die ausschlaggebenden Komponenten (wenn die CPUs nicht gerade unter Last sind).

Wie sieht das bei euch aus?
@Kullberg oder andere Kollegen mit WS / Servern?
Oder nutzt ihr Linux / Unix oder direkt einen Hypervisor?

Mein X99 Sockel / C612 Chipsatz ist natürlich etwas älter / angestaubt (8 Jahre).

Je nach Generation und Takt der beiden CPUs (Intel Xeon E5-2699 v3 vs Intel Xeon E5-2699C v4) im idle (Windows) oder Teillast (Zocken, CPU 4K Video Konvertierung) oder Vollast (alles zusammen inkl. VMs) dreht sich das dann nur unter Voll - Last.
 
Zuletzt bearbeitet:
Laut neusten Berichten zieht sich Intel aus der Server Eigenentwicklung zurück und verkauft die Sparte.
Dazu gibt es hier diese News:

Die Überschrift ist wirklich sehr gut, denn es geht nur im den Bau der Server Rechner, nicht um Server CPUs!

Die CPUs und vor allem das Board, sind da eher weniger die ausschlaggebenden Komponenten (wenn die CPUs nicht gerade unter Last sind).
Da das BIOS und seine Einstellungen ja auch zum Mainboard gehören, würde ich das so nicht stehen lassen wollen, denn die BIOS Einstellungen haben ja eine massive Auswirkung auf die Leistungsaufnahme, im Idle wie unter Last. Bei letzterem sind es vor allem die Power Limits, bei erstem die Energiesparzustände, aber auch Onboard Controller / NICs, die man ja meist im BIOS auch deaktivieren deaktivieren kann und sonst auch teils gar nicht so wenig Leistungsaufnahme erzeugen. Die paar Watt der Controller spielen natürlich gegenüber dem was die CPU unter Last braucht, von Grakas wollen wir man gar nicht anfangen, natürlich keine große Rolle mehr.
 
Jau, war schon spät.

Nicht sehr glücklich von mir ausgedrückt.
Intel baut keine Referenzsysteme mehr bzw. zieht sich aus diesem Bereich zurück.

Eher prestige trächtig, hat eher keine Auswirkungen.
Das Intel auch nicht weiter in die weitere Forschung im Bereich RISC-V investiert, ist schade.

Dafür machen sie immerhin mit ARM weiter.

Die werden natürlich trotzdem mit Tyan dann zusammen arbeiten.


Das das Board Einfluss nimmt ist völlig korrekt, auch die Einstellungen der Firmware (BIOS) und die dort hinterlegten Einstellungen und die Möglichkeiten der Konfiguration.

Jedoch auch das Betriebssystem (Linux ist da z.B. sehr anpassungsfähig) / die Sheduler spielen da auch noch rein.

Interessant wären für mich auch nur Idle Werte (Standard und optimiert).

Teil-Last Zustände sind auch noch interessant.

Voll-Last schon eher weniger, da es meist am PowerLimit des CPU Packages hängt (welches man natürlich trotzdem in dem BIOS konfigurieren könnte).

Bei Interesse kann ich es bei mir mal auslesen mit mehreren Einstellungen und hochladen.

Als Vergleich zu 8 - 10 Jahren neueren Plattformen, wäre ein Vergleich für mich persönlich schon interessant.
Auch jeder Hersteller der Boards / Serien und Chipsätze werden da andere Standard Einstellungen besitzen.

PS. Selbst wenn sich deine Vermutung als korrekt erweisen sollte, scheint das bezüglich CXL / PCIe in Bezug auf die Latenzen nicht wirklich bemerkbar zu machen, das ja auch EDSFF ähnlich funktioniert.
PCIe Gen 5 und 6 werden es dann aufzeigen, wo die Reise hingehen wird.

Älterere Artikel dazu:


Auszug zum ersten Artikel (Demo 2022):

At SC22, QCT was showing this setup and that the system was running at around 95% the performance of locally attached DDR5 in the 4th Gen Intel Xeon platform.




Die größere Kühlfläche wird schon länger benötigt (Seit PCIe 4.0 & PCIe 5.0), da der M.2 und 2, 5 Zoll Formfaktor zu wenig Kühlfläche bietet (die NVMe PCIe Cards mal ausgenommen).
 
Zuletzt bearbeitet:
Eher prestige trächtig, hat eher keine Auswirkungen.
Lies mal was ich in dem Thread zu der News geschrieben habe, denn ich glaube es hat wohl leider doch Auswirkungen.
Interessant wären für mich auch nur Idle Werte (Standard und optimiert).
Standard für dieses eine ASUS Mainboard haben wir ja, aber der Wert auf anderen Mainboards wäre schon interessant und natürlich wie weit sich die Idle Package Power jeweils durch Optimierungen reduzieren lässt.
Teil-Last Zustände sind auch noch interessant.
Das hängt natürlich sehr davon ab was man unter Teillast versteht, aber bei Office und ein wenig Surfen entsteht kaum eine nennenswerte CPU Auslastung und damit ist die Leistungsaufnahme dann kaum höher als im Idle.
 
Dann lies du gerne mal meinen Comment zu der News.


Die aktuellen Entwicklungen bei Intel sind mehr als verständlich und werden durch die letzten vorbeugenden Aktionen wie das Abstoßen von Sparten und Forschung in den Bereichen / Deals / Partnerschaften / Unterstützung durch EU Förderung bei Intel die Löcher füllen können und den Aktienkurs kurz - bis mittelfristig beruhigen.

Ob das wirklich so große Auswirkungen besitzt, kann man vorerst gar nicht genau wissen oder beurteilen. Das werden die nächsten Jahre erst aufzeigen können.

Strategisch ist es ein cleverer Schachzug von Intel.

Auf lange Sicht, werden wir sehen, ob die Strategie aufgeht oder nicht.

Was ich oben mit "Prestige" Auswirkungen meinte, betrifft die Supercomputer / HPC Sparte.
Dort wird angesagt, welcher Hersteller was genau leisten kann.
Das hat weitaus mehr praktische Auswirkungen auf das Enterprise Business als man ggfls. zuerst annimmt.
AMD hat seit der Zen Architektur die Anzahl im Top Ranking verdoppeln können und Intel muss sich auch NVIDIA (dank Übernahmen z.B. von Mellanox für schlanke / schlappe 7 Milliarden US Dollar) dort seit längerer Zeit geschlagen geben.

Das sind die wahren Gründe für die Probleme von Intel und deren Handeln.
Warum sollte die es auch weiterhin versuchen? Den Krieg können die seit Jahren schon nicht mehr gewinnen.
Also schnappt man der Konkurrenz lieber andere Segmente Mithilfe der Partnerschaft zu ARM weg, um sich zu sanieren und wieder danach forschen zu können mit frischer und sanierter Haushaltskasse.



Ansonten Bezug nehmend auf deine vorigen Anmerkungen:

Teillast beschreibt für mich die Auslastung bis zu 50 % der Cores (bei mir in der CPU Video Konvertierung der Fall).

Desktop, Office (bis auf Excel, Teams und deren Konnektoren für PowerApps und Co) Youtube oder Browsing ist im WS Bereich eher Idle für mich.

Ab zocken (1 bis 8 Cores auch wirklich voll ausgelastet bzw. auf noch mehr Cores verteilt - je nach Sheduler / Engine) gehe ich auch schon eher mit, das dies Teillast wäre.


Als Vergleich, müsste man den Takt der zu vergleichenden CPUs normalisieren (2 GHz Server CPUs und 3 GHz Workstations CPUs ).
Dann hätte man auch eine gute Basis, die Plattformen und CPUs zu vergleichen. Ansonten geht das nicht (rational).

Laut des nachfolgenden Artikels, könnten bei den Saphire Rapids schon noch Energie gespart werden:


"Power Mode” to its Sapphire Rapids Xeon Scalable processors, which the company claims can reduce per-socket power consumption by as much as 20 percent, in exchange for a performance hit of roughly 5 percent.

According to Intel Fellow Mohan Kumar, the power management feature is particularly effective in scenarios where the CPUs are only running at 30-40 percent utilization. With Optimized Power Mode enabled, he says customers can expect to see a 140W reduction in power consumption on a dual socket system."

Also sollen da angeblich 60 Watt rauszuholen zu sein... Gilt aber wahrscheinlich (leider) nur für die Server CPUs und nicht den Workstations CPUs?


Ansonsten lese dir gerne mal die Artikel zu CXL / PCIe durch. Die Latenzen werden hier auf lange Sicht kein Hindernis darstellen.
Eher die Einführung / Implementierung mit den Partnern. Das dauert einfach lange und kostet Geld, was Intel aktuell einfach nicht (mehr alleine) aufbringen kann / möchte.
Ggfls. wird das dann noch ein Partner übernehmen anstatt Intel selbst.


Nach diesem Artikel könntest du mit deiner Vermutung aber Recht behalten, dass Intel ab Granite Rapids Mithilfe von SK Hynix auf Multiplexer Combined Rank (MCR) memory wechseln möchte / wird (Siehe Anhang).


Im selben Zuge sollte die Partnerschaft mit ARM dafür sorgen, dass die anvisierte Roadmap inkl. wechsel zu reinen E-Cores im HPC Segment Marktanteile zurück gewinnen werden können (Siehe Anhang).

Ob das dann 2024 / 2025 auch mal besser klappt als mit Saphire Rapids, wird sich dann zeigen...
Schlechter kann es fast schon nicht mehr laufen. 😂

HBM2e wäre (wahrscheinlich) trotzdem die beste Lösung gewesen. Aber wenn es halt Lieferschwierigkeiten gibt, ist DDR5 mit 8000 MT/s halt eine schöne Umgehung.
Vielleicht für andere mal als Gefühl zur Einheit von MT/s ~ MT/s ist die Abkürzung für Mega- (oder Millionen-)Übertragungen pro Sekunde!
Als Zahl: 1.008.000 (Millionen) Übertragungen pro Sekunde! 😵

Da kann man aber auch erst mal abwarten, ob die Leistung auch überhaupt später realisiert werden kann (nur 4 DIMMs mit der Peak Leistung read / write auszuwerten, ist da halt noch ein cherry picker Benchmark) .

Für 2025 sollten wir uns bereit halten und ggfls. neue Anschaffungen (falls bis dahin nicht nötig) noch zurückstellen.
Das könnte ein schöner Kampf werden.
Selbst Intel möchte da 128 Cores (im HPC Segment) ankündigen. Vielleicht sehen wir da auch schon PCIe 6.0 inkl. neuen Formfaktoren für NVMe ... Wer weiß.

@dbode: (Herr Schilling)
Können Sie bei Intel dazu noch ein wenig Hintergrundmaterial erhalten?
Auch ein Nachtest, ob die Energieoptionen (angeblich) wirklich 60 Watt beim CPU Package herausholen können wären wirklich interessant zu erfahren!
 

Anhänge

  • intel-dcai-compute-engine-roadmap.jpg
    intel-dcai-compute-engine-roadmap.jpg
    68 KB · Aufrufe: 59
  • intel-dcai-granite-rapids-mcr-ddr5.jpg
    intel-dcai-granite-rapids-mcr-ddr5.jpg
    40,8 KB · Aufrufe: 54
Zuletzt bearbeitet:
Gut als Workstation bzw. kleine Servereinheiten kann das scon sein, ist das aber nicht altmodisch? Und selbst Da kommt man mit 64 GB Riegel locker auf die 1 TB RAM. Ich kenne halt nur Knoten die zu einen HPC Cluster verbunden werden, bis hin zu Supercomputer und diese haben pro Knoten nie mehr als 256 GB, weil man im Cluster eh gigantische Speicherkapazitäten erreicht. Könnte mir gut vorstellen die 128 bis 512 GB Riegel sind bestimmt gute Ladenhüter.
Es kommt immer darauf an was du machst und wie gut deine Software die Hardwareressourcen nutzen kann.
Bei DDR4 gebe ich dir recht. Dort waren 128 GB und 256 GB Riegel sehr selten und deswegen auch sehr teuer. Größer gab es nur mit dem langsamen PMM. Bei DDR5 denke ich mal wird sich das etwas ändern. Dort soll 512 GB das Maximum sein.

Bei WS wird nicht nach dem Verbrauch gefragt, sondern nur durch gerechnet, ab wann man mit ihnen Geld verdient. Verbrauch ist im HPC Bereich interessant, da dort die Anlagen im MW Bereich sind was den Verbrauch angeht. Es ist normal das dort die CPU nochmal runtergetaktet werden. Man verliert Leistung um die Effizienz zu erhöhen. Frontier hat 64 Core Epycs die nur mit max. 2 Ghz laufen, obwohl 3.67 Ghz möglich wären. Und das denke ich wird einer der Hintergründe sein, warum Intel im Server Bereich E-Cores anbieten wird. Mich würde es nicht wundern wen AMD bald folgt.

Die High Core CPUs sind ebenfalls, oft nur für den Bereich HPC interessant. Weil du dort viel Platz sparen kannst.
Frontier 8.73 mil Cores, braucht 72 Server Cabinets
Summit 2.41 mil Cores, braucht 256 Server Cabinets

ARM und Intel arbeiten zusammen damit ARM Chips mit Intels A18 Prozess produziert werden können. Das heißt Intel wird auch Auftragsfertiger.

Ich denke nicht das Intel so viel schlechter als AMD ist. Mit den Beschleuniger Kernen in der aktuellen Xeon Generation, denke ich das Intel sogar eher vorne ist. AMD dagegen scheint mehr darauf aus zu sein Pressemitteilungen zu generieren. Interessant ist wieviele Xeon Server CPUs und für welche Bereiche, Intel anbietet. Da gegen ist das Portfolio von AMD beim Milan, eher mau.

CPU werden sich in den nächsten 10 Jahren drastisch verändern, da man erstens nicht mehr so viel kleiner werden kann. Auch werden sie nicht viel schneller werden. Die Core Anzahl wird zwar noch steigen, aber auch da gibt es Limits. Des wegen liegt im Moment der Fokus sehr auf Energie Effizienz pro Core. Es wäre schön wen ein 3 Ghz Core nur 1 Watt bei max Last braucht. Hast du aber 500 Cores in einer CPU brauchst du trotzdem 500 Watt. Von daher, bleibt es Spannend.
 
Es kommt immer darauf an was du machst und wie gut deine Software die Hardwareressourcen nutzen kann.
Das hängt ja davon ab was die Software macht. Muss sie z.B. auf einer eher kleinen Datenmenge aufwendige Berechnungen durchführen und verarbeitet dann die nächste, ist der RAM Durchsatz nicht so wichtig, dafür wird man aber vermutlich auch nicht so viel RAM brauchen, da ein Durchlauf sonst sehr lange dauern würde. Das wäre sowas wie Cinebench und die CPU Performance ist dann Trumpf. Werden aber nur kurz Berechnungen, vielleicht nur einfache Vergleiche ausgeführt, so ist der RAM Durchsatz entscheidend, man braucht dann zwar nicht unbedingt extrem viele Kerne, mehr als man mit Daten füttern kann bringen dann auch keinen Vorteil, aber dafür kann man dann umso mehr RAM sinnvoll nutzen, je besser der RAM Durchsatz ist.

Und das denke ich wird einer der Hintergründe sein, warum Intel im Server Bereich E-Cores anbieten wird. Mich würde es nicht wundern wen AMD bald folgt.
AMD hat aber seit Zen keine alternativen Architektur mehr, wie früher mit den Katzen, sondern variiert die Größe des L3 Caches und spart damit Platz auf dem Die um mehr Kerne zu ermöglichen oder packt eben extra V-Cache auf die Dies.

ARM und Intel arbeiten zusammen damit ARM Chips mit Intels A18 Prozess produziert werden können. Das heißt Intel wird auch Auftragsfertiger.
Intel und ARM haben also schon eine lange Geschichte zusammen und Intel hat in der Vergangenheit auch schon ARM CPUs entwickelt und gefertigt! So haben Intel und ARM seit 1998 ein License Agreement und wer die Geschichte von ARM kennt, der weiß auch wieso.

ARM hatte in den 90er sein Befehlssatz an DEC (Digital Equipment Corporation ) lizensiert, die dann ihre eigene CPU, den Strong ARM entwickelt haben und dazu haben sie die Testsuite von ARM lizensiert, was auch ein wichtiger Teil der CPU Entwicklung ist, nämlich die Validierung um zu schauen ob die CPU auch alles richtig macht. DEC hat da eine gute FPU integriert, die waren damals der zweitgrößter Computerhersteller hinter IBM und hatten ihre ersten CPUs schon in der Zeit entwickelt, also man CPUs noch mit diskreten Transistoren aufgebaut hat. 1997 hat Intel dann die Halbleiterabteilung von DEC übernommen, zusammen mit den Rechten an StrongARM. Intel war an der Entwicklung des SA-1100 beteiligt und hat ihn auch gefertigt, eben in der ehemaligen DEC Fab und weiterentwickelt, woraus die Intel XScale Prozessoren wurden, die ARM v5 CPUs waren. 2006 hat Intel diese Sparte dann für 600 Mio an Marvell verkauft.

Intel war also schon Foundry für ARM CPUs und hatte schon selbst welche im Angebot. Das wirklich interessante an der neuerlichen Zusammenarbeit ist aber, dass Intel mit dem 18A Prozess wieder den führenden Fertigungsprozess haben wird, wenn es nach Intel Zeitplan geht, eine Position die sie lange inne hatten und nur wegen der Probleme mit dem 10nm Prozess verloren haben. Laut Intel liegen sie im Zeitplan und wenn ARM sich nun dazu entschließt diesen Prozess nutzen zu wollen, dann dürfte auch ARM davon überzeugt sein, dass des Sache gut aussieht und deren Design werden ja auch bei TSMC und Samsung gefertigt, die dürften also wissen wie es bei denen aussieht und die Lage schon recht gut einschätzen können. Aber vielleicht ist es auch nur die Sicherheitsoption aufgrund der geopolitische Spannungen, denn Taiwan und Südkorea haben ja Nachbarn die immer lauter mit dem Säbel rasseln und was nutzt eine Fab mit dem besten Fertigungsprozess, wenn sie in Trümmern liegt.
 
AMD hat aber seit Zen keine alternativen Architektur mehr, wie früher mit den Katzen, sondern variiert die Größe des L3 Caches und spart damit Platz auf dem Die um mehr Kerne zu ermöglichen oder packt eben extra V-Cache auf die Dies.
Diese kann man Entwickeln, aber ich denke nicht, dass AMD die Kapazitäten im Moment dazu hat. Klar ein großer L3 Cache, wir sind da ja schon im GB Bereich, ist immer gut. Auch mehr Kerne, wenn die Software sie auch nutzen kann. Aber es gibt halt Limits. Von daher wie oben schon gesagt, muss AMD auf die zukünftigen E-Core Xeons mit E-Core Epyc oder ähnlich reagieren. Denn eine runter getaktete CPU wird nie so Effizient sein wie eine von Anfang an drauf ausgelegte CPU. Und letzteres, denke ich, werden die E-Core Xeons sein. Auch wird AMD auf irgend eine Art und Weise, wie Intel, integrierte Beschleuniger bringen müssen. Hoffentlich ohne extra Preis zum freischalten, wie bei Intel.
 
Klar ein großer L3 Cache, wir sind da ja schon im GB Bereich, ist immer gut.
Nein, denn mehr L3 Cache braucht mehr Platz oder ein extra Die welches oben aufgebracht werden muss, wie es bei den 3D CPUs von AMD gemacht wird und was vermutlich der Grund sein dürfte, warum man einen 5800X3D nicht Allcore übertakten kann. Dazu braucht mehr Cache auch mehr Strom und wenn die SW ihn nicht nutzen kann, denn bringt es gar nichts, sondern wegen des ggf. geringeren Taktes um die zusätzliche Leistungsaufnahme zu kompensieren, sogar weniger Leistung.
 
Nein, denn mehr L3 Cache braucht mehr Platz oder ein extra Die welches oben aufgebracht werden muss, wie es bei den 3D CPUs von AMD gemacht wird und was vermutlich der Grund sein dürfte, warum man einen 5800X3D nicht Allcore übertakten kann. Dazu braucht mehr Cache auch mehr Strom und wenn die SW ihn nicht nutzen kann, denn bringt es gar nichts, sondern wegen des ggf. geringeren Taktes um die zusätzliche Leistungsaufnahme zu kompensieren, sogar weniger Leistung.
Stimmt genau. Es ist extrem von der Anwendung abhängig, ob der Cache etwas (teilweise sehr viel) oder nichts bringt.
Ich hab das bei Schach ausprobiert. Beim KI Programm lc0 ist ein 5800X3D merklich langsamer als ein 5800X. Die Berechnungen dabei laufen auf Grakas mit CUDA, die CPU hat allerdings deutlichen Einfluss, wenn auf im RAM abgelegte Daten zurückgegriffen werden muss. Bei Stockfish, das auf CPU Cores läuft, ist ein 5800X3D ziemlich genau gleich schnell wie ein 5800X. Das war aber nur ein Test - real läuft das Programm bei mir auf Threadrippern und EPYCs. Von daher werde ich mir weder einen 7800X3D noch EPYCs 7773X zulegen.
 
Ja, denn HEDT ist tot, die Mainstream Plattformen bieten inzwischen so viel CPU Performance und PCIe Lanes, beim Z790 sind es auch 20 direkt von der CPU und bis zu 28 vom Chipsatz und damit so viele wie man auch maximal bei X99 hatte, nur waren da dann 40 von der CPU.
Praktisch sind die PCI Lanes vom Chipsatz für die Nutzung von PCIe Slots für Erweiterungskarten nutzlos. Die Lanes werden fast alle für interne Komponenten verbraucht. Zeige mal bitte praktisch ein Z790 Board, wo Du mit 32 Lanes für 2x16 PCIe nutzen kannst.
Ich bin mal alle Boards durchgegangen, die können alle nur Kombinationen, nur mal die teuersten ersten 3 hier gezeigt):

MSI MEG Z790 Godlike (das teuerste mit nur 2 PCIe-Slots!)
2x PCIe 5.0 x16 (1x x16, 1x x8),

GIGABYTE Z790 AORUS Tachyon
2x PCIe 5.0 x16 (1x x16, 1x x8), 1x PCIe 3.0 x16 (x4),

ASUS ROG Maximus Z790 Apex
2x PCIe 5.0 x16 (1x x16, 1x x8), 1x PCIe 4.0 x4, 1x PCIe 4.0 x1,

Das ist absolut erbärmlich. Keines der Z690/790 Boards kommt hier an alte Boards wie mit X99 oder X299 ran. Daher irrst Du Dich total, HEDT ist bzgl. Erweiterbarkeit mit PCIe Slots noch lange nicht tot.

Man braucht sich nur mal einen Fall wie eine GPU für ML/DL mit PCIe 4.0 x16 + 4 x x4 Erweiterungskarte mit 4 PCIe SSDs vorstellen, schon sind 32 Lanes weg. Das kann man - Stand heute - mit keinem aktuellen Z690/Z790 Board so betreiben.

Einige CPUs sind bereits lieferbar, aber 1799 € für eine lieferbare w5-3435X ist doch etwas heftig, und der W5-2455X kann nur 4 RAM-Bänke, was auch blöde wäre. Mehr als 2000 € wollte ich eigentlich für den Wechsel von X299/i9-10920X ausgeben.
 
Zuletzt bearbeitet:
Praktisch sind die PCI Lanes vom Chipsatz für die Nutzung von PCIe Slots für Erweiterungskarten nutzlos. Die Lanes werden fast alle für interne Komponenten verbraucht. Zeige mal bitte praktisch ein Z790 Board, wo Du mit 32 Lanes für 2x16 PCIe nutzen kannst.
Wieso müssen PCIe Slots immer 16 Lanes haben? Dies wäre schon deswegen Blödsinn, weil der Chipsatz selbst ja nur mit 8 Lanes angebnden ist. Außerdem hat der Z790 selbst nur maximal 28 PCIe Lanes (im Downstream, die Lanes zur Anbindung an die CPU zählt Intel nicht mit), keine 32. Obendrein sind Muli-GPU Konfigurationen (wie SLI) für Gamer praktisch tot und die meisten PCIe Lanes werden heute für die Anbindung von M.2 SSDs verwendet.
Daher irrst Du Dich total, HEDT ist bzgl. Erweiterbarkeit mit PCIe Slots noch lange nicht tot.
HEDT ist tot, es gibt keine aktuelle HEDT Plattform oder CPU mehr! AMD hat nur noch die TR PRO und die sind Intels Xeon-W Workstation CPUs/Plattformen die man nebenbei auch ggf. noch übertakten kann, um auch diesen Bereich des HEDT Segments abzudecken, aber dies ändert nichts daran, dass es das Workstationsegment ist.

Man braucht sich nur mal einen Fall wie eine GPU für ML/DL mit PCIe 4.0 x16 + 4 x x4 Erweiterungskarte mit 4 PCIe SSDs vorstellen, schon sind 32 Lanes weg. Das kann man - Stand heute - mit keinem aktuellen Z690/Z790 Board so betreiben.
Keine Ahnung was ML/DL ist, aber eine GPU mit 16 PCIe (übrigens PCIe 5.0) Lanes und dazu 4 M.2 NVMe SSD mit PCIe 4.0 x4 kann ich auf meinem Z790 sehr wohl gleichzeitig betreiben, denn neben den bis zu 28 PCIe Lanes vom Chipsatz gibt es ja noch 20 direkt von der CPU. Klar mehr als eine Slot mit 16 Lanes bekommt man nicht, aber wer braucht dies heutzutage noch? Außer für GPU Computing wüsste ich da nichts und dafür ist eine Mainstream Plattform nun wirklich nicht gedacht.
 
Zuletzt bearbeitet:
Wieso müssen PCIe Slots immer 16 Lanes haben?
Mir gehts um die x16 Erweiterungskarten, wie diese typischen 4 x x4 PCIe NVMe SSDs Erweiterungskarten, oder sowas wie das X21 von Apex.
Dies wäre schon deswegen Blödsinn, weil der Chipsatz selbst ja nur mit 8 Lanes angebnden ist. Außerdem hat der Z790 selbst nur maximal 28 PCIe Lanes (im Downstream, die Lanes zur Anbindung an die CPU zählt Intel nicht mit), keine 32. Obendrein sind Muli-GPU Konfigurationen (wie SLI) für Gamer praktisch tot und die meisten PCIe Lanes werden heute für die Anbindung von M.2 SSDs verwendet.
Sag ich doch, dann hat man an sich immer ein Problem, eine GPU + eine oben genannten Karte am Z790 zu betreiben.
HEDT ist tot, es gibt keine aktuelle HEDT Plattform oder CPU mehr! AMD hat nur noch die TR PRO und die sind Intels Xeon-W Workstation CPUs/Plattformen die man nebenbei auch ggf. noch übertakten kann, um auch diesen Bereich des HEDT Segments abzudecken, aber dies ändert nichts daran, dass es das Workstationsegment ist.
Jetzt verstehe ich, was Du meinst. Gut, die HEDT CPUs waren ja im Endeffekt abgespeckte Xeons, und die Plattform jetzt wäre für mich an sich auch HEDT, aber Du hast Recht, das wäre eher Workstation.
Keine Ahnung was ML/DL ist,
Machine Learning, Deep Learning.
aber eine GPU mit 16 PCIe (übrigens PCIe 5.0) Lanes und dazu 4 M.2 NVMe SSD mit PCIe 4.0 x4 kann ich auf meinem Z790 sehr wohl gleichzeitig betreiben, denn neben den bis zu 28 PCIe Lanes vom Chipsatz gibt es ja noch 20 direkt von der CPU. Klar mehr als eine Slot mit 16 Lanes bekommt man nicht, aber wer braucht dies heutzutage noch?
Und wie soll das bitte gehen? :unsure: Ich nehme mal das
ASUS ROG Maximus Z790 Apex
2x PCIe 5.0 x16 (1x x16, 1x x8),

Und da hänge ich eine GTX 4090 und eine ASRock Ultra Quad m.2 Card oder ASUS Hyper M.2 X16 PCIe 4.0 X4 Erweiterungskarte voll bestückt rein, und dann habe ich ein Problem, weil die M.2 Karte sich an dem letzten PCIe-Slot x8 nur mit 2 NMVe SSDs betreiben lassen. Wie gesagt, finde aktuell ein Z790 Board, was 2x x16 PCIe Slots bietet, findet man keines. Und wenn man dann noch, so wie ich, unbedingt ein 10GBit-LAN SFF einbauen will oder muß, habe ich dann ein Problem. Von einem weiteren Controller (SATA, SAS, U2./U3) mal ganz zu schweigen.
Außer für GPU Computing wüsste ich da nichts und dafür ist eine Mainstream Plattform nun wirklich nicht gedacht.
Mainstream klar nicht, aber als "günstigere" GPU Plattform für Entwickler und Co mit mehreren GPUs durchaus praktikable und so möglich.
 
Zuletzt bearbeitet:
Mir gehts um die x16 Erweiterungskarten, wie diese typischen 4 x x4 PCIe NVMe SSDs Erweiterungskarten
Und warum müssen die M.2 SSDs in so einer ASRock Ultra Quad m.2 Card oder ASUS Hyper M.2 X16 PCIe 4.0 X4 Erweiterungskarte stecken, wenn man doch 4 M.2 Slots hat? Sage nicht wegen RAID.
aber Du hast Recht, das wäre eher Workstation.
Also ich gehe alleine nach dem was die Hersteller selbst schreiben, wie z.B. AMD zu den Threadrippern:
Auch HEDT ist eben Desktop und nicht Wirkstation, auch wenn manche diese anstelle einer echten Workstation nutzen. Zu den TR Pro schreibt AMD dagegen klar Workstation:
Auch Intel schreibt unmissverständlich zu jeder CPU für jedes Segment diese ist, wie hier beim Xeon w5-3435X:
Klar kann jeder auch seine Hardware anderes nutzen, aber nur weil jemand einen Server auf X99 Basis baut, wird daraus keine Serverplattform, sondern es bleibt eine HEDT Plattform, auch wenn sie sehr eng mit einer Server Plattform verwandt ist.
Machine Learning, Deep Learning.
Das ist ja nun aber nichts für Mainstream Plattformen.
Und wie soll das bitte gehen? :unsure:
Man stecke einfach die M.2 SSDs in die M.2 Slots des Mainboard, statt auf eine PCIe Slot Karte.
Mainstream klar nicht, aber als "günstigere" GPU Plattform für Entwickler und Co mit mehreren GPUs durchaus praktikable und so möglich.
Wenn es nur um die SW Entwicklung geht, kommt es ja nicht auf die maximale Performance der GPUs an und dann kann man sie auch mit nur je 8 Lanes betreiben. Sonst muss man halt tiefer in die Tasche greifen, aber wer in dem Bereich SW entwickelt, der verdient ja damit i.d.R. auch Geld und dann sollte das nicht so das Problem sein, sonst sollte man mal sein Geschäftsmodell überdenken. Ansonsten gilt wie immer: Man muss sich sein Hobby auch leisten können.
 
Und warum müssen die M.2 SSDs in so einer ASRock Ultra Quad m.2 Card oder ASUS Hyper M.2 X16 PCIe 4.0 X4 Erweiterungskarte stecken, wenn man doch 4 M.2 Slots hat? Sage nicht wegen RAID.
Weil vielleicht die 4 Slots nicht ausreichen, oder man eine Apex X21 stecken will?

Die KC3000 4TB kosten aktuell um die 350 €. 4 Stück damit sind günstiger als 2 Sabrent M.2 NVMe SSD 8TB.
Man stecke einfach die M.2 SSDs in die M.2 Slots des Mainboard, statt auf eine PCIe Slot Karte.
Wenn schon alles belegt ist, wie beim mir? Ich überlege beispielsweise, die 2x18 TB HDDs durch 2x 4 x 4TB mit 2 Karten zu ersetzen, weil mich einfach die HDDs mittlerweile nerven.
 
Weil vielleicht die 4 Slots nicht ausreichen, oder man eine Apex X21 stecken will?
Dann ist man aber schon weit jenseits dessen was Mainstream ist und sollte dann wirklich auf eine Workstation Plattform wechseln, auch wenn die CPUs dafür teuer sind. Irgendwo muss es ja auch ein Limit für die Mainstream Plattformen geben, denn sonst werden sie zu teuer nur um Features zu bieten, die 99% der Leute gar nicht nutzen werden. Wenn man so viele, große NVMe SSDs verbauen will, dann sollte der Preis für CPU und Mainboard oder direkt eine Fertig-Workstation eines OEMs, ja auch das größte Problem sein. Man kann immer ein Szenario kreieren welches über die Möglichkeiten einer Plattform hinausgeht, dann muss man sich entweder eine Plattform suchen die alle Anforderungen erfüllt oder eben, wie meist im Leben, Kompromisse machen.
 
Ich wäre ja zufrieden, wenn es ein paar mehr Lanes gebe, so wie bei den HEDTs früher. 2x16 Lanes für Erweiterungen sollte drin sein. So kannst Du aktuell nur eine GPU und was Kleines verbauen, wie ein x8 Controller oder 2 x x4, und dann ist Schluß. 😕 Das halte ich für wirklich nicht viel. So bekommt mal gleich aktuell mit de neuen Lösung das mehrfache davon, was aber so wieder zuviel ist. Das gesunde Mittelmaß fehlt.
 
Zuletzt bearbeitet:
2x16 Lanes für Erweiterungen sollte drin sein
2x16 Lanes (wirklich elektrisch) wurden früher bei Mainstream Mainboards mal mit PLX Chips realisiert, aber dann wurde PLX aufgekauft und die Preise dieser PCIe Lanes Switches wurden massiv angehoben und mehr oder weniger zugleich SLI gekillt. Wer dies heutzutage auf einer aktuellen Plattform möchte, muss zu einer Workstation Plattform greifen, TR PRO oder eben die aktuellen Xeon-W.
So kannst Du aktuell nur eine GPU und was Kleines verbauen, wie ein x8 Controller oder 2 x x4, und dann ist Schluß.
Man kann bei vielen Mainboards auch problemlos zwei Grakas verbauen, aber dann ist jede nur mit 8 Lanes angebunden, was für Gaming auch keinen spürbaren Verlust an fps bedeutet. Gaming und nicht ML steht bei den Mainstreamplattformen im Vordergrund. Entsprechend ist das Kleine für die allermeisten vor allem NVMe SSDs und dafür haben Z690/790 nicht selten 4 M.2 Slots verbaut, manche sogar mehr.
Das gesunde Mittelmaß fehlt.
Das mag für Deine speziellen Anforderungen stimmen, die sich ja wohl vor allem um zwei Slots mit vollen 16 PCIe Lanes drehen, aber damit bist Du echt eine Ausnahme, wäre es nicht so und viele Kunden würden sich sowas wünschen, dann gäbe es auch entsprechende Mainboards für die Mainstreamplattformen mit einem PLX Chip drauf wie früher, aber mir ist keines bekannt. Natürlich kannst Du jetzt noch ewig meckern das es Deine Wunschlösung nicht gibt und die Lösungen die die Anforderungen sogar übererfüllen würden, zu teuer sind oder Du sparst eben auf so eine Lösung, nimmst was älteres Gebrauchtes oder machst Abstriche bei den Anforderungen oder suchst nach Alternativen. Wobei ich nicht ganz nachvollziehen kann, wieso sind 1800€ für einen Xeon-W heftig:
Einige CPUs sind bereits lieferbar, aber 1799 € für eine lieferbare w5-3435X ist doch etwas heftig
Aber dann sollen zwei 18TB HDDs durch 8 4TB M.2 NVMe SSD, abgelöst werden:
die 2x18 TB HDDs durch 2x 4 x 4TB mit 2 Karten zu ersetzen,
Davon kosten die billigsten gute 200€, was zusammen also 1600€ ergibt, die angedachten KC3000 kosten je 327€, zusammen also über 2600€, dazu kommen die Karten, die billigen wie die ASRock Ultra Quad m.2 Card oder ASUS Hyper M.2 X16 PCIe 4.0 X4 gehen auf den Mainstream Plattformen nicht nur wegen der fehlenden PCIe Lanes, sondern auch wegen der PCIe Lane Bifurcation nicht und eine Apex X21 kostet mal eben 2800$:
Da kämen dann wohl noch Versand, Zoll etc. dazu und dies ist nicht heftig? Dabei bekommt man dafür ein W790 Mainboard mit bis zu 5 PCIe Slots, davon 3 mit 16 Lanes, welches meines Wissens nach PCIe Lane Bifurkation und damit Karten wie die ASRock Ultra Quad oder ASUS Hyper unterstützen sollte.
Die KC3000 4TB kosten aktuell um die 350 €. 4 Stück damit sind günstiger als 2 Sabrent M.2 NVMe SSD 8TB.
Es gibt ja auch noch anderen 8TB M.2 NVMe SSD mit TLC NAND und die sind billiger als die Sabrent. Zwar sind sie pro TB teurer, aber dies ist kann am Ende immer noch die billigere Lösung sein, wenn man dafür beim Mainboard spart, weil man eben nur einen Slot mit 16 Lanes und Lane Bifurkation und eine Karte braucht und dann kommt man schnell zu dem Punkt wo man feststellt, dass eine Solidigm SSD D5-P5316 30.72TB, U.2 auch nur so 2700€ kostet und man mit zwei Samsung OEM Datacenter SSD PM9A3 15.36TB, U.2 die für so 1150€ pro Stück zu haben sind, zusammen also billiger als 8 KC3000 4TB kommen. Dann nimmt man einen oder zwei DeLock 90051 PCIe auf U.2 Adapter oder ähnliche, da reicht dann ein Slot mit 4 PCIe Lanes und Lane Bifurkation ist kein Thema mehr oder so einen M.2 PCIe auf SFF-8643 Adapter.

Man muss eben manchmal geistig einen Schritt zurückgehen und sich fragen, was man wirklich erreichen möchte und wenn man 30+ TB SSD Storage will, dann gibt es eben auch andere Möglichkeiten als 2 ASRock Ultra Quad m.2 Card oder ASUS Hyper M.2 Karten zu nehmen und da je 4 4TB M.2 Consumer SSDs rein zu stecken um dann festzustellen, dass man dafür schon einmal gar nicht genug PCIe Lanes bekommt oder für eine Plattform mit genug sehr tief in die Tasche greifen muss. Mit einer Solidigm SSD D5-P5316 30.72TB schafft man dies auch und braucht dafür nur 4 PCIe Lanes. OK, die Solidigm SSD D5-P5316 30.72TB hat QLC NAND, wenn man TLC will, dann nimmt man halt zwei PM9A3 15.36TB und kommt immer noch mit 8 PCIe Lanes statt 32 für 8 KC3000 4TB aus und spart alleine für die SSDs ein paar Hundert Euro.
 
ddann kommt man schnell zu dem Punkt wo man feststellt, dass eine Solidigm SSD D5-P5316 30.72TB, U.2 auch nur so 2700€ kostet und man mit zwei Samsung OEM Datacenter SSD PM9A3 15.36TB, U.2 die für so 1150€ pro Stück zu haben sind, zusammen also billiger als 8 KC3000 4TB kommen. Dann nimmt man einen oder zwei DeLock 90051 PCIe auf U.2 Adapter oder ähnliche, da reicht dann ein Slot mit 4 PCIe Lanes und Lane Bifurkation ist kein Thema mehr oder so einen M.2 PCIe auf SFF-8643 Adapter.
An dem Punkt bin ich schon und überlege seit mehreren Wochen. Aber hier haben wir wieder das Problem, daß Samsung diese Datenträger nur im kommerziellen Bereich supported, als Privatmann gibts weder Support noch Gewährleistung.
1687181279974.png

Und bei Solidigm braucht man erst mal einen Anwalt, um zu verstehen, wie diese Garantiebedingungen zu verstehen sind:

2x16 Lanes (wirklich elektrisch) wurden früher bei Mainstream Mainboards mal mit PLX Chips realisiert, aber dann wurde PLX aufgekauft und die Preise dieser PCIe Lanes Switches wurden massiv angehoben und mehr oder weniger zugleich SLI gekillt. Wer dies heutzutage auf einer aktuellen Plattform möchte, muss zu einer Workstation Plattform greifen, TR PRO oder eben die aktuellen Xeon-W.
Oder man nimmt eben wieder doch so eine Karte wie ich schon mal hatte:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh