56 P-Cores am Limit: Der Intel Xeon w9-3495X im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist erfreulich zu hören und zeigt für mich dann persönlich auch den ganz anderen Anspruch der Plattform und auch den Anwendungsbereich.

Alle die keine Server benötigen / Cluster benötigen können mit der Plattform sicherlich effektiv arbeiten.
Alles andere sollte hier doch relativ gesehenen gar nicht oder sehr wenig relevant sein.

Ich muss für Holt oft eine Lanze brechen, da er zwar manchmal etwas zu crass formuliert oder aus den Fundus passende und gezielte Beispiele heraus pickt, aber oft auch (über viele Plattformen) vor allem auch praktische Erfahrungen / Einblicke besitzt, die die meisten gar nicht besitzen können.

Selbst Enterprise Architekten (aus meiner persönlichen Erfahrung) besitzen meistens sehr wenig praktisches (vor allem aktuelles) Wissen und beziehen vieles nur aus der reinen Theorie.

Intel hat(tte) sich viele Jahre lang aus dem WS Segment zurück gezogen und hat viele Standards eingeführt und vor allem über viele vergangen Mainstream Plattformen den Mainboard Herstellern freie Hand gelassen, die BIOS Firmware anzupassen (was Default konfiguriert ist) und damit viele Standards in Bezug auf TPD, PLs etc. brechen lassen.

Je nach Serie und Hersteller kamen da ganz andere Leistungsaufnahmen und Ergebnisse heraus. Ich kann für mich nur sagen, dass auch ich da die Übersicht (jedes Jahr ein neuer Sockel mit eigenen Anpassungen und Eigenheiten) verloren habe.

Bei den OEMs, sieht das ganze in der Regel aber nicht so aus und sorgt dafür, dass die Spezifikationen entweder eingehalten werden, oder genau für das angedachte Einsatzgebiet modifiziert werden (SAP Systeme, DBs, Terminal Server oder halt Workstations für bestimmte Worklaods CAD, Simulationen etc).

Bei Server Cluster ist mittlerweile der HCI Ansatz fast Standard und alles andere wird da eher eine Nische bleiben.

De facto also für mich persönlich legitim, unsere Sicht nicht auf dem eigentlichen OEM Markt zu beziehen oder zu vergleichen.

Alleine die sehr knappe (bisherige) Board Auswahl für den Retail Markt sollte aufzeigen, dass wir diese Plattform nicht allzu häufig hier im Forum finden werden und vor allem die dazugehörigen Workloads.

Interesse hätte ich dazu natürlich, auch wenn ich persönlich die finanziellen Mittel nicht hätte, um damit kein Geld verdienen zu müssen.
 
Zuletzt bearbeitet:
Bin schon ein wenig angefixt von dem Sockel / der Plattform.
Keine shared / deaktivierte Schnittstellen / WS und bis zu 56 Cores (werden ja auch später wieder günstiger).

Mal schauen wo die Preise in einem oder zwei Jahren liegen...

Aktuell käme man nur für Board (8 Channel) 256 GB RDIMM RAM und 16 Cores bei ca. 5000 € raus.
Natürlich alles noch teuer am Anfang.
Aber wer weiß, vielleicht in einiger Zeit etwas günstiger zu erhalten.


Beispiel:



Weiter so AMD, dann wird Intel gezwungen, die WS sparte weiter auszubauen / günstiger anzubieten. 😉
 
Ich finde es schade, das kein Xeon W-3175x mit im Vergleich ist
Ja, der war im Grunde als erster Xeon Workstation Prozessor mit offenem Multi und damit auch für Enthusiasten der Vorgänger dieser ganze X CPUs, zumindest wenn es um den Einsatz bei Enthusiasten geht. Die Verbreitung unter diese Zielgruppe dürfte wohl auch diesmal ähnlich bescheiden bleiben, denn im Grund bieten die Mainstream Plattformen inzwischen genug und da SLI tot ist, werden mehrere Grakas in einem Rechner eigentlich nur noch bei GPU Computing verwendet. Anspruchsvolle Gamer die sich früher die HEDT Plattform geholt haben um da beiden Grakas in ihrem SLI Verband voll anbinden zu können, werden hier kaum zugreifen, spätestens nachdem sie die Ergebnisse der Spieletest in diesem Review gelesen haben.
Was mich irritiert, ist die nicht im Artikel erwähnte reg. ECC RDIMMs Möglichkeit?
Was meinst Du konkret? Es werden doch sogar unterschiedliche RAM Geschwindigkeiten gebencht.

Alle die keine Server benötigen / Cluster benötigen
Das ist das eigentliche Problem für so ein System, denn wie viele Leute würden sich sowas kaufen und wie viele, gerade in den Firmen, werden sowieso Server haben, ggf. in Form gemieteter Cloudserver und die rechenintensiven Aufgabe dann dorthin auslagern? Wie viele Anwendungen gibt es noch für Workstations mit sehr hohen Multithreadperformance?
 
@Holt:

Jau hatte mich da schwer vertan beim Lesen des Artikels.

Sind alles RDIMMs (auch laut Homepage der Mobos).

Ich selbst habe bis auf VMs keine (produktive) Anwendung, welche bei mir die 36 Cores / 72 Threads wirklich auslasten kann.
Jedoch bin auch froh darüber, sonst könnte ich das System auch währenddessen für nichts anderes mehr nutzen (zocken etc.). 😉


Ist es hier auch der Fall, dass die Frequenz ab einer bestimmten Menge an RDIMMs Bestückung verringert wird (Speichercontroller Limitierung) und die Latenzen erhöht werden müssen ?

Wie sieht das bei WRx80 dazu aus?
Weiß das jemand?


Bezüglich das die Desktop Plattformen genug bieten, kann man so sehen.
Aber auch nur in Bezug auf die CPU Core Anzahl.

Mehr aber auch nicht (selbst wenn die Lanes Dank AMD Push erhöht worden sind - wurde bei Intel oft nur der DMI aufgebohrt im Desktop Segment)!

Für mich bleibt der GAP der Plattformen ein Problem / hindert mich persönlich zu einer Neuanschaffung / Wechsel von 10 Jahren alter Hardware zu einer neuen soliden Plattform, welche gut reifen darf...

Ich ärgere mich nur sehr oft darüber, dass die Anbindung der Lanes bei der Vollbestücking nicht mehr transparent angegeben wird (M.2s, PCIe Beschleunigerkarten, 10 GBit Netzwerkkarten und vor allem M.2. Erweiterungskarten).

Da rufen Hersteller über 1000 € für ein MSI AM5 Godlike auf, und dann werden Schnittstellen nach und nach geteilt und deaktiviert, wenn diese mit voller Bandbreite bestückt werden würden (Hauptsache 4 M.2.s und Erweiterungskarte sind vorhanden, dass die Lanes des Chipsatzes & der CPU dann schon aufgebraucht sind, soll da nicht ins Gewicht fallen?).

Selbst SATA 6 GB Schnittstellen werden dann teilweise deaktiviert dafür.

Ganz tolle Idee bei nem System, was als Beispiel Hypervisor spielen / könnte / dürfte im Homelab mit ZFS / Cache und man trotzdem mal ne Runde daddeln / Content Creation / Simulationen ausführen möchte.

Früher stand das bei Geizhals.eu dabei.
Mittlerweile nur noch im Handbuch.

Weiß jemand, ob wir auch die CPUs mit HBM2(e) zu Gesicht bekommen werden oder sind die nur für dem OEM Markt bestimmt?

@dbode:

Ansonsten hätte ich auch gerne die CPUs mit weniger Kernen (16) im "Spieletest" gesehen, denke die schneiden da wegen dem weitaus höheren Basis Takt (3.0 GHz) ein wenig besser ab.
Dabei könntest du (falls der die 56 Core CPU wirklich HBM2e on die hätte) dazu einen Vergleich ziehen können je nach Workload (Core Anzahl auf 16 per BIOS beschränken und je nach Lust und Laune auch den Takt normalisieren).

Auch aktuelle SPEC Benches wäre bei der Plattform schon ganz schön gewesen: https://www.spec.org/benchmarks.html

Aber toll, dass du den Speichertest dabei hattest! 👍
Auch toll, das du das Thema Abwärme, Leistungsaufnahme (auch idle) und OC beleuchtet hast. Top!

Trotzdem hätte ich gerne mal die Themen Vollbestückung des RAMs (was passiert dann laut z.B. AIDA RAM Benches ), CPU Latenzen (sind doch auch Chiplets oder?), Vollbestückung der PCIe Lanes (wie ist dann was noch wie noch angebunden inkl. Auswirkung, wenn man klotzt via M.2 Erweiterungskarte mit 4 - 6 Stück M2280er voll angebunden via PCIe 5.0 x4 inkl. Augenmerk auf das Lane Splitting und vor allem was passiert dann mit den internen 2 M.2 Schnittstellen, welche direkt an der CPU angebunden sind!), PCIe 4.0 x4 10 GBit 4 Port Intel Network Controller, ein paar PCIe 4.0 x 16 Nvidia HPC GPUs zur eigentlichen High End GPU etc.).
Auch der BMC / IPMI wird oft nicht geprüft. Schade.

Dafür sollte so eine Plattform doch auch sein?!

Bei Pudget Systems haben die bis auf den 16 Kerner mit Pre Release Saphire Rapids WS CPUs ein paar "Content Creations" Benches hinterlegt.

(Aber da fehlen natürlich diverse Speicherintensive Worklaods).

30 % schneller ist gar nicht schlecht (im Gegensatz zum Vorgänger).
Dafür, daß Intel so große Probleme besaß mit der Serie... 😉


Natürlich gräbt Intel den weitaus älteren AMD Zen 3 (Threadstripper 5000 Pro) TRs noch immer noch nicht die Kunden weg (höchstens im Schnittstellenbereich / Speicherintensiven Workloads / alle welche RDIMMs bevorzugen).

Die neuen TRs könnten ja auch noch als Antwort folgen...

Dort sollte AMD wirklich mal langsam (m.E.) RDIMMs nicht nur erlauben / unterstützen, sondern auch validieren!
Sonst geht das blinde Kuh Spiel da auch so weiter.

Jeder der behauptet, dass On Die ECC bei dem DDR5 Desktop Plattformen ausreichend würde, sollte sich dann vorab informieren und dann selbst entscheiden, ob er es bei DDR5 benötigt oder auch nicht:

Ich selbst habe seit reg. ECC RDIMMs (DDR4) so gut wie keine WHEAs oder Datenverlust / Datenkorruptionen mehr (Media Archive).


Das "First World Problem" / Dilemma habe ich einfach bei den TR Plattformen...

Mal soll je nach Board Hersteller OC und RDIMMs funktionieren, mal nicht.

Auch das die geringeren Core Counts nur für OEMs verkauft worden sind, ist einfach dumm, wenn man als Kunde mit der WRx40 oder WRx80 liebäugelt aber halt keine 24 Cores (oder mehr) benötigt oder vorerst nicht (be-) zahlen möchte.
Dann halt nicht AMD!

Läuft das bei den TR Plattformen auch so, dass die AGESA Updates ziemlich viel (sehe in Foren viele dann das OC danach erneuern^^) verbessern / verändern / reifen lassen analog zum Desktop (AM4, AM5)?

Wer keine High Count Workloads besitzt, hat höchstens Spaß an der eigentlichen Plattform (wie persönlich ich selbst hätte, so oft konvertierte ich auch keine 4K HDR Videos, aber wenn, dann gerne per Software ~ via CPUs und freue mich darüber, währenddessen noch daddeln zu können. Auch die Zuverlässigkeit und längerer Support, RDIMMs etc. werden mich nicht mehr zu einem Desktop Sockel verführen können... ).

Diese Zusammenfassung erklärt es (das Plattform Dilemma) m.E. ganz gut: https://biz.crast.net/amd-threadripper-pro-5995wx-and-5975wx-review-sheer-threaded-dominance/

PS. Laut dem älteren HWLuxx Artikel zu der Vorstellung zu Saphire Rapids hätte im WS Segment nur die 56 Core CPU HBM2e dabei (on die?) oder ist damit nur der Server / HPC Bereich gemeint, da dort der HBM2e den eigentlichen RAM ersetzen kann (wahrscheinlich sowohl als auch oder?) ?

Auszug:
Vergleich der Packages für Sapphire Rapids
KerneUPIsPCIeSpeicherkanäleChipgrößeEMIB-Verbindungen
XCC-Package6045x 16 Lanes8x DDR54x 400 mm²10
MCC-Package3235x 16 Lanes8x DDR5?keine
XCC-HBM-Package5645x 16 Lanes8x DDR5 + 4x HBM2e4x 400 mm²14


1680959018168.png


1680959057387.png


1680959254567.png


1680959297084.png


Quelle:
 
Zuletzt bearbeitet:
@blazethelight

Bei AMD ist es eher abhängig vom Board. Alle CPUs ab "Zen3" unterstützen grundsätzlich ECC und sind ECC kompatibel. Aber unbuffert.
Ich hab mir in der Arbeit als Budget VM Host ein Asus Pro WS X570-ACE geschnappt und ein Ryzen Pro 5750G draufgepackt gepaart mit Kingston 3200er CL22 2x32 GB ECC RAM Sticks. (QVL von ASUS).
Mit Zen3 ist das recht flott und für die überwiegenden Szenarios sogar ausreichend um Dinge zu testen.
 
@n3cron:

Danke dir.

Genau das meine ich aber auch damit.

Als die (ersten) TR Plattformen noch relativ neu waren, stand das sehr oft in Frage und war selbst bei dem Mainboard Herstellern nicht dokumentiert.

Erst nach und nach (bzw. ab der WRx40 oder WRx80 wurde das auch wirklich / spätestens dokumentiert) konnten nur praktische Erfahrungen das Thema genauer beleuchten / bestätigen.

Man kann natürlich auch sagen, dann musst du dir halt für viel Geld eine OEM Fertig Plattform erwerben, wer damit aber kein Geld verdient und den dazugehörigen Support nicht benötigt (und das vor allem steuerlich nicht absetzen kann!), ist letztendlich aufgeschmissen gewesen.

Deswegen freue ich mich, wenn Intel wieder ernsthafte Schritte unternimmt, im WS Segment (DIY) ein wenig mehr mit zu mischen und AMD nicht völlig davon laufen lässt (Konkurrenz tut uns allen immer gut). Vor allem, wenn es eine Plattform ist, welche dir in vielen Enterprise Standards Garantien geben kann.


Und machen wir uns auch nichts vor.
Jeder Hersteller, welcher aktuell (über die letzten Jahre) die Bereiche dominieren kann, gewinnt auch beim Windows OS in Bezug auf Optimierungen von Software Anpassungen (Patches / Optimierungen) bei den üblichen Workloads.

Der längste Balken, gewinnt bei mir meist nicht. Sondern die solide / zuverlässige Plattform und das Feature Set.
 
Zuletzt bearbeitet:
Threadripper konnten immer ECC und AMD hat das so auch kommuniziert. Ich habe/hatte übrigens alle Generationen bis auf die aktuelle - die ist für mich wenig attraktiv - da hab ich EPYCs gekauft. Gen1 - 2 hatten immer UDIMMs. Bei Gen3 heben die ohne "Pro" UDIMMs und die mit "Pro" RDIMMs, ebenso können die aktuelle "Pro Threadripper nur RDIMMs.
 
@Kullberg:

Wie sieht es da je nach Jahr / Zen / Epyc Variante die Vollbestückung des DRAMs aus bzw. über 8 DIMMs?
In Bezug, ob die Frequenzen verringert werden und die Timings nach oben korrigiert werden.
Gibt das dann der SOC vor oder wird das immer via JEDEC Spezifikation klassifiziert?

PS. AMD hatte das wirklich immer dokumentiert, aber die Mainboard Hersteller am Anfang oft nicht... So war das gemeint von mir.

Unbuffered DIMMs werden halt etwas langsamer sein als registered ECC.
Wieviel das dann wirklich ausmacht (je nach Variante) ist mir persönlich nicht bekannt.
 
Zuletzt bearbeitet:
Sowohl das hier im Test besprochene Mobo (das ACE) als auch alle meine EPYC Mobos und mein dual Xeon So. 4189 haben nur 1 DIMM per Speicherkanal. Von daher wird die Frequenz nicht irgendwie gesenkt. Meine Erfahrung sowohl mit EPYCs als auch So. 4189 Xeon ist, dass man alle (8 pro CPU) Speicherkanäle bestücken sollte für beste Performance. Bei E5 26**v4 Xeons war das noch nicht so. Zumindest bei meinen Anwendungen.

Unbuffered DIMMs sind eher schneller als RDIMMs - der Unterschied ist aber minimal. Bei RDIMMs können prinzipiell mehr DIMMs pro Speicherkanal genutzt werden, wenn aber nur 1 DIMM Sockel pro Kanal vorhanden ist, macht das nichts aus.
 
@Kullberg:

Meine auch eigentlich, bei allgemeiner nahezu Vollbestückung des DRAMs auf AMD TRs und EPYC Plattformen (würde mal selbst vermuten, dass auf einen Epyc Server Sockel, sowas eher nicht mehr passieren würde).

Nicht ob man soweit passend auffüllen würde, um Quad oder Okta Channel überhaupt zu erhalten (das sollte klar sein).

Bei mir passiert das halt bei dem alten C612 Chipsatz / E-5 v3 und v4 CPU Serie.
Ob das vielleicht allgemein bei Multi-Socket Systemen eher ein Thema sein könnte, weiß ich aktuell auch nicht (Hast du einen Epyc System mit mehr als einen Socket im praktischen Einsatz?).


Daher meine Frage, ob es hier ganz allgemein eher der JEDEC Standard so vorsieht, oder in meinen praktischen / veralteten Beispiel Fall der Mainboard Hersteller (ASUS) hier einfach eingreift.

Im Fall von UDIMM ECC vs RDIMM ECC besteht in der grauen Theorie ja nur der Unterschied (vermutet nun von mir - das es nur im Falle einer nötigen Fehlerkorrektur passieren könnte) das ein zusätzlicher Chip mit allen anderen DRAM Chips kommuniziert, anstatt die CPU mit jeden Chip einzeln kommunizieren muss.
Daher sollte das schneller sein?!

Das UDIMM allgemein schneller arbeitet inkl. höher Frequenzen (je nach dem) und geringeren Latenzen im Gegensatz zu RDIMMs, stand gar nicht für mich in Frage, da die fehlende Fehler - Erkennung und Fehler - Korrektur natürlich länger dauert als gar keine oder bei DDR5 (Mainstream Sockel) "nur" On Die anstatt End To End .

Dazu kommt es ja noch, dass die genutzte Variante der Fehlerkorrekturen (8 Bit / 16 Bit / etc.) je nach Mainboard / DRAM und Hersteller eine ganz andere sein kann, welche überhaupt unterstützt wird (zumindesten weiß ich das bei DDR4 L/RDIMM)...

Bei allen Fragen und Themen, freue ich mich einfach auf den Austausch dazu und den dazugehörigen praktischen Erfahrungen von euch! 👍
Danke bisher schon an euch.
Hoffe das geht so weiter.
 
Zuletzt bearbeitet:
Deine Vorstellungen von RDIMMs stimmen nicht - eine Erklärung ist hier.
Ich hab im letzten Jahr 5 EPYC Systeme mit je 2 CPUs gebaut, 2 Rechner mit 7T83, 1 mit 7642, 1 mit 7H12 und 1 mit 7763. 3 davon sind produktiv im Einsatz, 2 sind z.Zt. ausgeschaltet. Bei allen sind alle Speicherkanäle (also je 16) bestückt.
 
Damit sollte es mir nun dank dir klar sein, dass es auf TR / Epyc Sockeln / der / den aktuellen Xeon Plattform/en nicht mehr passiert oder halt bei mir eine Eigenheit des Herstellers des Mainboards oder Chipsatzes - ggfls. des bei mir persönlich gemischten reg. DDR4 RDIMMs ist (2x unterschiedliche JEDEC Standards - auch wenn das bei mir auch bei identischen JEDECs auch aufgetaucht war / ist) .

Da genügt mir an sich natürlich schon. Vielen Dank für deine praktischen Erfahrungen dazu.

Vielleicht kleine Anmerkung.
Wikipedia ist eine feine Sache.
Aber in diesem Bezug ist nicht nur Wikipedia veraltet sondern selbst das Elektronik Kompendium (das ich persönlich für Grundlagen oft als gelungenen erachte.)

Bezüglich meiner Aussage, dass RDIMM ECC eigentlich schneller sein könnte oder sollte als UDIMM ECC, muss ich das nun auf "kommt drauf an" vermutlich korrigieren.

Mal wieder für wesentlich bessere Verständnisgrundlagen, bietet sich Serve the Home als Quelle an (selbst der Artikel ist alt - von Intel oder Kingston selbst gab es nur aktuelle Informationen von On die ECC vs RDIMM ECC in Bezug auf DDR5) :

Auch wenn vielleicht in der Virtualisierung nur wirklich relevant.

Und ja, ich lerne immer gerne dazu.


Auszüge:

Basics:
The basic difference is that memory commands in unbuffered memory configurations go directly from the controller to the memory module, while in registered memory configurations the commands are sent first to the memory banks’ registers prior to being sent to the modules. This concept may sound difficult, but here is the very simple/ conceptual view regarding what is going on.

UDIMM:
In the above example the memory controller accesses the memory banks directly. The above assumes that the memory controller resides within the CPU package as it does in modern CPU architectures. Looking at older systems, the memory controller resided within the CPU northbridge. Compare this to the registered memory example below.

RDIMM:
Here the CPU communicates with the registers for the banks of memory on each module. From there, these registers communicate with the DRAM. The implications of this are twofold. First, on a negative side, instructions take approximately one CPU cycle longer due to the intermediary of the bank register. On the positive side, this buffering reduces the strain on the CPU’s memory controller because it points to the dedicated intermediary register versus accessing the DRAM directly. It is easier on the memory controller to deal with a fewer number of targets.
 
Zuletzt bearbeitet:
Ist es hier auch der Fall, dass die Frequenz ab einer bestimmten Menge an RDIMMs Bestückung verringert wird (Speichercontroller Limitierung) und die Latenzen erhöht werden müssen ?
Das steht doch der ersten Folien die Du selbst gepostet hat: DDR5@4800(1DPC),4400(2DPC), wobei DPC für DIMM per Channel steht. Der Test zeigt aber auch, dass ja mehr geht, so wurde ja auch mit 6400 gebencht, der RAM Controller kann also mehr als spezifiziert wurde.
Ich ärgere mich nur sehr oft darüber, dass die Anbindung der Lanes bei der Vollbestücking nicht mehr transparent angegeben wird
Vollbestückung ist relativ was die DPC angeht und nur die sind relevant. Alle auf der 2. Seite des Reviews genannten Mainboards haben 8 RAM Slots, aber nur beim ASUS Pro-WS-W790E-SAGE-SE sind diese so angeschlossen, dass alle 8 Speicherkanäle belegt werden, mit 1DPC und bei den ASUS Pro-WS-W790-ACE sowie dem ASRock W790 WS sind es eben 2 DPC für 4 RAM Channels.

Früher stand das bei Geizhals.eu dabei.
Mittlerweile nur noch im Handbuch.
Man das Handbuch des Mainboards eben vor dem Kauf schon mal lesen, zumindest im Bezug auf solche Einschränkungen die einem ggf. wichtig sind, wie eben was sich gegenseitig ausschließt.

Weiß jemand, ob wir auch die CPUs mit HBM2(e) zu Gesicht bekommen werden oder sind die nur für dem OEM Markt bestimmt?
Das gibt es ja bei den Server CPUs und ich denke eher nicht, dass es auch noch eine Workstation Version davon geben wird, außerdem scheint dies auch in Zukunft wohl wieder zu verschwinden. Aber es kommt immerhin MCR DIMM und dies wird die Bandbreite nochmal deutlich steigern:

Jeder der behauptet, dass On Die ECC bei dem DDR5 Desktop Plattformen ausreichend würde
Wobei da vergessen wurde, dass schon mit DDR4 eine CRC bei der Übertragung eingeführt wurden und im Fall von Übertragungsfehlern wird die Übertragung dann wiederholt. Aber Sicherheit, auch die Sicherheit vor RAM Fehlern ist immer relativ, deswegen gibt es ja auch unterschiedliche Technologien bis hin zu Chipkill und Spiegelung der RAM Inhalte, was ausreichend ist, muss also jeder für sich entschieden, aber mit On-Die-ECC hat man einen gewissen Schutz vor gekippten Bits und man hat auch einen Schutz vor Übertragungsfehlern und steht damit auf der ersten Stufe der Sicherheitsleiter.

Alle CPUs ab "Zen3" unterstützen grundsätzlich ECC und sind ECC kompatibel. Aber unbuffert.
Nein, nicht alle Zen3 CPUs unterstützen ECC, der 5500 ist z.B. eine Ausnahme:
Mit UDIMM ECC Riegeln kompatible ist jedes System, auch wenn es kein ECC unterstützt, sofern die übrigens Spezifikationen passen, dann hängen die zusätzlichen Datenbits eben in der Luft und bleiben ungenutzt, aber es wird laufen. Das einzige was ECC technisch von solchen ohne ECC unterscheidet ist, dass sie eben mehr Datenbits (72 bzw. bei DDR5 80 statt 64) haben und der RAM Controller da seine Prüfsumme ablegen kann. Praktisch muss man dann noch beachten, dass es ECC RAM mit unterschiedlichen Technologien gibt, eben die RDIMM und LRDIMM (wobei es zumindest für RDIM wohl auch eine Spezifikation ohne ECC geben soll, aber wohl keine solche Riegel) und diese sind weder untereinander noch mit UDIMM kompatibel, was aber nichts damit zu tun hat, dass es ECC Riegel gibt, sondern das sie eben nicht unbuffered sind.

Das macht dann immer wieder mal Probleme wenn Leute dies nicht beachten und günstig in der Bucht gebrauchte Server RAMs kaufen, die dann aber fast immer eben RDIMM oder LRDIMM sind und diese in ihren Mainstream Plattform (also aktuell AM5 bzw. LGA1700 und deren Vorgänger) packen und die unterstützen eben nur unbuffered RAM, also UDIMM. In Zukunft kommt ja wohl noch Multiplexer Combined Ranks (MCR) DIMM dazu und wenn die dann mit 8800 bezeichnet werden, dann wird es einen Haufen Threads geben wo Leute sich diese wegen deren hohen Geschwindigkeit gekauft haben und dann fragen warum der Rechner damit nicht booten will.
 
Zuletzt bearbeitet:
@Kullberg & @Holt:

Ich glaube wir haben aneinander vorbei geredet bzw. ich habe mich falsch ausgedrückt.

Nur zum Verständnis:
Bei meinen Board gibt es keine max. Ram Bestückung mit nur 4 oder nur 8 DIMMs - sondern 16 DIMMs.

1239683-l0.jpg


---

Daher kam meine Frage / mein Interesse - zu praktischen Erfahrungen dazu.
Da dies hier in beiden Fällen des Intel WS Sockels 4677 erst gar nicht möglich ist, hat sich das Thema da eher schon erledigt gehabt - hätte aber ja trotzdem sein können, dass die Frequenzen / Timings sich bei der Vollbestückung verändert hätten - auch wenn eher unwahrscheinlich (entweder nur 4 DIMMs oder 8 DIMMs - war ja auch gar nicht auf diesem bezogen von mir).

Interessant wären dann die Größe von DIMMs, damit die max. 2TB erreicht werden würden...^^ Die gibt es eher nicht dazu zu kaufen (bei 8x32 GB / 256 GB ist da "real" aktuell Schluss). Aber das ist natürlich mehr als ausreichend für ein WS Board.

Meine Interesse galt dem AMD EPYC SP3 Sockel, da es dort halt auch möglich gewesen wäre / ist: https://geizhals.eu/?cat=mbsp3&xf=319_DDR4-3200~4400_E-ATX+(SSI+EEB)~493_16x+DDR4+DIMM~8540_2048
Daher galt dort mein Interesse zu praktischen Erfahrungen dazu (wo Kullberg mich ja schon aufgeklärt hatte, dass selbst als Beispiel bei 16 DIMMs bei ihm auf dem SP3 das Verhalten nicht vorhanden wäre / ist).

2600249-l0.jpg


Auch auf den AMD TRs Sockeln (TRX40, WRX80 und X399) ist dies doch auch gar nicht möglich, da zu wenige DIMM Steckplätze vorhanden sind (auch nur maximal 8 möglich).

---

Danke Holt wegen dem Auszug aus Anandtech. Dann gibbet auf den Intel WS leider kein HBM2e (auch wen die 56 Core Anzahl zufällig gepasst hätte : 8x DDR5 + 4x HBM2e ~ bye, bye^^).

Natürlich lese ich mir die Mainboard Beschreibung vor einen möglichen Kauf 3 x durch... Ich mag keine bösen Überraschungen.
 
Zuletzt bearbeitet:
Da dies hier in beiden Fällen des Intel WS Sockels 4677 erst gar nicht möglich ist
Was ist beim S. 4677 nicht möglich? 16DIMM? Natürlich uns es reicht sogar ein Sockel dafür, da die CPUs ja bis zu 16 RAM Kanäle haben und auch zwei DIMM pro Channel unterstützen. Ich kenne zwar kein Mainboard für die Workstation Versionen der Sapphire Rapids Xeons welches dies bietet, es sollte aber gehen, nur Multi-Socket ist normalerweise alleine den Server Varianten vorbehalten, wobei dies auch hier von der jeweiligen Version abhängt.
hätte aber ja trotzdem sein können, dass die Frequenzen / Timings sich bei der Vollbestückung verändert hätten
Nochmal: Dafür ist nur die Anzahl der DIMM per Channel relevant, wie viele der vorhandenen Channels genutzt werden, ist im Prinzip irrelevant! Praktisch ist es natürlich so, dass nie alle Riegel eines Kits gleich sind gut übertaktbar und wenn man eben das RAM auch übertakten kann und 8 Riegel hat, ist die Wahrscheinlichkeit das man mit dem Takt nicht so hoch kommt als wenn man nur den schnellsten der Riegel des Kits alleine einsetzt, natürlich gegeben.
damit die max. 2TB erreicht werden würden...^^ Die gibt es eher nicht dazu zu kaufen (bei 8x32 GB / 256 GB ist da "real" aktuell Schluss).
Nein, selbst GH listet auch schon 64GB DDR5 DRIMM Riegel mindestens zwei DPC sollten auch gehen (früher konnten Xeons teils sogar 3DPC), auch wenn es also derzeit keine Mainboards damit gibt, wären dies also 16+64GB=1TB RAM und Intel gibt "Max Memory Size (dependent on memory type) 4 TB" an. Aber schon bei DDR4 gibt es auch 128RG Riegel bei GH gelistet und mit DDR5 wird die Kapazität der größten Riegel noch steigen:


Mit solchen 512GB Riegel kann man dann auch mit den bestehenden Mainboard mit 8 DIMM die maximalen 4TB realisieren. DDR5 ist ja noch recht neu, gerade auch im Serverbereich und solche Serverhardware ist im normalen Handel oft erst viel später oder gar nicht zu bekommen, erscheint also auf Portalen wie GH oft erst spät oder gar nicht, auch wenn die großen OEMs dies schon lange anbieten.

Wie viel RAM brauchst Du den bzw. hättest Du den gerne?
 
Also normalerweise kannst du nicht mit nur einer CPU voll bestücken, sondern die Slots müssten auch voll belegt sein.
 
@n3cron:

Das ist natürlich klar bei Multi Sockel Boards. Für andere "Mitleser", welche in dem Bereich aber keine Erfahrung haben, finde ich deinen Hinweis / Beitrag aber sehr hilfreich.

@Holt:

Das stimmt auch soweit alles, was du schreibst.

Es geht / ging mir nie um "ich benötige 1, 2, oder 4 TB Ram."
Sondern dass es teilweise je nach Chipsatz einfach möglich ist und man teilweise (früher) relativ günstig bei Ebay und Co für ähnliches Geld (Vergleich der Kosten mit sehr schnellen UDIMM im Mainstream Bereich) einfach eine hohe Kapazität erhalten konnte inkl. Fehlerkorrektur.


Ich hatte mich bezüglich des realen (und aktuellen) Arbeitsspeicherausbau auf die QVL von der ASUS Homepage des ASUS Pro WS W790E-Sage SE selbst bezogen.

Das grundlegend viel mehr möglich ist / sein wird (da alle Komponenten aktuell noch sehr neu sind und teilweise gar nicht lieferbar sind ist doch auch klar.

Genauso das der eigentliche Intel 4677 Sockel (anderer Chipsatz / Server) weitaus mehr kann ist auch klar.
Ich habe mich aber auch hier auf den im Artikel gezeigten Intel W790 Chipsatz / das Board ASUS Pro WS W790E-Sage SE bezogen.

Aus eigener Erfahrung passen / funktionieren als Beispiel auf dem "alten" M-ITX ASRock X99E-ITX 2x 128 GB DDR4 RDIMMs (könnten auch LRDIMMs sein - müsste ich nochmal auslesen) - auch wenn das nie auf der ASRock Homepage / Ram QVL gelistet war.
Das ist dann einfach glücklich und muss man im Zweifel ausprobieren.
Ich halte mich dann einfach immer an den Datenblättern des RAMs (wenn verfügbar) und prüfe die JEDEC Daten (kann der Notfalls in den nächsten tieferen programmierten JEDEC wechseln).

Auch das wir Endkunden (ohne Eigengewerbe) ohne OEMs oder Ebay gar nicht mal so eben an manche (Server) Hardware rankommen können, ist natürlich auch korrekt / klar.

Die (seit / nach dem X99 Sockel / C600 er Chipsatz) bewussten Unterscheidungen der Hersteller zwischen Workstations und Servern empfinde ich persönlich als sehr schade.
Da war / ist man selbst sehr flexibel, was man verbauen möchte (variable Auswahl an UDIMM, reg. L/RDIMM, OC, Mainstream, WS oder Server CPUs, WS und Server Features, On-board Sound, etc..)

Obwohl ich schon anmerken muss, dass mir persönlich bei dem W790 Chipsatz nicht viel "fehlen" würde.
Außer das da halt keine Server CPUs (im späteren Verlauf) verbaut werden können, welche je nach dem einfach spannend gewesen wären (UML bezogen oder Features allgemein bezogen).

Kritisch sehe ich wieder Intel seine "Software / Firmware" Beschränkungen der CPU Features (das gab es schon einmal - weiß den Sockel aber gerade nicht).

Aber das führt Nvidia ebenso (schon lange) aus und lässt die Kasse klingeln.

Auch wenn ich den AMD SP3 nicht wirklich mit dem W790 vergleichen kann / sollte, wäre dann für mich persönlich der SP3 (oder in Zukunft der Nachfolger) im Zweifel die (immer noch) spannendere Wahl (auch wenn da kein PCIe 5.0 vorhanden ist und kein DDR5 etc.).
Auch wenn man da wieder den reinrassigen Server hätte (das
ASRock Rack ROME2D16-2T ist schon nett - oder als Alternative das Supermicro H12DSi-NT6) und eben keine WS (das I/O Shield spricht wieder klar gegen eine Nutzung als WS dagegen). Daher bin ich da persönlich immer wieder zwiegespalten. 🤣

Kurz gesagt:
Ich werde mich davon verabschieden können / müssen, dass es wieder einen Chipsatz geben wird, welcher einen die Freiheiten einräumt, aus beliebigen Bereichen (Mainstream, WS oder Server) Komponenten zu verbauen / zu "mixen".
Das hat(te) eigentlich vor allem Kostenvorteile und lässt für mich persönlich eine Plattform würdevoll altern (und habe halt alle Freiheiten / kann später immer wieder wechseln auf z.B. CPUs und Ram, welche 5 Jahre vorher für mich einfach nicht bezahlbar waren).

Das es aus Leistungssicht / IPC Sicht der CPUs (von dem Takt und Features wie als Beispiel AVX512 mal ganz abgesehen) und den modernen (schnelleren) Schnittstellen der Boards (mehr PCIe Lanes, aufgebohrter DMI bei Intel) / Ram Geschwindigkeiten für viele Personen keinen Sinn ergibt, ist / wäre eine völlig legitime Ansicht der Dinge (und würde den Tatsachen / Fakten entsprechen, welche man nicht abstreiten kann / sollte).

Was ich übrigens meinte bezüglich nicht mehr wirklich transparenten Angaben, zu der Anbindung von CPU / Chipsatz, PCIe und (teil-) deaktivieren Schnittstellen bei der Nutzung von vollen angebunden PCIe Geräten ist der Umstand, dass es früher dafür PLX Chips / Switches gab (selbst wenn das extra Strom gekostet hatte - konnte man ja deaktivieren wenn nicht benötigt / heute wären natürlich andere und schnellere Verbindungen nötig), um die Limitierungen des DMI / UMI zu umgehen.

Das würde ich persönlich bei den (abgehobenen) Mainboard Preisen eher wieder begrüßen als D-RGB (auf den Mainstream bezogen).

Hier ganz nett (und halbwegs aktuell) erklärt / aufgezeigt:

Wenn auch selbst "gestandene" Tech Seiten immer nur auf die Block Diagramme zeigen müssen und das ganze trotzdem nicht in der Realität einordnen können (praktisch - da die Mainboard Hersteller einfach nach belieben selbst entscheiden können - was manche auch ordentlich umsetzen / viele aber leider nicht direkt und offensichtlich erklären), halte ich vieles hier für reines Marketing / Theorien und ist für mich der Grund, warum ich den Mainstream Bereich (schon etwas länger) bewusst meiden möchte:

Natürlich, wird es selten vorkommen, dass jemand die gesamte Bandbreite gleichzeitig zwischen CPU & Chipsatz benötigt, aber falls doch, ist der DMI / UMI immer noch (bewusst im Mainstream) beschnitten.

Das wären für mich übrigens "Artikel" wert, als Tech Seite.

Die dazugehörige Bandbreitenubersicht in Jahren, zeigt es halt auch deutlich, dass sich da einiges getan hat und auch getan werden musste:

Die dazugehörigen Verbindungen (auch zwischen Cache und Cores / Core Chiplets untereinander auf den Chips / Packages selbst oder GPU zu GPU und CPU zu GPU / IO) hat man mal gehört, aber selten auf Tech Seiten genauer erläutert. Als Beispiel: Infinity Fabric oder ehemals Hyper Transport bei AMD: https://www.nas.nasa.gov/hecc/support/kb/amd-rome-processors_658.html
Bei Intel ehemals QPI oder heute Mesh (Ring Bus) oder im GPU Bereich EMIB und bzw. CXL in vielen Bereichen (die Informationen sind leider nicht alle vollständig je nach aktueller Architektur oder Sockel):








 
Zuletzt bearbeitet:
Aus eigener Erfahrung passen / funktionieren als Beispiel auf dem "alten" M-ITX ASRock X99E-ITX 2x 128 GB DDR4 RDIMMs (könnten auch LRDIMMs sein - müsste ich nochmal auslesen) - auch wenn das nie auf der ASRock Homepage / Ram QVL gelistet war.
...
Da war / ist man selbst sehr flexibel, was man verbauen möchte (variable Auswahl an UDIMM, reg. L/RDIMM, OC, Mainstream, WS oder Server CPUs, WS und Server Features, On-board Sound, etc..)
Das lag daran, dass der X99 Chipsatz eben noch eine reine HEDT Plattform war, die aber technisch natürlich auf den Xeons basierte und damals wollte Intel den HEDT Kunden eben UDIMM bieten, während für die C600er Chipsätze nur RDIMM/LRDIMM vorgesehen war. Da dies technisch alles die gleichen Chips waren, konnten die Mainboard Hersteller sich halt über Intels Vorgaben hinwegsetzen und auch RDIMM und LRDIMM in X99 Boards freigeben und zumindest in einigen von denen laufen auch Xeons und die haben dann auch die ECC RAM Unterstützung.

Ich werde mich davon verabschieden können / müssen, dass es wieder einen Chipsatz geben wird, welcher einen die Freiheiten einräumt, aus beliebigen Bereichen (Mainstream, WS oder Server) Komponenten zu verbauen / zu "mixen".
Ja, denn HEDT ist tot, die Mainstream Plattformen bieten inzwischen so viel CPU Performance und PCIe Lanes, beim Z790 sind es auch 20 direkt von der CPU und bis zu 28 vom Chipsatz und damit so viele wie man auch maximal bei X99 hatte, nur waren da dann 40 von der CPU. Es gibt nun nur noch die Workstation Plattformen, AMD hat TR der HEDT war ja auch zugunsten der TR PRO (die sind Workstation) eingestellt und bei Intel übernehmen halt die X Versionen der hier getesteten Sapphire Rapids die HEDT Rolle mit und die unterstützen nun kein UDIMM mehr. Aber dafür gibt es nun OC RDIMM RAM Riegel, ich erinnere mich nicht sowas früher schon mal gesehen zu haben.

kann später immer wieder wechseln auf z.B. CPUs und Ram, welche 5 Jahre vorher für mich einfach nicht bezahlbar waren
Wenn man sich diese Plattform nicht neu kaufen will, weil man nicht so viel Geld ausgeben will oder kann, dann wird man noch so 3 bis 5 Jahre warten müssen, denn meisten behalten die Firmen ihre Rechner so lange und erst dann kommen die erste auf dem Gebrauchtmarkt an. Bis dahin hast Du ja noch genug Zeit zum Überlegen, auch ob es ein Server oder doch eine WS sein soll.

Was ich übrigens meinte bezüglich nicht mehr wirklich transparenten Angaben, zu der Anbindung von CPU / Chipsatz, PCIe und (teil-) deaktivieren Schnittstellen bei der Nutzung von vollen angebunden PCIe Geräten ist der Umstand, dass es früher dafür PLX Chips / Switches gab
Seit Broadcom die Firma PLX übernommen hat, haben sie die Preise der Chips gewaltig erhöht und außerdem haben die Plattformen heute eigentlich selbst genug Lanes, zumal SLI tot ist und man zumindest in Consumerbereich die PCIe Lanes heute vor allem für die Anbindung von NVMe SSDs braucht. Da ist auch die DMI Anbindung kein echter Flaschenhals, denn außer wenn man ein RAID 0 aus mehreren schnellen NVMe SSDs am Chipsatz betreibt, werden kaum jemals wirklich so viele Daten auf einmal in die gleiche Richtung transportiert, dass DMI zum Flaschenhals werden und DMI ist ja technisch PCIe und damit vollduplex, es können also Daten gleichzeitig in beiden Richtungen übertragen werden.

Mein ASRoch Z790 Steel Legend hat z.B. eine PCIe 4.0 x8 Anbindung des Chipsatzes an dem 3 M.2 Slots mit je PCIe 4.0 x4 Anbindung, nur wenn ich alle 3 mit einer schnellen NVMe SSDs bestücke und die in ein RAID 0 packe, wäre DMI hier ein Flaschenhals, aber wozu außer zum Aufgeilen an längsten Benchmarkbalken sollte gut sein?

Übrigens hat mein Mainboard nur eine solcher Einschränkungen und die betrifft den M.2 Slot mit PCIe 5.0 Lanes, wenn der benutzt wird, kann man den M.2 Slot mit den 4 PCIe 4.0 Lanes aus der CPU nicht nutzen (wobei das ein reines Platzproblem ist, die Slots sind gegenüberliegend montiert und die SSDs belegen damit physikalisch den gleichen Platz) und der PCIe 5.0 Slot hat dann nur noch 8 Lanes.
Natürlich, wird es selten vorkommen, dass jemand die gesamte Bandbreite gleichzeitig zwischen CPU & Chipsatz benötigt, aber falls doch, ist der DMI / UMI immer noch (bewusst im Mainstream) beschnitten.
Und das ist auch gut so, denn je mehr und schnellere Schnittstellen wie eben PCIe Lanes man hat, umso höher wir die Leistungsaufnahme und natürlich macht es die ganze Plattform auch teurer. Aber gerade die Mainstream Plattformen sind eben ein Kompromiss und daher eben nicht so teuer und stromhungrig wie eben die hier getestete WS Plattform, die auch Maximalansprüche bedienen soll. Nur kann oder will sich dann, wie Du ja selbst schreibst, längst nicht jeder diese zum Neupreis leisten und kauft sie dann in vielleicht 5 Jahren lieber gebraucht, wenn dann schon wieder neue Modelle auf dem Markt sind, die diese hier vermutlich wieder alt aussehen lassen.

Am Ende muss eben jeder selbst entscheiden was ihm wichtig ist. Wer nur wegen Haben Wollen kauft, für den ist die Entscheidung gefallen und die anderen sollten halt schauen welche Eigenschaften ihnen wichtiger sind und wo er Kompromisse eingehen will.
Bei Intel ehemals QPI oder heute Mesh (Ring Bus) oder im GPU Bereich EMIB
Jetzt wirst Du aber alles durcheinander, denn QuickPath Interconnect (QPI) ist eine Punkt-zu-Punkt-Verbindung für die Kommunikation zwischen Prozessoren untereinander und Mesh ist für die Kommunikation innerhalb der CPU und hat bei den CPUs für die großen Sockel den Ringbus abgelöst. EMIB ist eine Technologie zur Verbindung von Dies zu einem Chip und hat mit mit Mesh oder Ringbus nichts zu tun und mit QPI schon gar nicht, da QPI ja für die Kommunikation zwischen unterschiedlichen Prozessoren ist.
 
Was ist beim S. 4677 nicht möglich? 16DIMM? Natürlich uns es reicht sogar ein Sockel dafür, da die CPUs ja bis zu 16 RAM Kanäle haben und auch zwei DIMM pro Channel unterstützen. Ich kenne zwar kein Mainboard für die Workstation Versionen der Sapphire Rapids Xeons welches dies bietet, es sollte aber gehen, nur Multi-Socket ist normalerweise alleine den Server Varianten vorbehalten, wobei dies auch hier von der jeweiligen Version abhängt.
Supermicro X13SWA-TF

Und bitte Vorsichtig sein, Saphire Rapids Server CPUs, nicht mit Saphire Rapids WS CPUs verwechseln oder vermischen. Die beiden brauchen unterschiedliche Chipsets C741 (Server) und W790 (WS).

Mainstream Plattformen sind gut, wenn man nur eine Grafikkarte und eventuell eine weitere Erweiterungskarte (10GBit-NIC etc.) einbauen möchtete. Möchte man mehr haben, sind oft nicht die richtigen Slots oder diese sind nicht voll elektrisch angebunden (16 Slot aber nur 8fach angebunden). Oder man nutzt einen M.2 Slot und man muss einen PCIe Slot aufgeben. Usw. usw.....
 
Supermicro X13SWA-TF
Da ist ja schon eines mit 16 RAM Slots und damit fehlen dann nur noch 256GB DDR5 RDIMM Riegel für den maximalen Speicherausbau.
Mainstream Plattformen sind gut, wenn man nur eine Grafikkarte und eventuell eine weitere Erweiterungskarte (10GBit-NIC etc.) einbauen möchtete. Möchte man mehr haben, sind oft nicht die richtigen Slots oder diese sind nicht voll elektrisch angebunden
Den meisten reicht dies aber, dafür ist es ja die Mainstream Plattform und für Enthusiasten gibt es eben nun mit den X Modellen der Sapphire Rapids Workstation CPUs gibt es eben nun auch von Intel wieder eine aktuelle Plattform mit reichlich schnellen PCIe Lanes. Wie schon geschrieben muss am Ende jeder für sich entscheiden was seinen Wünsche und Ansprüche am Besten erfüllt, aber man kann eben nicht alles auf einmal haben, diese Plattform ist wie der Review gezeigt hat, eben teuer und zieht schon im Idle reichlich Strom, kann aber bei Spielen trotzdem nicht mithalten. Die optimale Plattform bzw. eben das optimale System welches in jeder Hinsicht optimal ist, gibt es eben nicht und kann es nie geben, man muss immer irgendwo Kompromisse machen, wie eigentlich immer im Leben.
 
Ja, der war im Grunde als erster Xeon Workstation Prozessor mit offenem Multi und damit auch für Enthusiasten der Vorgänger dieser ganze X CPUs, zumindest wenn es um den Einsatz bei Enthusiasten geht. Die Verbreitung unter diese Zielgruppe dürfte wohl auch diesmal ähnlich bescheiden bleiben, denn im Grund bieten die Mainstream Plattformen inzwischen genug und da SLI tot ist, werden mehrere Grakas in einem Rechner eigentlich nur noch bei GPU Computing verwendet. Anspruchsvolle Gamer die sich früher die HEDT Plattform geholt haben um da beiden Grakas in ihrem SLI Verband voll anbinden zu können, werden hier kaum zugreifen, spätestens nachdem sie die Ergebnisse der Spieletest in diesem Review gelesen haben.
laut system sig bin ich ja einer der wenigen die auch so ein projekt unvernunft betreiben ^^, gerade deswegen würde mich ein direkter vergleich sehr interessieren, ob der leistungszuwachs in den einzelnen bereichen nur ein kleiner katzensprung ist, oder doch größer wie bei 3090 vs. 4090 :)
 
Dann nimm doch die Benchmarks die im Review genommen wurden, lass sie laufen und vergleiche die Ergebnisse!
 
Saphire Rapids Workstation kommt daher wie ein alter Ami-Schlitten, fette Karre, Verbrauch jenseits von Gut und Böse, Leistung vorhanden aber kein Kaufargument.
 
Leistung vorhanden aber kein Kaufargument.
Die Leistung in MR Anwendungen ist neben den vielen PCIe Lanes das Kaufargument und war es bei den Workstation CPUs immer schon. Braucht man beides nicht, gibt es natürlich keinen Grund warum man sowas kaufen sollte, aber dies mag für andere ja schon wieder anderes aussehen und als die beste Gaming Plattform wurde sie ja auch nicht angepriesen.
 
Spiele hatte ich dabei auch nicht im Sinn, bei dem Verbrauch müsste SR-W den TR Pro 5000, welcher seit über einem Jahr am Markt ist, in allen Belangen deutlich schlagen.
Ein TR 7000 mit oder ohne extra Cache vernichtet SR-W regelrecht und verbraucht dabei erheblich weniger Strom.
Ich bin seit Sockel 2011-3 auf HEDT primär wegen den PCIe Lanes und hatte die Hoffnung Intel bringt mit der kleinen SR-W Plattform etwas für meine Ansprüche brauchbares.
Aber vielleicht gibt Intel jetzt endlich mal Gas und AMD sieht sich genötigt wieder gute Angebote zu machen, die Hoffnung stirbt zuletzt ...
 
Vergiss nicht, dass sich Sapphire Rapids massiv verzögert hat, um mehr als ein Jahr und damit eigentlich hätte etwa zeitgleich mit den TR PRO 5000 hätte auf den Markt kommen sollen. Deshalb solle der Nachfolger Emerald Rapids auch schon in Q4 kommen (zumindest die Server Versionen, wann und ob WS Modelle kommen wird man sehen müssen) und 2024 sollen dann die ersten in Intel 3 gefertigten Xeons folgen:
Also mal abwarten wie die Leistung und Effizienz dann sein werden und die TR PRO 7000 sollen ja auch erst Ende diese Jahres oder 2024 kommen.

Wobei ich aber auch mal abwarten würde, wie die Leistungsaufnahme, gerade im Idle, bei den OEM Workstations sein wird, denn hier wurde ja nun ein Mainboard für Extrem Übertakter genommen (welches auch beim dem OC Rekord benutzt wurde) und die sind selten auf Effizienz oder Idle Leistungsaufnahme optimiert. Wie viel die BIOS Einstellungen gerade bei der Idle Leistungsaufnahme ausmachen können, sieht man ja gut im Review des 13900KS, wo der auf 6,2GHz übertaktetem KS im Idle 29,8 W statt 4,3W Package Power hatte und selbst die 4,2W des KS und des 13900K auf dem ASUS Mainboard im Review sind mehr als doppelt so viel wie mein 13900K auf meinem ASRock Z790 Steel Legend zieht.

Aus einem Review und gerade auf einem Mainboard mit der Auslegung auf OC würde ich noch keine definitiven Schlüsse ziehen, aber andere Reviews sind leider kaum zu finden. Es wäre schön wenn der Tester auch noch mal die Idle Leistungsaufnahme auf dem ASRock Mainboard testen könnte und auch mal schauen würde, was sich da ggf. noch im BIOS optimieren lässt.
 
Mit solchen 512GB Riegel kann man dann auch mit den bestehenden Mainboard mit 8 DIMM die maximalen 4TB realisieren. DDR5 ist ja noch recht neu, gerade auch im Serverbereich und solche Serverhardware ist im normalen Handel oft erst viel später oder gar nicht zu bekommen, erscheint also auf Portalen wie GH oft erst spät oder gar nicht, auch wenn die großen OEMs dies schon lange anbieten.

Wie viel RAM brauchst Du den bzw. hättest Du den gerne?

Ich Frage mich immer was man mit 128 / 256 und noch 512 GB Riegel anfangen möchte. Jeder Server den ich so kenne läuft als Knoten maximal mit 128 - 256 GB bei 16 Dimms, auch bei den aktuellen Supercomputern. Knoten mit 512 GB sind eher schon selten.
 
Dann kennst Du ganz einfach keine Server für Anwendungen die so viel RAM brauchen bzw. eben von so viel RAM profitieren, was aber nicht bedeutet, dass es diese nicht gibt. Denn gäbe es sie nicht, würde kein Hersteller sowas anbieten. Also ich kenne durchaus Anwendungen die sehr große Datenmengen ins RAM laden um dann auf diesen zu arbeiten, aber auch da muss das Verhältnis von CPU Performance und Datenmenge natürlich stimmen, damit die Antwortzeiten im Rahmen bleiben. Da die CPUs aber immer schneller werden und immer mehr Kerne bekommen, wird man für solche Systeme künftig dann weniger Server brauchen weil je jeder eine größere Datenmenge bzw. eben eine größeren Teil der gesamten Datenmenge in der gleichen Zeit verarbeiten kann die die bisherigen / alten Server brauchen und damit braucht man natürlich automatisch auch mehr RAM in jedem dieser Server. Wie viel konkret, hängt natürlich immer von den Kundenanforderungen ab, also dem konkreten Projekt.
 
@Kullberg:

Wie sieht es da je nach Jahr / Zen / Epyc Variante die Vollbestückung des DRAMs aus bzw. über 8 DIMMs?
In Bezug, ob die Frequenzen verringert werden und die Timings nach oben korrigiert werden.
Gibt das dann der SOC vor oder wird das immer via JEDEC Spezifikation klassifiziert?

PS. AMD hatte das wirklich immer dokumentiert, aber die Mainboard Hersteller am Anfang oft nicht... So war das gemeint von mir.

Unbuffered DIMMs werden halt etwas langsamer sein als registered ECC.
Wieviel das dann wirklich ausmacht (je nach Variante) ist mir persönlich nicht bekannt.
Ist sogar vom Mainboard abhängig, mein MZ32-AR0 kann auch bei 2DPC Bestückung mit allen 8 Kanälen auf 3200MHz laufen:
1681212196063.png

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh