AMDs EPYC 7H12 bietet 64 Kerne bei 2,6 GHz und 280 W TDP

Äh es gibt keinen Unterschied zwischen einen 7301 und 7371, das ist die gleiche CPU.

Deswegen wurde ja von einem Nachfolger des 7371 gesprochen - den es immernoch nicht gibt...

Halte ich für ein Gerücht, denn der Epyc hat Octachannel somit gibt es da keine nenenswerten Numa Probleme.

Was hat die Anzahl der Speicherkanäle mit der NUMA Problematik zu tun? Richtig, nichts...
Die NUMA Problematik besteht darin, dass der Epyc 1 mit ganzen vier NUMA Nodes aufwartet - während ein vergleichbarer Xeon oder Epyc 2 nur einen Node nutzt. Für die richtige Skalierung benötigt man wahlweise NUMA aware Software (auch im Enterpriseumfeld lange nicht gängige Praxis) oder entsprechend viel gleichzeitig ausgeführte non NUMA aware Software. Letzteres ist dabei eher ein Workaround als eine Lösung, denn es umgeht die Limitationen nicht. Ein NUMA Nodes des alten 1er Epycs kann maximal auf 1/4tel des gesamten Speichers lokal zugreifen und hat nur 1/4tel der Threads lokal. Software, die viel RAM und wenig Thread oder viele Threads bei wenig RAM Bedarf anspricht, verursacht im Resultat massiven Traffic auf der Fabric - die eh schon schmal ist um vollen Durchsatz beim Speicher zu gewährleisten. Da redet noch keiner über Interconnects in die Außenwelt (FC, FCoE, Ethernet und Co. mit GB-Weise Durchsatz die Sekunde) oder auch Storage lokal am PCIe Interconnect.

Exakt das alles umgeht man mit einem System, was 1-2 NUMA Nodes bei 1-2P bereit stellt. Einer der großen Pluspunkte der Xeons ggü. den 1er Epycs und DER Pluspunkt schlechthin pro Epyc 2...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum soll das nichts mit den Speicherkanälen zu tun haben?

Beim Eypc hat jeder Numa Node seine eigene zwei Speicherbänke. Somit hat meine keine Probleme, solange die maximale Speicherbelegung pro Numa Node nicht überschritten wird. Wenn 256 GB installiert sind, kann pro Numa Node 64 GB verwendet werden.
Anders schaut es beim Threadripper mit nur vier Kanälen aus.
Bezüglich Epyc müssen also sehr unwahrscheinliche Umstände vorhanden sein:

- es wurde sehr wenig Speicher installiert
- es wird überwiegend Software mit nur ein Kern bzw. sehr wenigen Kernen verwendet die den Großteil des installierten Speichers beantsprucht.

In beiden Fällen sitzt hier der Fehler vor dem Bildschirm. Wer nur wenige Kerne nutzt braucht keinen Energieverschwender mit 32 und mehr Kernen.

"
Software, die viele Threads bei wenig RAM Bedarf anspricht, verursacht im Resultat massiven Traffic auf der Fabric - die eh schon schmal ist um vollen Durchsatz beim Speicher zu gewährleisten.
"

Nö, ansonsten hätte man bei CFD massive Probleme, das Epyc System ist schneller:

AMD Epyc CFD benchmarks with Ansys Fluent -- CFD Online Discussion Forums
 
Zuletzt bearbeitet:
Bezüglich Epyc müssen also sehr unwahrscheinliche Umstände vorhanden sein:

- es wurde sehr wenig Speicher installiert
- es wird überwiegend Software mit nur ein Kern bzw. sehr wenigen Kernen verwendet die den Großteil des installierten Speichers beantsprucht.

In beiden Fällen sitzt hier der Fehler vor dem Bildschirm. Wer nur wenige Kerne nutzt braucht keinen Energieverschwender mit 32 und mehr Kernen.
ZFS NAS VM, und nun ?
Sitzt der Fehler hier immer noch vor dem Bildschirm ?

Natürlich bringen viele NUMA-Nodes Probleme mit sich, siehe ua. DPDK.
Auch werden durch die neue µArch die Latenzen gleichmäßiger und viel wichtiger, vorhersagbarer.
Sich mit nur 1-2 NUMA Nodes rumzuschlagen ist immer besser als mit 4 bzw. 8.
 
ZFS NAS VM, und nun ?
Sitzt der Fehler hier immer noch vor dem Bildschirm ?


Ja, weil man voher schon weiß wie viele VM usw. man ungefähr verwendet. Außerdem tritt das nur bei sehr wenig installierten Speicher auf. Wer den maximalen Speicher pro Numa Node nicht überschreitet hat keine Probleme.
 
Ja, weil man voher schon weiß wie viele VM usw. man ungefähr verwendet. Außerdem tritt das nur bei sehr wenig installierten Speicher auf. Wer den maximalen Speicher pro Numa Node nicht überschreitet hat keine Probleme.

Oder man verzichtet auf den Übertaktungsquatsch, nimmt dafür z.B. lieber einen Ryzen 3000 oder Threadripper, und hofft auf einen 7371 Nachfolger, dessen Plattform mitnichten 4000 € kostet, und erfreut sich an höheren Basis- und Turbotaktraten im, vom Hersteller vorgesehenen, Rahmen und hat die ganze NUMA-Problematik bei einem Single-Socket einfach nicht ?

Oh noch was, was ist, wenn AMD ein AGESA-Update bringt, das den Multi bei Naples plötzlich lockt ? Oder das Tweaken der P-States unmöglich macht ? Oder die Boardhersteller verdonnert, etwaige Versuche im Keim zu ersticken wie sie es schon mit PCIe 4.0 Support bei AM4 für alle Chipsätze außer X570 gemacht haben ? Und nu ?
 
Zuletzt bearbeitet:
Warum soll das nichts mit den Speicherkanälen zu tun haben?
Weil die Problematik die Anzahl der NUMA Nodes ist - nicht (TR like) der Aufbau...

Keine Ahnung worauf du hinaus willst - AMD hat das Thema komplett beerdigt. Das Beste, was potentiellen Kunden überhaupt passieren konnte.
Einer der größte Kritikpunkte seit G34 ist endlich vom Tisch. Da gibts eigentlich nichts dran auszusetzen und vor allem ist es unnötig die Existenz der Probleme zu leugnen, so wie du das hier gerade versuchst.

Beim Eypc hat jeder Numa Node seine eigene zwei Speicherbänke. Somit hat meine keine Probleme, solange die maximale Speicherbelegung pro Numa Node nicht überschritten wird. Wenn 256 GB installiert sind, kann pro Numa Node 64 GB verwendet werden.
Siehst du - das ist das Problem. Der besser gesagt, das ist ein größerer Teil des NUMA Problems. Der zweite große Problempunkt ist die Anzahl der Cores/Threads pro NUMA Node mit lokalem Speicher. Wenn wie in deinem Fall beim 7301 16C/32T installiert sind, kann pro NUMA Node 4C/8T verwendet werden. Was mach ich mit VMs, die mit 16 oder 32GB auskommen, aber 8x vCPUs wollen? (Terminal Server oder VDI Clients bspw. wären eher CPU lastig bei aktiver Nutzung) Mit nur einem Node (wie Epyc 2 oder den Xeons) hättest du das nicht. Exakt das beschreibt die Problematik, die Epyc 1 massiv Wind aus den Segeln genommen hat. Mit Epyc 2 wie gesagt, kein Problem...

Nö, ansonsten hätte man bei CFD massive Probleme, das Epyc System ist schneller:

AMD Epyc CFD benchmarks with Ansys Fluent -- CFD Online Discussion Forums

Auch hier verstehst du scheinbar das Problem nicht. Was der CFD Einwand bezwecken soll erschließt sich mir nicht - niemand sprach von "schneller" oder "langsamer". Zumal schneller/langsamer als was genau?
Ich sagte, das die Fabric schmal ist. Und das ist nachweislich der Fall, da die theoretische maximal Bandbreite gerade so ausreicht um vollen RAM Durchsatz beim 8-Kanal SI zu gewährleisten. Kommt dann noch Inter DIE Traffic für die Cores, Cachezugriffe und dergleichen dazu sowie PCIe Traffic, kannst du zusehen, wie der Spaß "einschläft"... Glaubst du nicht? Teste es selbst. Du hast ja offenbar nen Epyc stehen...

Ja, weil man voher schon weiß wie viele VM usw. man ungefähr verwendet.
Das mag sein, aber was bringt es dir außer den Vorteil, diesen eigentlich unnötigen Workaround anwenden zu können?

Idealerweise ist das verwendete System in Sachen Belastung flexibel. Sodass man nur so viel Ressourcen kaufen muss um das abzudecken, was an Bedarf da ist. Ein Xeon ist das, ein Epyc 2 auch... Du kannst fast bedenkenlos Threads und Speicherbedarf hoch und runter skalieren, wie du lustig bist oder deine Anforderungen es definieren. Das ist der Grund, warum das NUMA Problem nichts mit der Anzahl der Speicherkanäle zu tun hat, weil es unabhängig des genutzten Produktes im selben Maße zutrifft.

Ich für meinen Teil sehe absolut keinen Sinn darin, Speicher bis teils Faktor 4 über den Bedarf zu erstehen, wo gerade im VM Umfeld der RAM idR der teuerste Posten ist. Zudem fressen einen die Lizenzen in Sachen pro Core Lizensierung nicht selten die Haare vom Kopf, nur weil man da bis Faktor 4 über den Bedarf gehen soll - wozu sollte man das wollen??
 
Auch hier verstehst du scheinbar das Problem nicht. Was der CFD Einwand bezwecken soll erschließt sich mir nicht - niemand sprach von "schneller" oder "langsamer". Zumal schneller/langsamer als was genau?
Ich sagte, das die Fabric schmal ist. Und das ist nachweislich der Fall, da die theoretische maximal Bandbreite gerade so ausreicht um vollen RAM Durchsatz beim 8-Kanal SI zu gewährleisten. Kommt dann noch Inter DIE Traffic für die Cores, Cachezugriffe und dergleichen dazu sowie PCIe Traffic, kannst du zusehen, wie der Spaß "einschläft"... Glaubst du nicht? Teste es selbst. Du hast ja offenbar nen Epyc stehen...
Die Fabric ist zu schmal, weil ihr nur ein Core nutzen könnt?

Hallo, Intel?
4-Fach SMT skalar?
 
Was der CFD Einwand bezwecken soll erschließt sich mir nicht
Kommt dann noch Inter DIE Traffic für die Cores, Cachezugriffe und dergleichen dazu sowie PCIe Traffic, kannst du zusehen, wie der Spaß "einschläft"... Glaubst du nicht? Teste es selbst. Du hast ja offenbar nen Epyc stehen...

Das wollte ich damit bezwecken, ich kenne für mich keinen praktischen Anwendungsfall wie der Spaß "einschläft"
 
Anders schaut es beim Threadripper mit nur vier Kanälen aus.
Bei den TR mit 4 aktiven Dies, also dem 24 und dem 32 Kerner, kommt neben dem NUMA noch besonders hinzu, dass bei ihm nur 2 der 4 Dies eben eine eigenen RAM Anbindung haben. Der hat also nochmal ein spezielles NUMA Problem, aber dies bedeutet eben nicht, dass die Gen1 EYPC nicht ebenfalls schon mit einem Sockel die generellen Probleme eines Systems mit mehreren NUMA Nodes haben, wie sie sonst nur bei Systemen mit mehreren CPU Sockeln auftreten.
 
Die Fabric ist zu schmal, weil ihr nur ein Core nutzen könnt?
Aus dieser Anmerkung sieht man wieder, dass da jemand nichts verstanden hat. Nein, fdsonne hat folgendes geschriebnen: die Fabric ist gerade so schnell, dass der RAM Zugriff möglich ist, und keine zusätzliche Bandbreite für die Kommunikation mit anderen NUMA-Knoten vorhanden ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh