AMD EPYC 7002 alias Rome im 2S-Server mit mehr PCIe-Lanes

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.949
amd-rome.jpg
Den grundsätzlichen Aufbau der EPYC-Prozessoren der 2. Generation kennen wir. Es wird einen zentralen I/O-Die und acht Chiplets mit jeweils acht Zen-2-Kernen geben – insgesamt also 64 Kerne bei einer Vollbestückung. Die Zen-2-Architektur als solches wurde bisher nur grob umrissen. Unter anderem bekannt ist das Vorhandensein von nun vier 256 Bit breiten FPUs (Floating Point Units). Zudem hat man den Op-Cache vergrößert, den Instructions Cache reorganisiert und die gesamte Pipeline weiter optimiert. AMD spricht...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Um bei Intel auf mehr als 100 Lanes zu kommen reicht ein 2S System aber nicht? Oder zählt ihr DMI mit?
 
Um bei Intel auf mehr als 100 Lanes zu kommen reicht ein 2S System aber nicht? Oder zählt ihr DMI mit?

"muss bei Intel schon zu einem 4S-System greifen" - da steht vorher 2S-System, obwohl die Zahlen darüber richtig sind. Danke für den Hinweis!
 
CCIX und Gen-Z werden auch unterstützt.

AMD könnte die beiden Sockel auch schneller als "nur" mit PCIe 4.0 Speed koppeln.
 
Wieso ist hier denn der Fokus so sehr auf PCIe??
PCIe kommt in 3.0 mit einer Bandbreite von ~16GB/s - real nutzbar durch 8b/10b 20% weniger davon. Die IFIS Bandbreite bei AMD Epyc liegt bei 38GB/s bidi - also bei 19GB/s pro Richtung. -> was in der Form nichts mit PCIe - sondern eher mit der RAM Taktung = Zusammenhang zur IF Taktung zu tun hat. Die IF hat intern die doppelte Bandbreite zum RAM. Bei 2666er Speicher ergibt sich 42 Komma irgendwas GB/s IFOP Bandbreite - macht durch Overhead (irgendwelches CRC Zeugs laut WikiChips) 8/9tel für IFIS -> ergibt besagte 38GB/s bidi.

Mit PCIe hat hier in erster Linie das Pinout und die Übertragungstechnik etwas gemein. Es sind 16Bit breite / 8 Transfers pro Taktung analog zu PCIe. Und natürlich der Fakt, dass man den Link in einem PCIe Modus auch fahren könnte/kann.
Würde man jetzt ganz stupide das Milchmädchen mal von einer 1:1 Verdopplung im Idealfall ausgehen - macht das eine overall Bandbreite bei 4x aktiven Links von 304GB/s pro Richtung.

Wie im Artikel vorgerechnet kommt die Speicherbandbreite allein in Spitzen auf ~200GB/s. Bei 64 aktiven PCIe 4.0 Lanes könnten da nochmal >100GB/s drauf kommen. Und dann ist immernoch nicht ein einziges Datenpaket Cacheinhalt übertragen wurden - oder irgend ein Core-Core traffic. Bei 4x Lanes wohlgemerkt.


Das jetzt noch weiter einzukürzen halte ich da für recht wenig sinnig.

Was mich auch bisschen wundert - in der Quelle ist vieles einfach nur ne Annahme - hätte wäre wenn usw. Absolut nichts konkretes. Man meint sogar, dass der 2x Link IF Weg nicht supportet sei - zum 3er Link Konstrukt gibts es weder eine Bestätigung noch ne Absage.
Das mMn verwertbarste an der Aussage ist dort eigentlich der Wink zu einer möglichen Änderung der Anbindung von Peripherie. Was real massiv Lanes sparen würde - die man dann auch andersweitig nutzen könnte. Die Nutzung mehr PCIe Lanes durch Einsparung von IFIS-Links halte ich für unwahrscheinlich. Technisch kein Ding der Unmöglichkeit wäre das nämlich auch mit Epyc schon gewesen... Hat man den Joker gezogen?? -> nö. Warum gerade jetzt?

Bei nur 2/4 Links zwischen den beiden Sockeln in einem fiktiven Epyc Setup wären immernoch nur zwei Hops vorhanden, wenn man anstatt zuerst über die IFIS -> IFOP den Spaß einfach umdreht. Erst über die IFOP -> IFIS. Nämlich zu dem Connector, der den Link zur zweiten CPU hat - und schon hätte man die Links frei für irgendwas.
 
PCIe kommt in 3.0 mit einer Bandbreite von ~16GB/s - real nutzbar durch 8b/10b 20% weniger davon.
PCIe 3.0 x16 hat so 15,75 16GB/s brutto, pro Richtung, aber PCIe 3.0 hat eine 128b130b Bitkodierung und keine 8b10b und die ist bei den 15,75GB/s schon abgezogen. Aber die Bitcodierung ist ja nicht der einzige Overhead im Protokoll, jeder Layer des Protokollstacks macht einen eigenen Overhead und daher verliert man nochmal etwa so 20%.
 
stimmt, nicht 8b/10b - das war bis PCIe 2 - mein Fehler. Spielt für die Benennung als Beispiel, dass reiner RAM Traffic nicht der einzige Traffic durch die Fabric ist, aber eigentlich auch keine wirkliche Geige
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh