ASRock Rack ROME2D16-2T im Test: Zweimal EPYC für jede Menge PCIe

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.953
Einen der großen Vorteile der aktuellen und vorherigen EPYC-Generation (Rome und Milan) ist das enorme Angebot an PCI-Express-Lanes. Pro Prozessor stehen 128 Lanes zur Verfügung, in einem 2S-System sind es sogar 160. Nicht jedes Anwendungsprofil verlangt nach derart vielen PCI-Express-Anbindung, sollte aber genau danach verlangt werden, stellt das heute im Test befindliche ASRock Rack ROME2D16-2T eventuell den perfekten Untersatz dar. Wir haben uns das Mainboard mit gleich fünf PCIe-4.0-x16-Steckplätzen und diversen Storage-Optionen einmal genauer angeschaut.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und vorallem, völlig nicht sagend.

Keine RAM Vollbestückung.
Nichtmal die Hälfte der PCIe belegt.
 
Freuen wir uns doch lieber, dass überhaupt so ein Mobo vorgestellt wird
Eben, ich habe diesen Test und die anderen wenigen zu Server Hardware hier immer gerne gelesen, obwohl ich gar nicht aus "der Ecke" komme.
Kann schon sein, dass darauf spezialisierte Seiten in dem Bereich intensiver und früher testen. Ist doch zumindest eine nette Abwechslung zu den 0815-Gamer Hardware-Reviews.
 
Epyc Boards sind halt relativ uninteressant, da oftmals überall das gleiche IPMI im Referenzdesign von Aspeed zum Einsatz kommt und das Mobo eigentlich nur als Port-Expander der CPU dient. Epyc ist ja bekanntermaßen ein SoC.
 
Bei meinen Rechnern halten sich die Unterschiede tatsächlich in Grenzen. Ich hab 2 GIGABYTE MZ72-HB0 mit AST2500 und 3 Supermicro H12DSi-N6 mit AST2600. Spannend sind die Unterschiede im Verbrauch des BMC - die Gigabyte verbrauchen an der Dose ausgeschaltet 15W, die Supermicro nur ca. 5W.
 
@freakyd
Ich hab im letzten halben Jahr 5 dual CPU EPYC Systeme gebaut, bin also die Zielgruppe. Hast Du schonmal einen gebaut?

Wow das ist ja viel.

Für mich liest sich der nichts aussagende Test einer veralteten Plattform (DDR5 LRDIMM und RDIMM) wie schlechte Schleichwerbung. Bei den Preis kann man sich gleich ein Supermicro HS12 holen.

Was will der Test sagen, dass das Mainboard funktionierte und 10G Netzwerk hatte?
 
Wenn es das Asrock Brett schon auf dem Markt gegeben hätte, hätte ich auch davon eins gekauft. Mir gefällg ganz gut der relativ große VRM Kühlkörper. Und Asrock Rack Bretter sind gar nicht so schlecht - ich hab nen Threadripper auf TRX40D8-2N2T - und das funzt ganz gut und braucht ausgeschaltet auch nur 5W.
 
Wären die ASRack Dinger mal verfügbar, wollte schon lange ein AM4 10Gbit Board kaufen, aber bekommst ja nix, nur manchmal eins zu überteuerten Preisen...
 
Danke für den Test, ich vermiss aber wieder jegliche Stromverbrauch Messungen.
 
Obwohl wir ASRock Rack Produkte im Programm haben, zählen wir nicht unbedingt zur Zielgruppe, weil in dieser Preisklasse eher Komplettsysteme eingekauft werden. Allerdings muss ich das Layout des Boards loben, das ist (bis auf den vorderen Oculink vielleicht) wirklich sehr durchdacht und DIY freundlich. Da hatte ich in letzter Zeit auch ganz anderes auf dem Tisch.

Edit: Die Belastbarkeit der Lüfteranschlüsse (einzeln/gesamt) sollte ASRock aber wirklich anfangen im Handbuch anzugeben.
 
VGA da mal zu ersetzen dürfte doch nicht mal mehr Kostengründe haben. Ja es ist ein Server aber am Ende hängt dann da ein Adapter weil es keine Monitore mit VGA mehr gibt.
 
Ich verbaue nur Dell Server mit der IDRAC Schnittstelle für die remote Installation. Bietet AMD hier etwas ähnliches?
Beitrag automatisch zusammengeführt:

VGA da mal zu ersetzen dürfte doch nicht mal mehr Kostengründe haben. Ja es ist ein Server aber am Ende hängt dann da ein Adapter weil es keine Monitore mit VGA mehr gibt.
Kein Mensch schließt an einen Server einen Monitor an.. Auch nicht für die Installation... Die Zeiten sind seit 15 Jahren vorbei...
In einem modernen Rechenzentrum wird der Server ausgepackt und ins RACK gestekt, der QR Code des Servers gescannt, dann mit dem LAN/Fiber verbunden und den Rest macht man vom Büro über den Remote Zugang.
 
Zuletzt bearbeitet:
Wieso sollte AMD die Fernwartung liefern?
Die läuft bei diesen EPYC Boards über ASpeed AST2x00 mit IPMI und iKVM über HTML
 
VGA da mal zu ersetzen dürfte doch nicht mal mehr Kostengründe haben. Ja es ist ein Server aber am Ende hängt dann da ein Adapter weil es keine Monitore mit VGA mehr gibt.
Die meisten KVM-Switches haben noch VGA.
 
Warum soll ein CPU Hersteller wie AMD die Fernwartungsschnittstelle anbieten?
Dell, HP, Lenovo bieten alle eine Lösung dafür an.
 
In einem modernen Rechenzentrum wird der Server ausgepackt und ins RACK gestekt, der QR Code des Servers gescannt, dann mit dem LAN/Fiber verbunden und den Rest macht man vom Büro über den Remote Zugang.

Unüblich, habe ich noch nie gesehen. Vor allem unpraktisch, ein Fehler und dann Schraubenschlüssel durch die Telefonleitung schicken?

Üblich hat man vor Ort einen Laptop, hat auch gleich jeder große Rack und steuert damit.
 
Unüblich, habe ich noch nie gesehen. Vor allem unpraktisch, ein Fehler und dann Schraubenschlüssel durch die Telefonleitung schicken?

Normalerweise fällt es gar nicht auf, wenn ein Server ausfällt! Die ESX V-Server laufen dann automatisch auf anderer Hardware weiter. Da merkt man nichts von.
Wenn ein Hardware-Server ausgefallen ist, wird er eben irgendwann mal ersetzt..


Üblich hat man vor Ort einen Laptop, hat auch gleich jeder große Rack und steuert damit.

Wie gesagt, das war mal so... IDRAC & ESX - VM failover sind die moderne Antwort, für den modernen Admin von heute.


Jeder vernünftige Server hat einen Remote Zugang, über den man CD ISOs virtuell hochladen kann und dann die ESX Software installieren kann. ALLES vom warmen Büro aus :)
Aber lauft ihr gerne weiter durch das kalte Rechenzentrum mit eurem Notebook. Ich empfehle mal einen Kurs, "moderne Server"

Monitore und Tastaturen in einem Serverrack sind auch mehr als 90er! Seit ihr Sicher, dass ihr Server in euren Schränken habt?
Beitrag automatisch zusammengeführt:

Warum soll ein CPU Hersteller wie AMD die Fernwartungsschnittstelle anbieten?
Dell, HP, Lenovo bieten alle eine Lösung dafür an.
Natürlich, ein Fehler von mir.
Aber hatte Intel nicht auch mal eine Fernwartung direkt angeboten?
 
Zuletzt bearbeitet:
Wenn ein Hardware-Server ausgefallen ist, wird er eben irgendwann mal ersetzt..

Genau und das machst Du sicher vom Büro aus?
Jeder vernünftige Server hat einen Remote Zugang, über den man CD ISOs virtuell hochladen kann und dann die ESX Software installieren kann. ALLES vom warmen Büro aus :)
Aber lauft ihr gerne weiter durch das kalte Rechenzentrum mit eurem Notebook. Ich empfehle mal einen Kurs, "moderne Server"

Vielleicht solltest Du mal ein Kurs in Montage und Aufstellung eines Rechentzentrum /Serverraum belegen. Denn jeder Rack/Großrechner hat natürlich vor Ort einen Laptop. Stichwort einrichten /Bootvorgang etc. Da rennt niemand erst in das Büro und dann bei einem Fehler wíeder zurück.


z.B:

Minute 4:33


Monitore und Tastaturen in einem Serverrack sind auch mehr als 90er! Seit ihr Sicher, dass ihr Server in euren Schränken habt?

Du hast sicher noch keinen einzigen Server aufgestellt und laberst nur. Mit Monitor und Tastatur hat das noch niemand gemacht -> IPMI.
 
Zuletzt bearbeitet:
Wieso sollte AMD die Fernwartung liefern?
Die läuft bei diesen EPYC Boards über ASpeed AST2x00 mit IPMI und iKVM über HTML
Benötige ich also für den Server noch einen KVM Switch? Oder ist der KVM Switch im Server im IPMI eingebaut?
Beitrag automatisch zusammengeführt:

Du hast sicher noch keinen einzigen Server aufgestellt und laberst nur. Mit Monitor und Tastatur hat das noch niemand gemacht -> IPMI.
Sorry, aber nicht meine Worte umdrehen...
Naja, weitermachen!

Ich betreue mehrere ESX Cluster! Und war noch nie länger als 10 Minuten im kalten Rechenzentrum! ALLES mache ich per IDRAC und ESX. Wofür ich da ein Notebook brauche ist mir ein RÄTSEL !
....natürlich vor Ort einen Laptop. Stichwort einrichten /Bootvorgang etc.
Was genau muss man denn nach einem Einbau an einem Server vor Ort einstellen?
Normalerweise bekommt die IDRAC Schnittstelle per DHCP eine IP und ich kann alles vom Büro einstellen. Und auch die ESX Software per remote Konsole installieren...

Jetzt bin ich gespannt!
 
Zuletzt bearbeitet:
Was genau muss man denn nach einem Einbau an einem Server vor Ort einstellen?

- bei installierten Grafikkarten (auch Serverkarten wie Tesla) muss z.B. die Onboard Grafikkarte zuerst auf priority gestellt werden, sonst sieht Du über IPMI Konsole nur einen schwarzen Bildschirm und kommst niemals in das Bios Du angeblicher Experte.
- testen ob das System bootet und alle Komponenten erkannt werden, ist nicht immer der Fall

Machst Du sicher alles mit den Schraubenzieher über die Telefonleitung.....

Das Video überhaupt gesehen? Was macht der Mann da überhaupt an der Laptop-Konsole und komisch das sowas überhaupt der Supercomputer hat, geht doch heute alles abgeblich vom Büro aus. Vielleicht solltest Du die Jungs in Stuttgart mal aufklären wie das besser geht. Und so eine vor Ort Konsole haben die meisten großen Racks, ist nämlich Standard.

Normalerweise bekommt die IDRAC Schnittstelle per DHCP eine IP und ich kann alles vom Büro einstellen. Und auch die ESX Software per remote Konsole installieren...

Jetzt bin ich gespannt!

Genau und die Hardware funktioniert sicher von alleine und man fährt extra erst in das Büro, dumm wenn das ganz wo anders ist, um festzustellen dass das System überhaupt bootet. Erklär das mal den Techniker vor Ort. Ich sehe schon Du hast absolut keine Ahnung.
 
Hier scheinen alle aneinander vorbei zu reden, ich wünsche allen ein schönes Wochenende!
 
Unüblich, habe ich noch nie gesehen. Vor allem unpraktisch, ein Fehler und dann Schraubenschlüssel durch die Telefonleitung schicken?

Üblich hat man vor Ort einen Laptop, hat auch gleich jeder große Rack und steuert damit.
Die großen Hyperscaler machen das alle so, die letzten beiden Unternehmen für die ich tätig war ebenso. Da fummelt niemand mehr im Kaltgang mit ner ausziehbaren Konsole rum. Die Server haben heutzutage nicht umsonst ausziehbares Tags mit allen wichtigen Infos drauf. Das sollte eigentlich wirklich so sein wie von @nebulus1 beschrieben. Rackschienen rein, Server reinhängen, Kabel dran, Tag abfotografieren mit den Daten und ab gehts. Supercomputer sind wieder was Anderes, da wird das sicherlich anders gehandhabt. Aber normale 0815 Rackserver in modernen Unternehmen werden doch nicht mehr vor Ort installiert ?!

Hat ja auch nicht umsonst so tolle Projekte wie das hier: https://maas.io/
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh