TEST

Server-Upgrade

Wir bauen einen neuen Server

Portrait des Authors


Wir bauen einen neuen Server
25

Werbung

Die Gründe für ein Server-Upgrade können vielfältig sein: Teilweise möchte man die neue Architektur für Performanceherausforderungen verwenden, teilweise um mehrere Server zu virtualisieren, oder aber um ältere Geräte abzulösen, die eventuell ausfallen könnten. Eines gemeinsam haben solche Upgrades aber: Richtig gute Hardware ist teuer. Wir nutzen unser Know-How und basteln uns einen eigenen neuen Server und zeigen, wie es geht. 

Unsere eigentliche Plattform, die im Wesentlichem aus zwei Synology FS3017 besteht, aber in den vergangenen Jahren auch schon etwas ergänzt worden ist, läuft immer noch hervorragend: Ausfälle aufgrund von defekter Hardware gab es keine, nur ein paar SSDs mussten zuletzt getauscht werden. Trotzdem unternehmen wir bereits jetzt proaktiv ein Server-Upgrade, um ein paar in die Jahre gekommene Systeme zu ersetzen und Leistungsreserven für den Notfall zu haben. Auch im Hinterkopf haben wir einen niedrigeren Stromverbrauch durch diesen Tausch an Hardware. Das sollte nicht nur im Hinblick auf die Ausgaben heutzutage im Fokus stehen, sondern auch aus ökologischen Gesichtspunkten - selbst wenn unser Housing-Anbieter auf grünen Strom setzt. 

Ziel von uns ist eine einheitliche Infrastruktur: Die Flashstations beinhalten die (gespiegelten) Daten, der neue Server übernimmt als ESX-Server größtenteils die Rechenlast. Die Daten werden über ein geswitchtes 10GBit-Ethernet-Netzwerk ausgetauscht. Fällt eine Flashstation aus, übernimmt die zweite automatisch - fällt ein ESX-Server aus, übernimmt ein weiterer. Und für den größten GAU bleibt noch ein älterer aber inaktiver ESX Server im Rack als Sicherheitsreserve.

Die Hardware

Für die Prozessoren haben wir Intels aktuelle Xeon-Generation auf Basis der "Ice Lake"-Architektur ausgewählt. Zwei Prozessoren vom Typ Xeon Gold 6348, die in 10-nm-Technologie gefertigt worden sind und bereits im Q1 2021 vorgestellt worden sind, sorgen für die nötige Rechenpower. Mit 28 Kernen kann ein Prozessor 56 Threads liefern, zusammen kann unser 2-CPU-Server also mit 112 Threads auftrumpfen. Im Turbo sind die Kerne bis zu 3,5 GHz schnell, laufen im Normalbetrieb aber mit 2,6 GHz. Pro CPU stehen 42 MB Cache zur Verfügung.

Da wir auf ein Sockel-4189-System setzen müssen wir ein Mainboard mit C621A-Chipsatz nutzen. Hier kommt ASRock Racks SP2C621D16-2L+ zum Einsatz. Das Mainboard besitzt pro CPU die passenden 8-Kanal-Dimm-Slots, zudem bringt es schon zwei 10-Gbit-Ethernet-Schnittstellen über einen Intel X550-AT2-Chip mit, unterstützt Realtek IPMI und hat auch bezüglich der Storage-Anbindungen einiges zu bieten: Insgesamt 16 SAS3/SATA3-Geräte können über zwei Mini-SAS-8i-Anschlüsse angebunden werden, weiterhin stehen drei SFF-8643-Anschlüsse für weitere zwölf SATA-Geräte zur Verfügung. Letztendlich befinden sich noch zwei normale SATA-Anschlüsse und ein NVME-Sockel direkt auf dem Mainboard. Über insgesamt fünf PCIe-4.0-x16-Slots und einen x8 könnte man zudem das Board noch mit diversen Erweiterungskarten bestücken. 

In die Speichermodule des Mainboards stecken wir insgesamt acht Speichermodule - 16 Speichermodule könnte das Mainboard aufnehmen. Eingesetzt werden Kingston KSM32RD4/64MFR, die 64 GB pro Modul aufweisen können - entsprechend haben wir am Ende 512 GB RAM zur Verfügung. Die Module laufen auf DDR4-3200-Geschwindigkeit und haben eine Latenz von CL22, besitzen Parität (reg. ECC) und sind als Dual-Rank-Module aufgebaut. Unsere Version baut auf Micron F-Die-Chips auf, es gibt auch eine Version mit Hynix-Speicherchips.

Preise und Verfügbarkeit
Kingston KSM32RD4/64MFR
Nicht verfügbar Nicht verfügbar Nicht verfügbar
Preise und Verfügbarkeit bei Geizhals
Kingston KSM32RD4/64MFR

Das Ganze stecken wir in ein Supermicro-Gehäuse - und zwar in das Supermicro CSE-216BAC4-R1K23LPB. Insgesamt 24 Drives lassen sich an der Vorderseite in das Gehäuse stecken, wobei wir eine Hybrid-Backplane vorfinden, die 20x SAS3/SATA3 und 4x SAS3/SATA3/NVME aufnehmen kann. Insofern gäbe es die Möglichkeit, hier auch noch NVME-Drives zum Aufrüsten zu einem späteren Zeitpunkt einzubauen. Auch wenn wir auf den Storage-Part geachtet haben, so werden die Einschübe zunächst leer bleiben, da wir für den ESX-Server nur einen internen USB-Stick anschließen müssen. Zur Stromversorgung dient dem Gehäuse ein redundates 1200 W Titanium-Netzteil, es besitzt also viel Power, Redundanz und eine hervorragende Effizienz. 

Zuletzt brauchen wir noch etwas "Beiwerk": Natürlich müssen unsere CPUs ordentlich gekühlt werden, hierfür haben wir zwei Dynatron N8-Kühlkörper angeschafft, die mit jeweils fünf Heatpipes und einer Vapor Chamber Base Prozessoren mit einer TPD von bis zu 270 W kühlen können. Unsere Xeons liegen bei 235 W - insofern reichen die passiven N8 in Zusammenspiel mit den eingebauten Lüftern aus. Die Kühler wiegen je 500 g, sind also schwere Brocken. Weiterhin erwerben mussten wir Kabel zum Verbinden der SFF-8643-Anschlüsse von der Hybrid-Backplane mit dem Mainboard. ASRock Rack legt zwar Kabel bei, doch nur für SFF-8643 auf normale SATA-Anschlüsse. Insofern haben wir zwei MiniSAS-8i- auf SFF-8643-Kabel erworben, und zwei Verbinder SFF-8643 auf SFF8643. Diese Kabel sind ein teures Vergnügen und kosten aufgrund ihres speziellen Einsatzfeldes gerne einmal 50-60 Euro pro Kabel.

Preise und Verfügbarkeit
Supermicro CSE-216BAC4-R1K23LPB
Nicht verfügbar Nicht verfügbar Nicht verfügbar

Ziel: Live-Betrieb Ende September

Den Zusammenbau haben wir mit einer kurzen Beschreibung der Komponenten bereits erledigt. 

Datenschutzhinweis für Youtube



An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen Sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.

Ihr Hardwareluxx-Team

Youtube Videos ab jetzt direkt anzeigen

Der nächste Schritt ist nun der produktive Einsatz des Systems: Im Laufe des Septembers wird das System vorinstalliert, geprüft und Lasttests unterwiesen, dann kommt es Ende September in unser Rack beim Hoster. Je nachdem, wie schnell wir sind, wird dann Hardwareluxx bereits Ende September oder Anfang Oktober über den neuen Server ausgeliefert. Im Anschluss werden wir mit den Live-Daten auch noch ein paar Informationen nachliefern können, welche Performanceunterschiede wir in diversen Bereichen messen konnten.