Serverhardware Kalkulation

visualev

Experte
Thread Starter
Mitglied seit
27.12.2012
Beiträge
20
Ort
Nürnberg
Hallo @all,

ich benötige einen Austauschserver mit 12 VMs (16 Core CPU, 128GB RAM) für ein kleines Unternehmen unter Server 2016.

Kann ich einfach die Summe der vCPU und vRAM addieren je VM und einen entsprechenden Server betreiben oder ist bei 12 VMs eine Aufteilung auf 2 Server besser?

Vielen Dank im Voraus

Lev
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist mir klar, jedoch stellt sich die Frage ob 2 x 16 Core Server mit jeweils 6 VMs viel schneller sind (auf SSD Basis) als ein einzelner 16 Core Server mit gleichen vCPU und vRAM und 12 VMs.
 
...die Frage ist, was genau "schnell" definiert.
Wenn Deine Anmerkunbg "auf SSD Basis" darauf hindeuten soll, würde ich ja sagen, dass bei aktuellen Möglichkeiten auf NVMe mit PCIe-Anbindung zu setzen, SSDs niemals schnell sein können, da der Bus einfach limitiert.

...schonmal an ein DP-Board gedacht, statt 2 getrennte Hobel? Statt auf SSDs auf NMVe-PCIe setzen, zb auch einen PCIe-> M.2 Adapter rein...da kommt man schon auf erkleckliche IOPs.
Evtl. bekommst Du mit Deinem Anliegen auch im Profi-Subforum bessere Infos.
 
Ohne ansatzweise zu wissen, was deine 12 VMs so machen, kann man nur die Glaskugel polieren.
 
Kommt auch ganz drauf an was du da auf den Servern laufne hast.
Fileserver?
SQL?
Irgendetwasanderes das massive IOPS braucht.

Ich warne gleich mal vor Conumer NVMEs .... ich hab eigentlich nur welche von Samsung laufen gehabt und selbst diese sind jetzt nach und nach über den Jordan gegangen


Und ist das ganze produktiv im Einsatz?

Wen ja bitte kauf was von der Stange mit Garantie und Support.

Word das dein Homelab .... *bastel ahoi*
 
Zuletzt bearbeitet:
Überlastung?

Die sind alle mit dem selben Fehlerbild unter ESXi ausgestiegen. Irgendwann war der ESXi nicht mehr bedienbar bzw. listtete nach dem Neustart die Platten nicht mehr auf. Da war dan nur eine graue Stellvertreter SID (aka disk missing)

Die Disks waren dann komplet defekt und un-lesbar auch in einem anderen Board.

Das ganze nach 1 Jahr Dauerlauf

Wie gesagt sind das nur anekdotische Mitteilungen aber ich wäre da vorsichtiger wenns ums Butterbrot oder die eigene Gesundheit (wenn der Chef sagt: "Coo wir haben x € dank Hr Y gespaart" und es passiert was unerwartetets.... rate mal was dann plötzlich nicht mehr so "ok" ist!) geht :)
 
Bei starker Beanspruchung sollte man auch entsprechende Hardware verbauen. Server SSDs oder sowas wie die Intel Optane SSDs.
 
Und auch bei den Datacenter-SSDs gilts aufzupassen, ob die von den Spezifikationen her zu der Anwendung passen.
"One fits it all" gibts da nicht.
 
Da kann ich mich gleich anschließen. Am Anfang hatte eine Samsung 850Evo mit 10 VMs am laufen. Diese hat 2 % Wearlevel pro Monat verloren. Dann bin ich auf D3S4510 von Intel gewechselt (was bei Intel immerhin die billigsten sind) und damit läuft das System seit Anfang 2019 problemlos.
 
Bei zwei Servern hättest du eben die Redundanz, dass die eine VM im Zweifelsfall auch online verschieben könntest. ;)
 
Ich hab 6 x SM863/SM883 (a 960GB) als ZPool für meine VMs. Das sind vereinfacht gesagt die DC-Versionen der 850pro/860pro.

Aber: für private Endkunden keine Herstellergarantie/Support durch Samsung.
 
Ich muss mich zwisch Wortmann, Supermicro oder HP entscheiden. Ich gehe davon aus, dass entsprechende NVMe oder SSD verbaut sind. Wortmann erscheint mir zu teuer und verbaut nichts anderes als Supermicro auch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh