NVMe vs. SATA im Storage?

Fishburn

Enthusiast
Thread Starter
Mitglied seit
18.11.2005
Beiträge
1.028
Ort
Bayern
Servus Leute,

Ich gerade dabei uns ein neues Storage mit 2 Servern zu holen. Interessant wäre das DELL ME5024 mit 6x SSD SAS, jetzt hab ich schon von mehreren Leuten gehört das SSD SAS nicht mehr zeitgemäß ist. Leider kostet bei der DELL der Schritt zum nächstbesseren Storage das dann NVMe hat ungefähr das doppelte. Also von 20k auf fast 40k. Gut dafür hätte ich dann auch Datendeduplizierung und noch paar andere Sachen dabei aber das sprengt jetzt etwas das Budget.

Hat jemand mit sowas schon Erfahrung? Gibt es Praxiswerte? Wir haben rund 20 VMs am laufen, klassisch ERP System, Exchange, DC, Fileserver usw. mit so 50 Usern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wir nutzen zwar nicht Dell aber HP Serber und Normale Samsung 870 SSDs, aber bei uns reichen auch pro Server 10-25 Gigabit/s Datendurchsatz.
Wolltest ihr den neu kaufen? Schau mal bei Generalüberholte von HP.

Zum Thema NVME, in meiner alten Firma haben wir NVME PCIe eingesetzt, man merkt keinen Unterschied bei 50-25ß ;Mitarbeitern.
Braucht ihr nur einen Server oderein Cluster?
 
@flyingjoker Gebraucht ist eher nichts für uns ... ich möchte auf jeden Fall wieder 7 Jahre Next Business Day VorOrt Service und fürs Storage 4 Stunden Mission Critical.

Geplant wären 2 Server im Cluster mit einer gemeinsamen Storage.
 
@flyingjoker Gebraucht ist eher nichts für uns ... ich möchte auf jeden Fall wieder 7 Jahre Next Business Day VorOrt Service und fürs Storage 4 Stunden Mission Critical.

Geplant wären 2 Server im Cluster mit einer gemeinsamen Storage.
Der mehr Aufpreis zur NVME ist nicht ohne, sind die Server mit Glasfaser verbunden und wenn ja mit welcher Bandbreite?
Wir rüsten auf 100 Gigabit um, weil bei SSD schon mehr als 10 Gigabit pro Server zusammen kommen.
Wie ist es bei euch?
 
Ja müsste mir mal ein genaues Angebot einholen, ich hasse halt alte Technik zu verbauen :(

Plan wäre im Moment iSCSI mit 25 GbE. Keine Ahnung ob das noch Stand der Technik ist, scheint easy zu sein es so zu machen
 
Der effektive Unterschied zwischen "guten" oder "schlechten" 12G SAS SSD bzw NVMe ist größer als der von SAS SSD zu NVMe. Die besten SAS SSD haben auch mehrere 100k iops und 1GB/s sequentielle Performance. Multipath 12G SAS macht bis 2GB/s und 24G SAS nochmal das doppelte. Ich würde SAS SSD also nicht per se als "alte" Technik sehen. Mit vielen Platten ist es eh viel problemfreier als NVMe. Will man das Schnellste ist es natürlich NVMe.

Reden wir von Windows Server?
Dann auf jeden Fall bei den Nic auf RDMA achten. Mit SMB Direct/RDMA kann man damit 25-100G Nics voll ausreizen bei niedrigster Latenz und CPU Last. VHDX Dateien über SMB Direct sind dabei eine echte Alternative zu iSCSI über ip (schneller und zero config)
 
Wir setzen in unseren ESX vSAN Farmen SAS SSDs ein.
In dem Fall HP DL385 Gen10 V2.
So nen vSAN Cluster hat was zwischen 100 und 200 SSDs. (davon haben wir mehrere)

Wir haben SAS genommen, weil NVMe zu der Zeit, sagen wir mal "interessant" war, was das Thema Anbindung angeht. Da SAS hier der aktuelle Standard ist, wird so auch weiter ausgerollt. Die Gen10 laufen aber Mitte des Jahres aus. Die Gen11 sind, was die Anbindung angeht, etwas moderner unterwegs.

Auf diesen speziellen Systemen laufen hunderte VMs, im Regelfall mit wenig Workload. DC, Exchange, ERP oder vergleichbares allerdings nicht.
Bei unserer Workload langweilt sich das Storage zu Tode, aber sowas von. Da ist quasi nix los.
Wir haben irgendwas um 100MB/s an dauerhafter Datenrate und mittlere vierstellige IOPS.
Dieses Lastverhalten in Kombination mit dem Mehrpreis zu NVMe war für mich der Grund "SAS" also völlig OK zu bewerten.

Auf der anderen Seite haben wir gerade DB-Cluster Hardware beschafft. Da sind in den Gen11 Server NVMe SSDs drin, aus dem einfachen Grund, dass wir zum einen weniger Laufwerke haben und zu anderen etwas mehr Reserven haben. (ob wir das wirklich brauchen, wird sich zeigen)
Das Preislich bei der geringen Menge an Laufwerke nicht zu sehr ins Gewicht fällt.
Einen RAID-Controller hat man in dem Fall noch immer an der Backe, da anders nicht möglich ist.

Weiterhin haben wir HPE Primera beschafft, in dem Fall mit internen SAS SSDs. Das hat den einfachen Hintergrund, dass wir das als Standardstorage haben und man mit den LFF-Enclosures mit SAS einfacher erweitern kann. FC ist absoluter Müll, gerade bei der Anbindung von Enclosures. Das wird erst besser, wenn NVMe-oF aus den Kinderschuhen rausgewachsen ist.
Grundsätzlich könnte man in der Primera die Laufwerke auch Mischen, da die HDD und SSD Arrays erstmal voneinander getrennt sind.

Im Idealfall würde ich erstmal ein paar KPIs vom aktuellen Storage nehmen. Wenn da nicht irgendwelche abstrusen Zahlen auftauchen, würde ich sagen, das SAS völlig ausreicht.

Die von @gea genannten Daten, sollte man sich bei "seinen" Laufwerken genau anschauen.
Grundsätzlich ist Enterprise NVMe schneller als SAS. Da sind manchmal Zahlen dabei, dass einem Schwindelig wird.
Nen Bugatti ist auch schneller als nen Golf. in 99,99999999999999999999999% kommste mit dem Golf denn hin.
NVMe macht meiner Meinung nur dann Sinn, wenn man extreme Anforderungen an Storage hat und das in einem möglichst kleinen footprint. Das scheint hier absolut nicht der Fall zu sein.

Ob man nun 100gbit braucht, muss man wissen. Unsere vSAN Cluster laufen alle mit 10GBE. (altes vSAN)
Und mehr ist, siehe Workload, auch absolut nicht nötig. Klar sind die SSDs schneller, aber ob nun die SSDs sich langweilen oder noch zusätzlich die NICs und Switche, ist am Ende auch egal.
Da kommt es eher auf den Rest der Infrastruktur an.
Die 10GBE werden auch noch ne ganze Weile reichen, in unserem Umfeld.
Die NICs sind btw dennoch schon 25GBE, auch aus dem Grund, dass die alten 10GBE Müll waren und die Hersteller eh nix anderes anbieten.
100GBE machen meiner Meinung nur dann sinn, wenn der ganze Rest im Core und Co eh schon 100GBE ist und man für die Server jetzt komplett andere Switche beschafft, die man sonst nicht braucht.
Auch hier sehe ich es eher so, dass 100GBE, was den Bandbreitenbedarf angeht, in dem Fall nur in sehr sehr speziellen Bereichen notwendig ist.
vSAN begnügt sich in der aktuellen Version mit 25GBE. Mehr ist natürlich immer besser.

Wenn neue Switche beschafft werden, und eine Standardisierung nichts anderes erfordert, würde ich auf 25GBE gehen. Sind die aktuellen (10GBE) Switche noch an sich OK (Laufzeit Support und Co.) kann man diese durchaus wiederverwenden. Bei so nem Konstrukt würde ich mir eher Gedanken um die Robustheit des NWs machen.
Wenn man kein echtes Leaf/Spine machen will (was man nicht immer muss, auch wenn gerade hip ist), dann eher mit klassischen Aufbauten, aber in jedem Fall würde ich pro Seite nen MC-LAG Konstrukt fahren.
Also kein Stack oder sowas.
Man braucht für sowas also 2x 2 Switche. (in der Annahme, dass es 2 sites gibt) Kann man isolated laufen lassen oder aber übers Routing angebunden. Da muss man sich dann überlegen, ob man die Router nur links und rechts drauflegt oder ob man ne art Leaf/Spine für Arme macht.
Im Storage machen wir ersteres, in den Frontendnetzen machen wir zweiteres.
Mit den 2x2 Switches hat man zum einen, wegen der LACP, doppelte Bandbreite (also 20 bzw. 50GBE) und zum anderen neben der Robustheit auch die Chance die Dinger, während das Storage weiterläuft, regelmäßig zu patchen. Bei den modernen Switchen ist es leider so, dass die bald so häufig geupdatet werden wie Windows, leider. Das sollte man über die Lebenszeit im Hinterkopf behalten. Und die Baustellen in den Firmwares werden auch immer krasser. Letztens gab es bei Aruba z.B. ein Problem im dem Radius Daemon. Das will man also nicht ungepatcht lassen.

Spanning Tree würde ich grundsätzlich von den Listen streichen und im Storage eh.

PS: Im Titel steht was von SATA, das sollte sicher SAS heißen?!
PPS: Und die Leute, die sagen, dass SAS nicht mehr zeitgemäß ist, haben absolut keine Ahnung. Auf deren Meinung sollte man daher in Zukunft mit sehr viel Skepsis reagieren. Ja, NVMe ist moderner, in der Spitze schneller etc. NVMe gehört ganz klar die Zukunft. NVMe wird nur gerade gehypt, weil die Leute (auch im Businessumfeld) meist spielgeile Kinder sind, die glauben, dass neuer = besser ist. Das Problem ist, dass besser nicht gleich sinnvoller bedeutet. Siehe die Ausführung von mir oben.
Es gibt hier kein schwarz und weiß. Selbst SATA hat noch seine (kleine) Berechtigung im Enterpriseumfeld. Dazu hatte ich in einem anderen Thread vor kurzem mal was geschrieben. Und das Geld mit der Schubkarre ausm Unternehmen rausfahren, muss man auch nicht, egal ob sich die Schubkarren stapeln. Dafür kann man ggf. auch andere Sachen kaufen. In so nem RZ oder Serverraum kann man immer was optimieren. Auch Sachen wo nicht Dell oder HPE dransteht. (Stichwort el. Sicherheit z.B.)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh