NVMe vs. SATA im Storage?

Fishburn

Enthusiast
Thread Starter
Mitglied seit
18.11.2005
Beiträge
1.029
Ort
Bayern
Servus Leute,

Ich gerade dabei uns ein neues Storage mit 2 Servern zu holen. Interessant wäre das DELL ME5024 mit 6x SSD SAS, jetzt hab ich schon von mehreren Leuten gehört das SSD SAS nicht mehr zeitgemäß ist. Leider kostet bei der DELL der Schritt zum nächstbesseren Storage das dann NVMe hat ungefähr das doppelte. Also von 20k auf fast 40k. Gut dafür hätte ich dann auch Datendeduplizierung und noch paar andere Sachen dabei aber das sprengt jetzt etwas das Budget.

Hat jemand mit sowas schon Erfahrung? Gibt es Praxiswerte? Wir haben rund 20 VMs am laufen, klassisch ERP System, Exchange, DC, Fileserver usw. mit so 50 Usern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wir nutzen zwar nicht Dell aber HP Serber und Normale Samsung 870 SSDs, aber bei uns reichen auch pro Server 10-25 Gigabit/s Datendurchsatz.
Wolltest ihr den neu kaufen? Schau mal bei Generalüberholte von HP.

Zum Thema NVME, in meiner alten Firma haben wir NVME PCIe eingesetzt, man merkt keinen Unterschied bei 50-25ß ;Mitarbeitern.
Braucht ihr nur einen Server oderein Cluster?
 
@flyingjoker Gebraucht ist eher nichts für uns ... ich möchte auf jeden Fall wieder 7 Jahre Next Business Day VorOrt Service und fürs Storage 4 Stunden Mission Critical.

Geplant wären 2 Server im Cluster mit einer gemeinsamen Storage.
 
@flyingjoker Gebraucht ist eher nichts für uns ... ich möchte auf jeden Fall wieder 7 Jahre Next Business Day VorOrt Service und fürs Storage 4 Stunden Mission Critical.

Geplant wären 2 Server im Cluster mit einer gemeinsamen Storage.
Der mehr Aufpreis zur NVME ist nicht ohne, sind die Server mit Glasfaser verbunden und wenn ja mit welcher Bandbreite?
Wir rüsten auf 100 Gigabit um, weil bei SSD schon mehr als 10 Gigabit pro Server zusammen kommen.
Wie ist es bei euch?
 
Ja müsste mir mal ein genaues Angebot einholen, ich hasse halt alte Technik zu verbauen :(

Plan wäre im Moment iSCSI mit 25 GbE. Keine Ahnung ob das noch Stand der Technik ist, scheint easy zu sein es so zu machen
 
Der effektive Unterschied zwischen "guten" oder "schlechten" 12G SAS SSD bzw NVMe ist größer als der von SAS SSD zu NVMe. Die besten SAS SSD haben auch mehrere 100k iops und 1GB/s sequentielle Performance. Multipath 12G SAS macht bis 2GB/s und 24G SAS nochmal das doppelte. Ich würde SAS SSD also nicht per se als "alte" Technik sehen. Mit vielen Platten ist es eh viel problemfreier als NVMe. Will man das Schnellste ist es natürlich NVMe.

Reden wir von Windows Server?
Dann auf jeden Fall bei den Nic auf RDMA achten. Mit SMB Direct/RDMA kann man damit 25-100G Nics voll ausreizen bei niedrigster Latenz und CPU Last. VHDX Dateien über SMB Direct sind dabei eine echte Alternative zu iSCSI über ip (schneller und zero config)
 
Wir setzen in unseren ESX vSAN Farmen SAS SSDs ein.
In dem Fall HP DL385 Gen10 V2.
So nen vSAN Cluster hat was zwischen 100 und 200 SSDs. (davon haben wir mehrere)

Wir haben SAS genommen, weil NVMe zu der Zeit, sagen wir mal "interessant" war, was das Thema Anbindung angeht. Da SAS hier der aktuelle Standard ist, wird so auch weiter ausgerollt. Die Gen10 laufen aber Mitte des Jahres aus. Die Gen11 sind, was die Anbindung angeht, etwas moderner unterwegs.

Auf diesen speziellen Systemen laufen hunderte VMs, im Regelfall mit wenig Workload. DC, Exchange, ERP oder vergleichbares allerdings nicht.
Bei unserer Workload langweilt sich das Storage zu Tode, aber sowas von. Da ist quasi nix los.
Wir haben irgendwas um 100MB/s an dauerhafter Datenrate und mittlere vierstellige IOPS.
Dieses Lastverhalten in Kombination mit dem Mehrpreis zu NVMe war für mich der Grund "SAS" also völlig OK zu bewerten.

Auf der anderen Seite haben wir gerade DB-Cluster Hardware beschafft. Da sind in den Gen11 Server NVMe SSDs drin, aus dem einfachen Grund, dass wir zum einen weniger Laufwerke haben und zu anderen etwas mehr Reserven haben. (ob wir das wirklich brauchen, wird sich zeigen)
Preislich fällt bei der geringen Menge an Laufwerke nicht zu sehr ins Gewicht.
Einen RAID-Controller hat man in dem Fall noch immer an der Backe, da anders nicht möglich ist. (Sofern das RAID nicht woanders herkommt)

Weiterhin haben wir HPE Primera beschafft, in dem Fall mit internen SAS SSDs. Das hat den einfachen Hintergrund, dass wir das als Standardstorage haben und man mit den LFF-Enclosures mit SAS einfacher erweitern kann. FC ist absoluter Müll, gerade bei der Anbindung von Enclosures. Das wird erst besser, wenn NVMe-oF aus den Kinderschuhen rausgewachsen ist.
Grundsätzlich könnte man in der Primera die Laufwerke auch Mischen (auch NVMe), da die HDD und SSD Arrays erstmal voneinander getrennt sind.

Im Idealfall würde ich erstmal ein paar KPIs vom aktuellen Storage nehmen. Wenn da nicht irgendwelche abstrusen Zahlen auftauchen, würde ich sagen, das SAS völlig ausreicht.

Die von @gea genannten Daten, sollte man sich bei "seinen" Laufwerken genau anschauen.
Grundsätzlich ist Enterprise NVMe schneller als SAS. Da sind manchmal Zahlen dabei, dass einem Schwindelig wird.
Nen Bugatti ist auch schneller als nen Golf. in 99,99999999999999999999999% kommste mit dem Golf dennoch hin.
NVMe macht meiner Meinung aktuell nur dann Sinn, wenn man extreme Anforderungen an Storage hat und das in einem möglichst kleinen footprint. Das scheint hier absolut nicht der Fall zu sein. In 5 oder 10 Jahren sieht die Welt ganz anders aus. (im G11 kann man heute noch immer SFF HDDs einsetzen...)

Ob man nun 100gbit braucht, muss man wissen. Unsere vSAN Cluster laufen alle mit 10GBE. (altes vSAN)
Und mehr ist, siehe Workload, auch absolut nicht nötig. Klar sind die SSDs schneller, aber ob sich nun die SSDs langweilen oder noch zusätzlich die NICs und Switche, ist am Ende auch egal.
Da kommt es eher auf den Rest der Infrastruktur an.
Die 10GBE werden auch noch ne ganze Weile reichen, in unserem Umfeld.
Die NICs sind btw dennoch schon 25GBE, auch aus dem Grund, dass die alten 10GBE Müll waren und die Hersteller eh nix/kaum anderes anbieten.
100GBE machen meiner Meinung nur dann sinn, wenn der ganze Rest im Core und Co eh schon 100GBE ist und man für die Server jetzt komplett andere Switche beschafft, die man sonst nicht braucht.
Auch hier sehe ich es eher so, dass 100GBE, was den Bandbreitenbedarf angeht, in dem Fall nur in sehr sehr speziellen Bereichen notwendig ist.
vSAN begnügt sich in der aktuellen Version mit 25GBE. Mehr ist natürlich immer besser.

Wenn neue Switche beschafft werden, und eine Standardisierung nichts anderes erfordert, würde ich auf 25GBE gehen. Sind die aktuellen (10GBE) Switche noch an sich OK (Laufzeit Support und Co.) kann man diese durchaus wiederverwenden. Bei so nem Konstrukt würde ich mir eher Gedanken um die Robustheit des NWs machen.
Wenn man kein echtes Leaf/Spine machen will (was man nicht immer muss, auch wenns gerade hip ist), dann eher mit klassischen Aufbauten, aber in jedem Fall würde ich pro Seite nen MC-LAG Konstrukt fahren.
Also kein Stack oder sowas.
Man braucht für sowas also 2x 2 Switche. (in der Annahme, dass es 2 sites gibt) Kann man isolated laufen lassen oder aber übers Routing angebunden. Da muss man sich dann überlegen, ob man die Router nur links und rechts drauflegt oder ob man ne art Leaf/Spine für Arme macht.
Im Storage machen wir ersteres, in den Frontendnetzen machen wir zweiteres.
Mit den 2x2 Switches hat man zum einen, wegen der LACP, doppelte Bandbreite (also 20 bzw. 50GBE) und zum anderen neben der Robustheit auch die Chance die Dinger, während das Storage weiterläuft, regelmäßig zu patchen. Bei den modernen Switchen ist es leider so, dass die bald so häufig geupdatet werden wie Windows, leider. Das sollte man über die Lebenszeit im Hinterkopf behalten. Und die Baustellen in den Firmwares werden auch immer krasser. Letztens gab es bei Aruba z.B. ein Problem im dem Radius Daemon. Das will man also nicht ungepatcht lassen.

Spanning Tree würde ich grundsätzlich von den Listen streichen und im Storage eh.

PS: Im Titel steht was von SATA, das sollte sicher SAS heißen?!
PPS: Und die Leute, die sagen, dass SAS nicht mehr zeitgemäß ist, haben absolut keine Ahnung. Auf deren Meinung sollte man daher in Zukunft mit sehr viel Skepsis reagieren. Ja, NVMe ist moderner, in der Spitze schneller etc. NVMe gehört ganz klar die Zukunft. NVMe wird nur gerade gehypt, weil die Leute (auch im Businessumfeld) meist spielgeile Kinder sind, die glauben, dass neuer = besser ist. Das Problem ist, dass besser nicht gleich sinnvoller bedeutet. Siehe die Ausführung von mir oben.
Es gibt hier kein schwarz und weiß. Selbst SATA hat noch seine (kleine) Berechtigung im Enterpriseumfeld. Dazu hatte ich in einem anderen Thread vor kurzem mal was geschrieben. Und das Geld mit der Schubkarre ausm Unternehmen rausfahren, muss man auch nicht, egal ob sich die Schubkarren stapeln. Dafür kann man ggf. auch andere Sachen kaufen. In so nem RZ oder Serverraum kann man immer was optimieren. Auch Sachen wo nicht Dell oder HPE dransteht. (Stichwort el. Sicherheit z.B.)
 
Zuletzt bearbeitet:
Weiterhin haben wir HPE Primera beschafft, in dem Fall mit internen SAS SSDs. Das hat den einfachen Hintergrund, dass wir das als Standardstorage haben und man mit den LFF-Enclosures mit SAS einfacher erweitern kann. FC ist absoluter Müll, gerade bei der Anbindung von Enclosures. Das wird erst besser, wenn NVMe-oF aus den Kinderschuhen rausgewachsen ist.
Grundsätzlich könnte man in der Primera die Laufwerke auch Mischen (auch NVMe), da die HDD und SSD Arrays erstmal voneinander getrennt sind.
Wobei die Primera nicht wirklich für NVMe ausgelegt ist/war. Dann auch nur 16 Stück und nur an den A-Controllern.

BTT. Wir haben uns beim letzten Austausch auch wieder für eine Primera mit SAS-SSD entschieden. Es war günstiger und wir brauchen die extra Performance der NVMe einfach nicht.
Schau dir an was auf den Servern laufen soll und welche Anforderungen du hast. NVMe ist technisch toll, aber vielleicht gar nicht nötig. Dann spar dir ein paar Euro, wie underclocker schon schrieb, und investier die an anderer Stelle.
 
Ich habe ja wirklich keine Ahnung. Aber sollen die wirklich miesen Consumer SATA SSD denn nun echt Deine Empfehlung sein?
Ja den Unterschied merkt man kaum, da braucht man schon echt viele User gleichzeitig die da drauf zugreifen und das gleichzeitig.
In meiner alten Firma hatten wir Enterprise nvme mit 7600mb/s lesen und schreiben. Und ich habe mir viel davon versprochen und war richtig enttäuscht. Dateien lassen sich nicht schneller öffnen oder Programme schneller starten, das kopieren geht bei großen Dateien trotzdem in die Knie.
Den Unterschied kann man nur messen nicht fühlen.
Und die einfachen ssd halten auch lange und sind im Verhältnis günstig.
4TB für 300€ und dann 10 im RAID 6 bringt auch ein 25 GBit SP
 
Ich betreibe das ja schon lange im kleineren Massstab. Auch alles auf SATA. Würde mir Stand heute aber nicht mehr im Traum einfallen, olle Evo 870 mit Serverstorage und "10-25 Gbit Durchsatz" (ich rechne da mittlerweile in GB/s, nur so zur Info) nur in Verbindung zu bringen. Und ja, sequenziell interressiert kein Mensch. Sry, aber nach mir solltest Du hier im Server Profibereich genausowenig posten wie ich. Gut gemeinter Rat. Und der TE meinte im Ausganspost, es geht um ERP, VMs, Exchange und sowas. Da kommst Du echt mit sequentieller Bandbreite von den Consumer SATA SSD daher? Spielt btw. auch absolut keinen Rugel bei der Anwendung, mit Verlaub, meine Meinung.

Und was für 870er habt Ihr denn im Einsatz? Evo oder Pro? Mein ja nur, Du empfiehlst da einfach mal 870.
 
Zuletzt bearbeitet:
Die Schnittstelle hat erstmal nichts mit der Professionalität der SSD zu tun. Du kannst durchaus auch heute noch neue Server von Dell, HP und Co. konfigurieren, die mit SATA SSDs ausgestattet sind. Für viele Workloads völlig ausreichend und selbst langsame SSDs wie eine Micron 5400 Pro, die grade mal 10K IOPS schreibend schafft, ist noch ein vielfaches schneller als HDDs.
Allerdings wirst du hier keine Consumer SSD vorfinden, die mit Pseudo SLC Cache arbeiten müssen, um auf den ersten paar geschriebenen GB für Tempo zu sorgen.
Hier sind eher garantierte Drive Writes per Day, Power Loss Protection und garantierte Leistungsangaben die Schlagworte. Das jeweils in verschiedenen Klassen wie Read Intensive, Mixed-Use und Write Intensive.

Der Unterschied zu SAS ist hier meist nur die langsamere Schnittstelle und die Möglichkeit, von zwei Controllern gleichzeitig angesprochen zu werden.

Ja den Unterschied merkt man kaum, da braucht man schon echt viele User gleichzeitig die da drauf zugreifen und das gleichzeitig.
In meiner alten Firma hatten wir Enterprise nvme mit 7600mb/s lesen und schreiben. Und ich habe mir viel davon versprochen und war richtig enttäuscht. Dateien lassen sich nicht schneller öffnen oder Programme schneller starten, das kopieren geht bei großen Dateien trotzdem in die Knie.
Den Unterschied kann man nur messen nicht fühlen.
Und die einfachen ssd halten auch lange und sind im Verhältnis günstig.
4TB für 300€ und dann 10 im RAID 6 bringt auch ein 25 GBit SP
Ich liebe ja immer solche Bastellösungen im Business Umfeld. Das ist alles immer so lange lustig, bis einem die Bastelei mal um die Ohren fliegt, der Betrieb steht und jede Minute Stillstand ordentlch ins Geld geht. Dann ist dann auch nix mehr mit Herstellersupport und du als Systembetreuer stehst in der alleinigen Verantwortung für deine Bastellösung. Das müsste ich mir jetzt nicht unbedingt geben.
Nur weil du den Performancevorteil von NVMe SSDs nicht spürst, heißt es nicht, dass er nicht vorhanden ist. Hier ist wohl eher dein Workload nicht der passende.

Dem Threadersteller kann ich nur empfehlen, dich mal mit dem Systemhaus deines Vertrauens zusammenzusetzen und deine Anforderungen und deinen Workload zu besprechen, damit die dir eine darauf ausgelegte Lösung zusammenstellen.
Den von dir genannten Power Vault betreue mit zwei R650xs als vSphere Cluster bei einem Kunden mit deutliche höherem Workload und die SSDs langweilen sich die meiste Zeit. SAS wird bei dir also wahrscheinlich auch ausreichen :-)
 
Die Schnittstelle hat erstmal nichts mit der Professionalität der SSD zu tun. Du kannst durchaus auch heute noch neue Server von Dell, HP und Co. konfigurieren, die mit SATA SSDs ausgestattet sind. Für viele Workloads völlig ausreichend und selbst langsame SSDs wie eine Micron 5400 Pro, die grade mal 10K IOPS schreibend schafft, ist noch ein vielfaches schneller als HDDs.
Allerdings wirst du hier keine Consumer SSD vorfinden, die mit Pseudo SLC Cache arbeiten müssen, um auf den ersten paar geschriebenen GB für Tempo zu sorgen.
Hier sind eher garantierte Drive Writes per Day, Power Loss Protection und garantierte Leistungsangaben die Schlagworte. Das jeweils in verschiedenen Klassen wie Read Intensive, Mixed-Use und Write Intensive.

Der Unterschied zu SAS ist hier meist nur die langsamere Schnittstelle und die Möglichkeit, von zwei Controllern gleichzeitig angesprochen zu werden.


Ich liebe ja immer solche Bastellösungen im Business Umfeld. Das ist alles immer so lange lustig, bis einem die Bastelei mal um die Ohren fliegt, der Betrieb steht und jede Minute Stillstand ordentlch ins Geld geht. Dann ist dann auch nix mehr mit Herstellersupport und du als Systembetreuer stehst in der alleinigen Verantwortung für deine Bastellösung. Das müsste ich mir jetzt nicht unbedingt geben.
Nur weil du den Performancevorteil von NVMe SSDs nicht spürst, heißt es nicht, dass er nicht vorhanden ist. Hier ist wohl eher dein Workload nicht der passende.

Dem Threadersteller kann ich nur empfehlen, dich mal mit dem Systemhaus deines Vertrauens zusammenzusetzen und deine Anforderungen und deinen Workload zu besprechen, damit die dir eine darauf ausgelegte Lösung zusammenstellen.
Den von dir genannten Power Vault betreue mit zwei R650xs als vSphere Cluster bei einem Kunden mit deutliche höherem Workload und die SSDs langweilen sich die meiste Zeit. SAS wird bei dir also wahrscheinlich auch ausreichen :-)
Wir haben ein 6 Node Ceph Cluster und ein gutes Backup.
Selbst wenn 3 Server mit 30 Platten ausfallen, läuft das System ohne Datenverlust weiter.
Wenn man nur einen Server einsetzt würden die 870er keinen Sinn machen, aber wenn die Last verteilt ist und da weniger als 50 Kollegen drauf zugreifen why not.

Wir setzen seit 20 Jahren gebrauchte Hardware ein, die ist immer eine Generation älter, die nächste Anschaffung sind HP Proliant DL380 Gen 10 Server, die laufen locker 10 Jahre noch.
Wir hatten bei den SSDs bisher noch keinen Ausfall, wie lange gibt es die 870er schon? Seit 2021?
Selbst die Crucial M4 laufen noch.
Hat das sonst noch nie jemand getestet?
Ich teste immer und verlasse mich nicht immer auf die Aussagen der Hersteller, die wollen nur verkaufen.
Im Rechenzentrum mag es vielleicht Sinn machen, aber im kleinen Mittelstand muss es laufen und sich rechnen.
Und wie viele kleine Betriebe haben HA?
 
Wir hatten bei den SSDs bisher noch keinen Ausfall, wie lange gibt es die 870er schon? Seit 2021?
Ich wollte eh schon was schreiben zu der Sache, habs dann aber lassen.

Die 870 ist ja das Beste, was man an SATA SSD bekommt in "non-Datacenter" (also Abseits der PM... und Kingston DC etc.), also mit ordentlich DRAM Cache, guter TLC Flash, pSLC der funktioniert und so, viel TBW...
Man muss auch bedenken, dass die mal unter 200€ (/4tb) gekostet hat, bevor Samsung per Preisabsprache die Preise gepusht hat (und Samsung war hier eindeutig die treibende Kraft dahinter).

Ich hab auch 2x 870er 4tb laufen und ärgere mich massiv nicht mehr davon gekauft zu haben.
In einem Raid 5 / 6 / Z1 / Z1 / 10 / Mirror hätte ich da keine zu großen Bedenken, ist halt die Frage ob man ne PLP braucht, welche bei den Syncs "cheaten" kann...


Wenn von "billigen Consumer SATA SSDs" gesprochen wird, wird idR. ja so Kram wie Intenso, Transcend, Patriot und wie sie alle heißen gesprochen, diese SSDs mit billigen Controllern ohne DRAM Cache bzw. schlechtem pSLC, mit lahmen Flash mit wenig TBW bzw. evtl. sogar so 30mb/s QLC und so Zeug...


Kommt halt wie immer drauf an...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh