[Kaufberatung] M.2 SSD Empfehlung für Dauerbetrieb

Thrawnium

Neuling
Thread Starter
Mitglied seit
10.10.2023
Beiträge
4
Hallo zusammen
Ich bin auf der Suche nach einer M.2 SSD mit 4TB welche für den Dauerbetrieb geeignet ist.
Auf dieser SSD sollen dann verschiedene VM's und Container mittels Proxmox laufen (inkl. Datenbank)
Nach ein wenig Googeln bin ich auf diese WD Red SN700 gestossen.
Ist diese SSD wirklich langlebiger als z.B. diese WD Black SN850X oder diese Samsung 990 Pro?
Oder ist dies einfach Marketing?
Leider kenne ich mich mit SSD's kaum aus, wäre daher für jeden Input Dankbar :-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde vllt die WD im NAS bevorzugen, weil die die doppelte garantierte Schreibmenge sprich TBW gegenüber der Samsung hat. Der Aufpreis zur 990er ist recht moderat; ich denke, das NAS auch nicht der bevorzugte Einsatzzweck der 990er ist...
 
welche für den Dauerbetrieb geeignet ist.
Das sind die SSD eigentlich alle, anderes als HDDs.
Auf dieser SSD sollen dann verschiedene VM's und Container mittels Proxmox laufen (inkl. Datenbank)
Dann nimm auf jeden Fall eine mit DRAM Cache, wie die WD SN850X oder Samsung 990 PRO.
Oder ist dies einfach Marketing?
Ja, SSDs stört der Dauerbetrieb nicht, anderes als bei HDDs muss man sich keine kaufen die expliziert mit der Eignung für Dauerbetrieb beworben wird, wenn man sie im Dauerbetrieb nutzen will. Es gab ganz früher mal Ausnahmen, die mit Indilinx Controller waren dafür bekannt, dass die Idle-GC des Controllers die P/E Zyklen der NANDs im Idle gefressen hat, aber dies sollte lange der Vergangenheit angehören und heutzutage ist das eben nur Marketing von WD (Red) und Seagate (IronWolf), die meines Wissens nach auch die einzigen sind die solche SSDs überhaupt anbieten und sich dabei eben an der Namensgebung ihrer NAS HDDs halten. Selbst bei Geizhals gibt es ja unter Besonderheiten nicht einmal die Eigenschaft "Für Dauerbetrieb geeignet", weil das einfach Quatsch wäre.

Ich würde vllt die WD im NAS bevorzugen, weil die die doppelte garantierte Schreibmenge sprich TBW gegenüber der Samsung hat.
Erstens ist die TBW keine garantiere Schreibmenge, sondern nur ein zusätzliches Limit der Garantie, die endet wenn die Zeit abgelaufen oder die TBW erreicht ist, je nachdem was zuerst eintritt. Wäre es eine garantierte Schreibmenge müsste die Garantie unabhängig von der Zeit so lange dauern bis die TBW erreicht wurden, tut sie aber nicht, bei keiner SSD! Zweitens sind beide in 4TB mit den gleichen 2400TB TBW angegeben:
Wieso WD das als Dauerhaltbarkeit bezeichnet, muss ich nicht verstehen, es ist das Gleiche wie bei Samsung und allen anderen SSDs:
 
@Holt Im Prinzip haste mit den TBW ja Recht, aber wer solche Daten angibt, geht auch davon aus, das die erreicht werden und das Produkt nicht vorher ausfällt. Das wollte ich eigentlich ausdrücken; anscheinend vertraut der Hersteller schon seinem Produkt. Zumal ja für NAS geworben wird sprich meine Empfehlung geht immer noch eindeutig in Richtung WD...
 
Im Prinzip haste mit den TBW ja Recht
Nicht nur im Prinzip, oder was kannst du als Gegenargument vorbringen?
wer solche Daten angibt, geht auch davon aus, das die erreicht werden und das Produkt nicht vorher ausfällt.
Oder er geht davon aus, dass nur so wenige Leute auch nur einen Bruchteil dieser TBW innerhalb der Garantiedauer ausnutzen werden, dass die zusätzlichen Verkäufe wegen einer übertrieben hohen Angabe, es gibt ja leider viel die die TBW für eine garantierte Schreibleistung halten und wie du glauben dies wäre ein Qualitätsmerkmal, dass dies die Mehrkosten für die paar Garantiefälle mehr als ausgleicht. Erinnere dich an PNY, die als Chia aufgekommen ist und damit die realistische Gefahr das viele Leute die TBW innerhalb der Garantiedauer erreichen könnten, heimlich die TBW Angabe der XLR8 CS3030 gesenkt haben:


Dann waren es z.B. für die 2TB statt vorher üppiger 3115GB nur noch eher bescheidene 660GB, die aber wohl die tatsächliche Haltbarkeit der NANDs realistischer widergegeben haben. Daher wäre ich bzgl. der Annahme das eine hohe TBW Angabe ein Zeichen für eine hohe Haltbarkeit wäre, sehr, sehr vorsichtig.
Zumal ja für NAS geworben wird sprich meine Empfehlung geht immer noch eindeutig in Richtung WD...
Warum und warum lügst du deswegen bzgl. der TBW Angaben? Ich habe selbst mehrere WD SN850X und bin mit denen zufrieden, aber es hätten auch Samsung 980 PRO oder 990 PRO werden können, wenn Preis und Verfügbarkeit gestimmt hätten, aber es gab damals noch keine solche Samsung mit 4TB und auch in 2TB war die SN850X massiv günstiger zu haben. Ich sehe jedenfalls nichts was eine SN850X für den Einsatz in einem NAS besser geeignet als eine 990PRO machen sollte. Im Gegenteil, zwar gibt es auch von WD FW Updates für Linux, aber nicht wie bei Samsung als ISO.
 
Jetzt lasse mal die Kirche im Dorf....
Wieso lass die Kirche im Dorf? Hast Du dies geschrieben oder nicht?
die WD im NAS bevorzugen, weil die die doppelte garantierte Schreibmenge sprich TBW gegenüber der Samsung hat.
Das ist falsch, die WD SN850X und die Samsung 990 PRO haben bei gleicher Kapazität von 4TB genau die gleichen TBW Angaben. Man kann sich mal irren, sollte dann aber seinen Fehler auch eingestehen.
 
Ich wollte bei den Angaben jeweils die WD Black bzw die 990er der Red gegenüber stellen und die Black hat ebenso wie die 990er laut Geizhals 2,4 PB. Die Red hat halt doppelt so viel; vllt bissel blöd ausgedrückt/verwechselt, aber das meinte ich (deswegen die Empfehlung zur Red). Und selbst wenn ich mal was falsches erzähle, muss man nicht unverzüglich mit dem Knüppel drauf kloppen, sondern darf gerne sachlich darauf hinweisen. Kritiken akzeptiere ich immer gerne, wenn es berechtigt ist. Zumindest kenne ich das so, aber jedes Elternhaus ist halt anders...
 
@Holt Im Prinzip haste mit den TBW ja Recht, aber wer solche Daten angibt, geht auch davon aus, das die erreicht werden und das Produkt nicht vorher ausfällt.
So ungern ich es sage: Holt hat da aber recht. ;)

Dauerbetrieb, also 24/7 "nur eingeschaltet" zu sein, ist einer SSD vollkommen egal. Was die SSD interessiert ist, wieviel geschrieben wird.

Meine älteste SSD (Samsung Evo 850 500GB) ist mittlerweile über 10 Jahre alt, hat knapp 25.000 Betriebsstunden (also ~3 Jahre) und TBW steht bei "gerade mal" 12TB. Die TBW sind wohl mit 75TB angegeben. Ich hab also nach über 10 Jahren schon 1/6 davon genutzt. Die TBW werde ich, falls ich die SSD weiterhin so nutze wie bisher also in etwa 50 Jahren erreicht haben.
Da war ursprünglich das OS drauf, dann wurde sie zum Massenspeicher, dann wurde sie Teil eines RAIDs welches ich eigentlich schon seit 2-3 Jahren nichtmehr benutze. :ROFLMAO:

Es hängt also mehr davon ab, wieviel du auf so einer Platte rumschreibst und bei normaler Nutzung fürs OS und was man halt so mit Daten hantiert, kommt da eigentlich gar nichtmal soviel zusammen.

Das mag anders aussehen, wenn man z.B. Datenbanken (mit entsprechend viel Verkehr) betreibt oder wie bei mir z.B. Timeshift vom TV drauf laufen lässt. Letzteres schreibt halt andauernd auf der Platte rum (USB-Sticks kriege ich damit jedenfalls innerhalb von 1-2 Jahren regelmäßig kaputtgeschrieben). Oder mit (RAW-)Videos hantiert, z.B. Videoaufzeichnungen für den eigenen Youtube-Channel.
Weil es solche Anwendungsfälle durchaus gibt, werden die TBW halt auch angegeben. Die Frage ist also eher: Hast du denn so einen Anwendungsfall?

Du hast doch bestimmt schon SSDs im Einsatz. Guck dir halt mal deren Werte an, dann kannst du abschätzen, "wieviel" du brauchst und/oder wie weit du mit 2400TBW (oder wieviel auch immer) kommst.
 
So ungern ich es sage: Holt hat da aber recht.
Hab ich doch auch eingeräumt; ich hab mich blöd ausgedrückt und/oder zwischenzeitlich vllt auch die Begrifflichkeiten verwechselt. Deswegen sollte man aber trotzdem sachlich bleiben und nicht jemanden gleich als übelsten Lügner anprangern. Deswegen Kirche und so....
 
Diese TBW Angaben sind halt immer "sehr" theoretisch gehalten. Wenn man die innerhalb der Herstellergarantie schaffen möchte, dann schon einmal viel Spaß dabei. (y)

Wenn ein Hersteller aus marketinggründen damit werben möchte/muss, kann man machen, faktisch aber hat das keine wirkliche Bedeutung hinsichtlich Zuverlässigkeit im Dauereinsatz.
 
Diese TBW Angaben sind halt immer "sehr" theoretisch gehalten. Wenn man die innerhalb der Herstellergarantie schaffen möchte, dann schon einmal viel Spaß dabei. (y)
Naja, man kanns auch einfach rückwärts rechnen.
2400TBW oder 5 Jahre.
Um die 2400TBW vor den 5 Jahren zu erreichen, müsste man JEDEN TAG 1,3TB auf die Platte schreiben (nicht eingerechnet, das in 5 Jahren mindestens ein Schaltjahr enthalten ist ;))

Oder nochmal anders formuliert, man müsste jeden Tag 1/3 der Gesamtkapazität einer 4TB SSD beschreiben.
 
Es gab in der Vergangenheit mehrfach Test´s mit SSDs, um diese an die TBW Grenze zu bringen. Letztlich haben die Probanden alle durch die Bank lännger durchgehalten, als die Hersteller angegeben haben. Irgendwann ist natürlich Ende Gelände...
 
Es gab in der Vergangenheit mehrfach Test´s mit SSDs, um diese an die TBW Grenze zu bringen. Letztlich haben die Probanden alle durch die Bank lännger durchgehalten, als die Hersteller angegeben haben.
Dadurch wird die TBW-Angabe ja noch irrelevanter. Die TBW meines Beispiels meiner Evo 850 habe ich auch nur schnell gegoogelt, was da überhaupt die Werksangabe war und die angenommenen 75TBW sind die Untergrenze, offiziell angegeben war 75-300TBW. ;) Die Garantie reichte halt wahrscheinlich nur bis 75TBW.

Ich bleibe dabei: 4TB mit 2400TBW kriegt man unter normaler Benutzung nicht innerhalb normaler Lebenszeit solcher Elektronik voll und schon gleich dreimal nicht innerhalb der Garantiezeit.
Gut möglich, das so eine SSD noch läuft, wenn Mainboards mit M.2/PCIe nur noch im Museum zu finden sind. ;)
 
Ist NAS Einsatz normale Benutzung?
Auf dieser SSD sollen dann verschiedene VM's und Container mittels Proxmox laufen (inkl. Datenbank)
Ich könnte mir vorstellen, das da durchaus einiges am Tag zusammen kommt; ob das jetzt aber irgend welche Grenzen sprengt... :unsure:
 
Ist NAS Einsatz normale Benutzung?
Kann man nicht sagen. NAS heisst nur, das es ein separates System ist (im Gegensatz zu einer SSD direkt im Rechner eingebaut) und meist 24/7 eingeschaltet ist.
Der eine speichert auf dem NAS nur seine Fotos und Office-Dokumente, der andere legt da 8h Screencapturing täglich ab (was dann durchaus mehr als 1TB täglich sein könnten).

Ich könnte mir vorstellen, das da durchaus einiges am Tag zusammen kommt; ob das jetzt aber irgend welche Grenzen sprengt... :unsure:
Es geht nur ums Schreiben. Lesen ist irrelevant. Und geschrieben wird idR VIEL WENIGER als gelesen.

Keine Ahnung, aber wenn man schon ein NAS verwendet, kann man vielleicht nachgucken. Haben solche Dinger eine eigene Trafficanzeige?
 
Der TE betreibt ja lauf eigener Aussage u.a. eine Datenbank; keine Ahnung, was da so abgeht. Deswegen mein Rat zur roten Fraktion, weil die zumindest den Zahlen nach mehr abkann. Entscheiden muss das der TE aber letztlich selber...
 
Der TE betreibt ja lauf eigener Aussage u.a. eine Datenbank; keine Ahnung, was da so abgeht.
Naja, selbst auf meinem Pi3 läuft eine Datenbank.... auf einer SD-Card. :d (genaugenommen sogar 2, eine davon ist jetzt nach über 2 Jahren Dauerbetrieb schon ganze 500MB groß :d)

Damit eine Datenbank auf relevante Schreibvolumen kommt, musst du schon ein öffentliches Internetforum mit ein paar tausend aktiven Usern betreiben. ;)

Der TE hat übrigens auch nichts von einem NAS geschrieben. Weil Proxmox und mehrere VMs gehe ich eher mal von einem Server aus, als nur ein NAS.

Deswegen sag ich ja: Die Aussagen sind alle komplett nutzlos. Es kommt drauf an, was auf der SSD betrieben werden soll und genau das wissen wir nicht, weils nicht genannt wurde.
Selbst ein Proxmox mit dutzenden VMs schreibt nicht viel auf der Platte rum, wenn die VMs einfach nur nix tun. Wenn da z.B. eine Windows-VM läuft auf die man per Remotedesktop zugreift, fällt da auch nicht mehr SSD-Schreiblast an als wenn mans direkt auf einem Desktop-PC benutzen würde. Und ein PiHole, HomeMatic, selbst ein ProxyServer samt LAN-Cache der sämtlichen Internettraffic zwischenspeichert, kommt all das selbst zusammen nichtmal in die Nähe der TBW.
 
Was denn für eine Datenbank? Da gibt es auch wesentliche Unterschiede und Datenbank hört sich immer monströs an, praktisch sind das aber meist Peanuts was da geschrieben wird.
 
Bei mir auf dem Pi? Eine SQLite und eine Influx.
Aber obwohl die im Schnitt pro Minute mehrere Sensorwerte speichert, kommt da selbst nach Jahren kein nennenswertes Volumen zusammen.
 
Eigentlich der TE aber ich sehe gerade, dass war gar nicht die Frage.
Was mit Container gemeint ist kann ich mir nichts drunter vorstellen. vC Container? TC Container? ..und wie genutzt? :unsure:
VM's, ok. Aber selbst wenn da 4~5 VM's (warum auch immer) parallel laufen - und? Da würde ich mir eher einen Kopf darüber machen das die Prozessorleistung dafür stimmt.
Wenn das jetzt meinetwegen ein Photoshop Workspace wäre für Kreativnutzung, da könnte/müsste man eventuell an Schreiblasten denken.. ..aber so?
 
Was mit Container gemeint ist kann ich mir nichts drunter vorstellen. vC Container? TC Container? ..und wie genutzt? :unsure:
Spielt doch überhaupt keine Rolle, was für Container das sind. Es kommt nur darauf an, was die Container so treiben.

VM's, ok. Aber selbst wenn da 4~5 VM's (warum auch immer) parallel laufen - und? Da würde ich mir eher einen Kopf darüber machen das die Prozessorleistung dafür stimmt.
Selbst bei der Prozessorleistung ist eher die Frage, was die VMs den überhaupt tun (müssen). Eine VM die nix zu tun hat braucht auch so gut wie keine CPU-Leistung. Und selbst sowas wie PiHole braucht nicht viel CPU-Leistung, sonst würds ja auch nicht auf einem Pi laufen. :d
 
Das sollte der TE wissen, weil er ja die Szenarien kennen sollte. Er wollte ja eine langlebige und für den Dauerbetrieb ausgelegte SSD; deswegen kam von Amazon (und mir) das NAS ins Spiel....
 
Es gab in der Vergangenheit mehrfach Test´s mit SSDs, um diese an die TBW Grenze zu bringen. Letztlich haben die Probanden alle durch die Bank lännger durchgehalten, als die Hersteller angegeben haben.
Nein nicht alle! Ich erinnere mich noch gut an den Test bei xtremesystems.org wo eine OCZ lange vor Erreichen der spezifizierten P/E Zyklen der NANDs wegen NAND Defekten ausgestiegen ist. TBW Angaben waren damals noch unüblich, die kamen erst später als immer mehr Unternehmen Consumer SSDs in Enterpriseanwendungen verwendet und dort nicht selten vor Garantieende todgeschrieben haben, Alle SSDs von NAND Herstellern bzw. deren Tochterfirmen haben aber spezifizierten P/E Zyklen der NANDs immer um ein mehrfaches überstanden und daher kaufe und empfehle ich seither auch nur solche SSDs, aber dies hilft bei der Frage WD oder Samsung natürlich nicht weiter, da beides NAND Hersteller sind.

Mehr als 2,4PB TBW in 5 Jahren erreicht man auch in einem NAS und mit einer Datenbank normalerwiese bei weitem nicht, außer die SSDs wird als Cache genutzt und regelmäßig das ganze NAS gelesen. Wenn also z.B. die Config des Caches nicht stimmt und man womöglich jede Woche ein Scrubbing des RAIDs der HDDs macht und dabei alle Daten einmal in den Lesecache gehen, also jede Woche die Kapazität der SSD womöglich mehrfach überschrieben wird, dann bekommt man sie kaputtgeschrieben, aber da liegt der Fehler dann eben auch woanders.

Man sollte übrigens nicht auf die Werbung mit den angeblich so intelligenten Cache Algorithmen reinfallen, denn sowas zu implementieren wäre viel zu aufwendig und würde damit zu viel Zeit und ggf. Speicher verbrauchen. Die Caching Algorithmen sind im Alltag also simple und meist wird einfach ein Zähler genommen der von 0 bis zum höchsten Eintrag im Cache zählt und dann wieder ab 0 um zu bestimmen wo die Daten im Cache gespeichert werden und es werden entweder alle Daten gecacht oder nur solche die mit kurzen Lesezugriffen gelesen wurden. Dies geht schnell, viel schnelle als wenn man eine Zähler für die Anzahl der Zugriffe oder ein Datum für den letzten Zugriff verwalten und jedes mal für alle Cacheeinträge vergleichen wollte. Es werden dann zwar auch häufig genutzte Daten verdrängt, aber die werden ja bald wieder gelesen und damit gecacht und stehen dann wieder im Cache und da sie häufig gelesen werden, werden sie auch oft aus dem Cache gelesen bis sie wieder verdrängt und neu gecacht werden. Damit können aber eben auch schnell mal alle Lesezugriffe auf das NAS oder je nach Konfiguration eben auch internen Lesezugriffe des NAS auf das HDD RAID zu Schreibzugriffen für die Caching SSD werden!

Ein anderes Beispiel wie übertrieben die Werbung gerade bei Cachinglösungen gerne ist, wäre Marvells Hyper Duo, wie sie z.B. beim Marvell 9230 Controller (habe noch irgendwo eine Karte mit dem rumliegen) enthalten war:
Das war 2012, aber klingt doch toll oder? Das Problem ist nur, dass der Cache extrem einfach realisiert wurde und man wundert ob es wirklich Jahre der Forschung gebraucht hat um auf die Idee zu kommen die HDD und die SSD in einer Art RAID 1 zu betreiben und von der SSD zu lesen, sofern die Zugriffe eben auf den Anfangsbereich des Adressraums gehen der noch innerhalb des Adressbereiches der SSD liegen. Wenn man also eine 2TB HDD mit einer 128GB SSD gecacht hat, wurden sie ersten 128GB immer auch in der SSD gehalten und von dort gelesen, der Rest aber bliebt ungecacht. Selbst eine 32GB SSD hätte gereicht um bei einer Windows Installation alles oder wenigstens den Löwenanteil von Windows Dateien aufzunehmen und die 80% der Performance einer damaligen SSD zu liefern, solange die C: Partition eben am Anfang der Platte lag, lag die C: Partition aber hinter dem Adressbereich der SSD gab es Null Caching und nur die Performance der HDD. Aber was erwartet man auch von einem SATA Host Controller mit 2 PCIe 3.0 Lanes und 4 SATA 6Gb/s Ports, der mit 1 W Leistungsaufnahme auskommt? Wo soll da (vor allem in 2012) noch was übrig bleiben um einen aufwendigen Caching Algorithmus verfolgen zu können? Aber das Teil lief immerhin sogar mit zwei SSDs im RAID 0 mit dem Windows Treiber und erlaubte damit sogar TRIM für die beiden SSDs im RAID 0, aber das Caching war halt auf die einfachste denkbare Weise implementiert und wurde trotzdem als "breakthrough embedded technology" beworben.

für den Dauerbetrieb ausgelegte SSD
Das sind sie alle! Die 830 256GB die vorher das Systemlaufwerk in meinem alten Rechner war und nun noch im neuen Rechner hängt, falls ich noch mal was von damals brauche, hat schon über 66.000 Betriebsstunden runter, meine Rechner laufen eben alle immer durch. Die NANDs haben 2220 P/E Zyklen runter und dies nach 157TB die geschrieben wurden, denn ich nutze meine SSDs und schone sie nicht.
 
Vielen Dank für zahlreichen Inputs!
Hier meine Antworten zu euren Fragen
Der TE hat übrigens auch nichts von einem NAS geschrieben. Weil Proxmox und mehrere VMs gehe ich eher mal von einem Server aus, als nur ein NAS.
Ja genau, mein QNAP NAS benötigt (aktuell jedenfalls) keine SSD, die SSD kommt in mein Minisforum NPB 5 welcher als Server laufen soll.
Habe diesen mini PC recht günstig erhalten (320 Euro), allerdings nur mit einer 512GB SSD. Da ich diesen Mini Server unter anderem für sabnzbd nutzen möchte, und die Daten temporär noch auf dem mini PC sein sollen, bevor ich sie auf das NAS verschiebe, sollte die Disk deutlich grösser sein.

Was denn für eine Datenbank? Da gibt es auch wesentliche Unterschiede und Datenbank hört sich immer monströs an, praktisch sind das aber meist Peanuts was da geschrieben wird.
Ehrlich gesagt weiss ich aktuell noch nicht genau, was für eine Datenbank ich nutzen möchte. Ich möchte mir einfach die Option für die Zukunft offenlassen.

Spielt doch überhaupt keine Rolle, was für Container das sind. Es kommt nur darauf an, was die Container so treiben.
Folgende Idee für Container habe ich aktuell: Jellyfin, sabnzbd, pihole, wireguard, paperless-ngx und uptime-kuma.
VM ist aktuell nur Home Assistent geplant.
Aber es werden sicherlich in Zukunft noch deutlich mehr dazu kommen

Bezüglich der SSD. Zuerst mal, danke für die vielen Informationen, konnte wieder einiges neues dazu lernen!
Da es anscheinend nicht wirklich eine Rolle spielt, welche SSD ich kaufe, warte ich mal noch paar Tage ab und schaue mal noch, ob ich eine SSD in einer Aktion finde. Gibt ja immer wieder mal solche Aktionen :-)
Bis dahin kann ich ja noch ein wenig mit Proxmox "herumspielen", und paar erste Testläufe durchgehen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh