NVMe M2 SSD Anno 2025: Welche für eine Systempartition?

HerrLange

Experte
Thread Starter
Mitglied seit
12.10.2019
Beiträge
566
Ort
Heidelberg
Vorweg, ich benutze Linux und ich suche nach einer SSD für / aka Root aka System. Also Drive C: wenn ihr Windows kennt.
/home ist bei mir in der Regel eine eigene SSD. Also in etwa als würden Steam, Programme, etc., Anwendungsdaten (%userdata) und "Eigene Dateien" alle auf Laufwerk D liegen

Platzmäßig brauche ich ca 1GB für Boot/EFI, ca. 60GB fürs System (inkl. Debugheader und so), etwas /tmp, sowie knapp 66GB für SWAP (Sleep legt den RAM in den SWAP). Ergo, mir würde eine 128GB SSD reichen. Zu SLC/MLC Zeiten hatte ich daher eine 128-256 GB SSD gerne aus den Datacenterbereich um keine Kompromisse bei Haltbarkeit einzugehn.

Seit TLC dimensioniere ich einfach großzügig über. D.h. ich kaufe 500GB bis 1000GB und partitioniere nur ca. 256 GB und hoffe auf praktisch unbegrenzte Haltbarkeit. Das spart ein haufen Geld und funktioniert bisher gut. Schade dass es Intels Optane nicht mehr gibt. Derzeit achte ich eigentlich nur drauf, SSDs mit DRAM cache zu bekommen und min. 600TBW (TB writeen/day pro TB). Wenn ich jetzt aber in Preisvergleich schaue, gibt es eigentlich nur die selben Optionen wie seit 5 Jahren. Ok Seagate hat ein refresh und Crucial hat aus P5 die T500 gemacht. Aber das ist ja nichts wirklich neues

Z.B. schaue ich mir gerade an:
  • Samsung OEM Client SSD PM9A1 512GB
  • Western Digital Red SN700 NVMe NAS SSD 500GB
  • Samsung SSD 970 EVO Plus 500GB
  • Western Digital WD_BLACK SN850X NVMe SSD 1TB
  • Crucial T500 SSD 500GB - aktuell ist die 1TB sogar günstiger.
  • Seagate FireCuda 530R

Ab Samsung 980 pro geht es dann schon schnell Richtung 100€. Da stimmt für mich dann Preisleistung für eine Systemdisk nicht mehr. Mit Marken die nur umlabeln wie Transcend habe ich extrem schlechte erfahrungen gemacht, daher halte ich mich mitterweile an die Größen in der Branche die noch etwas näher an der Fertigung sind und nicht in einer SKU munter die Specs/Chips wechseln und wunder bei TBW etc. versprechen.

Ist das nur mein Eindruck oder gibt es jenseits von QLC/höherer Speicherdichte keine Innovationen mehr im SSD Bereich? Ich meine praktisch macht es doch für den Heimanwender keinen Unterschied ob jetzt eine PCIe v3, v4 oder gen5 SSD verbaut ist. Oder sehe ich das falsch?

Ich würde mich jetzt für die WD red SN700 500GB oder die Crucial T500 in 1TB entscheiden. Was würdet ihr gerade als Preis-Leistungs-König für eine Systemdisk sehen? Doch auf ein 980 pro gehen (warum?)?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn ich jetzt aber in Preisvergleich schaue, gibt es eigentlich nur die selben Optionen wie seit 5 Jahren.
In 5 Jahren ändern sich die Modelle aber, entweder bringt der Hersteller ein Nachfolgemodell oder er ändert die Bestückung des bestehenden Modells, da nach so lange Zeit die NANDs mit der sie mal erschienen ist, kaum noch gefertigt werden dürften. Die NAND Hersteller optimieren die neuen NAND Generationen ja vor allem auf immer geringere Kosten pro GB, auch wenn die Schritte da nur klein sind, so lohnt es sich eben nicht, die alten Generationen ewig weiter zu fertigen. Es werden da nur 2 oder während der Umstellung auch mal 3 Generationen gefertigt.

Ab Samsung 980 pro geht es dann schon schnell Richtung 100€.
Die wurde ja auch schon vor Jahren durch die 990 PRO abgelöst und während so eine Ablösung meist erstmal für fallende Preise sorgt, versuchen sich die Händler die dann noch die alte Generation auf Lagen haben, ihre letzten Schätzchen vergolden zu lassen. Schau also nach der 990 PRO, statt nach der 980 PRO. Wobei ich die WD SN850X bevorzugen würde, die ist kaum langsamer, in einigen Benchmarks sogar schneller und meist günstiger zu haben.

Ist das nur mein Eindruck oder gibt es jenseits von QLC/höherer Speicherdichte keine Innovationen mehr im SSD Bereich?
So ist es, was sollte sich da auch noch tun? Außer das wir vielleicht eines Tags einen Nachfolger für M.2 im Desktopbereich sehen könnten, wüsste ich nicht was da noch kommen soll. Man hat alles gemacht, was einfach war um die Kosten von NANDs zu senken, erstmal immer kleinere Strukturen, dann mehr mehr Bit pro Zelle und als die Zellen zu klein würden um noch genug Elektronen aufzunehmen, ging es in die dritte Dimension und seitdem immer mehr Layer. Was soll noch kommen? Man kann nur noch mehr Bits pro Zelle unterbringen, was dann aber wieder die Limits für die minimale Größe der Zellen entsprechend anhebt und Nachteile bzw. Haltbarkeit und Schreibgeschwindigkeit bringt.

Dabei würde man mit 5 Bits pro Zelle gegenüber 4 nur noch maximal 20% einsparen, wobei es praktisch weniger wären, da man mehr zusätzliche Bits für eine bessere ECC brauchen würde. Man kann mehr Layer machen, aber die Anzahl der nativen Layer hat Limits, jeder Layer benötigt zahlreiche Bearbeitungsschritte und kann bei einem Fehlen den ganzen Wafer versauen, daher werden inzwischen immer mehr Layer durch Stapeln von Dies übereinander und Durchkontaktieren erreicht, aber man braucht bei 2 solcher gestackter Dies dann doppelt so viele belichtete Wafer und spart sich nur einmal die Logik. Aktuell geht man sogar dazu über die Logik auf einem eigenen Die zu realisieren und damit alle Dies mit den Zellen identisch und ohne Logik zu fertigen und dann auf den Die mit der Logik zu stecken. Dazu verringert man eben wieder die Größen und Abstände der Zellen, bis man wohl wieder an Limits angekommen ist, die man schon bei den 1xnm planaren NANDs erlebt hatte, wo bei 14nm das Limit erreicht war, da waren nur noch so 20 Elektronen in einer Zelle und es durch die geringen Abstände der Zellen Beeinflussungen der Nachbarzellen gab, so dass die Daten öfter refresht werden mussten, die Haltbarkeit also geringer wurde.

Es ist eben was typischerweise mit neuen Technologien passt. Erst geht es langsam voran, dann geht es in gewaltigen Schritten voran bis man an physikalische oder technische Grenzen stößt und danach geht es dann nur noch schleppend weiter, wenn man keinen technischen Fortschritt in eine andere Richtung machen kann. Bei NANDs waren dies die Schritte zu mehr Bits pro Zelle und zu 3D. Bei CPUs waren am Anfang die Taktraten auch nur in unteren MHz Bereich und nachdem man über die 100MHz gekommen war, ging es mit gewaltigen Schritten weiter und als die 1GHz erreicht waren, glaubten alle bald 10GHz zu erreichen. Daraus wurde nichts, 5GHz waren lange das Limit und erst kürzlich wurden diese signifikant überschritten, aber die 6,2GHz des 14900KS sind immer noch weit von 10GHz entfernt. Man hat dann eben mehr Kerne pro CPU realisiert um die CPU Performance weiter steigern zu können und optimiert die IPC immer weiter, wobei man für beides eben mehr Transistoren und damit eine immer bessere Fertigung braucht um diese unterbringen zu können und deren Leistungsaufnahme nicht noch mehr ausufern zu lassen.

Oder nimm HDDs, da hat man mal mit großen und vielen Plattern angefangen, die mit Longitudinal Magnetic Recording (LMR) gearbeitet haben. Die Steigerung der Datendichte erforderte aber immer geringere Abstände der Köpfe zum Platter und die Vibrationen Platten mit großen Durchmessern und langen Spindel mit vielen Platter wurden immer mehr zum Problem, weshalb wird am Ende bei maximal 3,5" mit so 26mm Höhe angekommen sind und nicht mehr, auch wenn manche Leute immer noch glauben, man könnte größere Kapazität einfach erreichen, wenn man die HDDs wieder größer manchen würde, entweder wieder 5¼", aber dies würde nicht gehen. Dann hat man PMR eingeführt, schreibt die Bits also in die Tiefe statt der Länge nach, vorher hatte man schon die statische CHR Adressierung überwunden um die Tatsache ausnutzen zu können, dann der Umfang auf den äußeren Spuren größer ist und man dort daher mehr Sektoren unterbringen kann als auf den inneren Spuren, etwas doppelt so viele, was dann aber die LBA Adressierung erfordert hat, bei der die Elektronik der HDD dann selbst verwaltet, wo der entsprechende Sektor physikalisch ist, eben weil nicht mehr alle Spuren gleich viele Sektoren haben.

Als die HDDs dann bei so 1TB pro 3.5" Platter angekommen waren, gab es immer mehr Probleme die Datendichte weiter zu steigern, man bracht so geringe Abstände der Köpfe das man im Teilkontaktbetrieb angekommen ist und um die Gesamtkapazität der HDDs zu steigern, ging man dazu über immer mehr Platter in dem Gehäuse unterzubringen, also die Platter dünner zu machen und deren Abstände zu minimieren, was aber dann Probleme mit dem Einfluss der Luftwirbel auf die Köpfe und deren Ausleger erzeugt hat, weshalb man das die Heliumfüllung eingeführt hat und alle Platten mehr mehr als 6 Platten sind heute mit Helium gefüllt. Mehr Platter bedeuten aber eben auch mehr Kosten und die Heliumfüllung ist wegen der Anforderungen an die Dichtigkeit der Gehäuse auch nicht billig. Bei der Datendichte sind wir nun bei etwas über 2TB pro 3.5" Platter, aber die letzte Verdoppelung hat viel, viel länger gedauert als die davor und nun ist HARM die neue Technologie von der die HDD Hersteller sich erhoffen die Datendichte wieder schneller zu steigern, wobei man noch abwarten muss, ob und wann diese sich in großem Maße durchsetzt.

Man kommt eben immer irgendwann an Grenzen wo man dann nicht mehr mit der bisherigen Geschwindigkeit weiterkommt wie vorher, sofern man eben nicht eine neue Technologie finden kann. Für NANDs sehe ich keine neue Technologie mehr, der letzte war der Schritt zu 3D und die Zellen sind so einfach aufgebaut, dass man keine noch einfachere Alternative finden könnte, genau wie bei DRAM, wo nun vermutlich der Schritt zu 3D kommt, aber ansonsten auch keine neue Technologie in Sicht ist. HBM ist auch nur DRAM mit einer anderen Bauform wo die bessere Latenz nur daher kommt, dass man nicht die Rows und Columns nacheinander über die gleichen Adressleitungen überträgt, wie es bei den normalen RAM Riegeln der Fall ist um die Anzahl der Pins gering zu halten, sondern gleichzeitig und welches dazu eine gewaltige Datenbreite bietet, viel mehr als die 64 Bit normaler RAM Riegel.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh