PCIe 4.0 x4 oder 5.0 x2: Samsung veröffentlicht versehentlich Daten zur 990-EVO-SSD

Das was du Zwischenspeicher nennst ist für die Mapping Tabelle zuständig. Die wird zwar ausgelagert auf den Host und nicht in den DRam wie bei entsprechenden SSDs mit DRam Cache geschrieben aber selbst das geht noch wesentlich flotter als bei alten Sata bzw. mSata SSDs, welche diese direkt in den Nand geschrieben haben und wodurch quasi ein paraleler Zugriff auf diesen stattfinden musste.

Ich habe hier im Spoiler mal die Lexar im HMB Mode ggü. zwei SSDs mit DRam Cache (P41, SN850X) anhand den PCMark Diskszenarios gebencht.
Gerade im realitätsnahesten FullSystemdrive Benchmark (der aufwendigste und längste) kann die Lexar sehr gut mithalten.
Ähnlich bzw. sogar identisch agieren auch meine S880 bzw. FN955, die auch im HMB Mode laufen mit identischen 232-Layer YMTC Nand und Maxiotek Controller.
Hier zb. die 4TB FikWot FN955, absolut identisch zur Lexar NM790 und beide unterstützen in der 4TB Version das NVMe2.0 Protokoll:
fn955.png

ps: Es kommt auch immer darauf an, welches Szenario du nun genau meinst. Random Zugriff oder seq. Zugriff?

edit: Da ich keine Lust habe die FN955, die momentan bei mir als Game SSD für verschiedene Biblis dient zu leeren, einfach mal den Epic Ordner auf eine P41 kopiert und dann wieder zurück geschrieben.
Bitte beachten: Die SSD ist schon über 60% befüllt und momentan mangels PCIe4.0 Slots nur @ 3.0 angebunden. Der Epic Ordner umfasst 628GB in 403 Ordner mit gesamt 12911 Dateien:

fn955 copy.png

..die ersten 400GB rutschen quasi mit 2,5~3,0GB/s (PCIe3.0) durch, erst danach bricht die FN955 -füllstandsbedingt- auf ca. 1,2~1,0GB/s ein.
Das sind Geschwindigkeiten die sich durchaus sehen lassen dürfen und selbst meine beiden alten Samsung 980 non_Pro @ PCIe4.0 bzw. die beiden Samsung 970 EVO Plus @ PCIe3.0 haben das so nicht geschafft. (y)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So weit in die Materie bin ich nie eingestiegen. Ich kopiere einfach Daten (große Dateien) mit dem Win-Explorer bzw. einem anderen Filemanager (XYplorer)

Es fällt aber auch auf, daß beim Smartrendern von geschnittenen Filmen (TmpgEnc Smart Renderer 6) beim Schreiben der Daten Pausen eingelegt werden, in denen nichts passiert. Und das liegt eindeutig an der SSD, da beim Rendern auf HDD der Prozess kontinuierlich durchgeht.

Ps: Deine Infos machen mir große Hoffnungen, daß ich meine Idee mit der Lexar NM790 (4TB-Modell) endlich sauber umsetzen kann. Zumal mein aktuelles Board auf dem zweiten M.2 auch PCIe 4x4 realisiert. Auf die Idee, eine SSD mit dem Namen Fikwot zu kaufen, wäre ich nie gekommen! ;)

Daß die Lexar durch und durch China ist, ist mir aber bewußt. Scheint aber gelungen zu sein. Und immerhin hab ich einen Test dazu finden können, der sich sehr gut las. Wenn ich das richtig verstehe, wird die Samsung 990 Evo da nicht im Traum rankommen?
 
Zuletzt bearbeitet:
Oder Samsung weiss, das dies ein kommendes Feature ist und bereitet sich da vor. Dann würde ich so eine Möglichkeit aber als Premium-Feature mit Preisaufschlag (für diejenigen die das haben wollen) verkaufen und nicht in Budget-SSDs.
Nur würde dann ein Käufer einer Performance SSD auch die volle Performance einer PCIe 5.0 x4 Anbindung sehen wollen und nicht eine PCIe 5.0 x2 Anbindung, aber nur die Performance einer PCIe 4.0 x4 Verbindung. Die CPUs direkt und die (Top) Chipsätze bekommen ja auch bei den Mainstreamsockeln immer mehr PCIe Lanes, eben vor allem um M.2 Slots anzubinden, die PCIe Slot werden ja immer weniger auf den AM5/S.1700 Boards und auf X670/Z790 Boards wird der Platz für M.2 Slots schon knapp, vor daher sehe ich nicht das es eine Wende hin zu noch mehr Slots und dafür nur mit 2 PCIe (5.0) Lanes als Anbindung geben wird.

Bei den kleineren Chipsätzen die weniger PCIe Lanes haben, wäre dies eher sinnvoll, nur dürften die wenigsten die schon am Mainboard sparen müssen, dann unbedingt eine hohe Anzahl an NVMe SSDs verbauen wollen, die kosten ja auch einiges und dann womöglich noch Muxer/Demuxer zu verbauen um die 4 Lanes auf einen oder zwei M.2 Slot (also als x4 oder 2x x2) umschalten zu können, würde die Preis der Mainboards nur noch weiter in die Höhe treiben und dann würde man doch eh eher zu einem X670 oder Z790 Board greifen, wenn der Aufpreis nicht so hoch ist, man sowieso viel Geld für SSDs ausgibt und diese dort dann voll mit 4 Lanes binden kann.

Ich hatte ja auch schon spezielle Lösungen im Sinn wie etwa über eine ASUS Hyper M.2 Karte, aber die kann eben auch nur x4/x4/x4/x4 oder halt nichts (wenn man vier SSDs verwenden will). Wäre ja sonst zu schön, wenn man die Lanes granularer aufteilen könnte (wenn auch in einem absoluten Nischen-Fall).
Das liegt aber eben auch daran, dass man die Lanes der CPU eben nur maximal auf x4+x4+x4+x4 aufteilen kann (bei S.1700 leider sogar nur x8+x8) und damit wäre eine Karte mit 8 M.2 Slots mit je 2 Lanes ohne einen PCIe Lane Switch (aka PLX Chip) oder einen vergleichbaren Controllerchip wie die Broadcom Trimode eben sinnlos, da man dort trotzdem nur maximal 4 SSDs betreiben könnte und die hätten dann auch je nur 2 Lanes und 8 Lanes würde ungenutzt bleiben oder man baut Muxer-Demuxer als statische Umschalter drauf, was die Kosten treibt und solange sinnfrei ist, wie es eben keine andere Aufteilung als in je 4 Lanes gibt.

Die Lanes der Chipsätze kann man feiner aufteilen, aber die gehen dann an Slots mit maximal 4 Lanes, denn zu mehr als 4 kann man sie ja nicht zusammenfassen und wenn die Boardhersteller da Bifurkation auf x2+x2 anbieten wollten, könnten sie dies schon heute, macht aber meines Wissens nach auch keiner.

Es gab übrigens eine Bifurkation auf x2+x2 in den M.2 Slots für bestimmte Intel Plattformen um dort die Optane H10 betreiben zu können, also diese Hybridmodelle bei denen eine Optane Memory als Cache und eine 600p als Datenlaufwerk auf einer M.2 Platine sitzen und jeder Controller mit je 2 der 4 PCIe Lanes verbunden ist. Um beide ansprechen zu können und damit das Caching zu ermöglichen, mussten die M.2 Slots dafür dann auch Bifurkation unterstützen, aber für allen anderen SSDs hat dies eben keinen Nutzen.
Nicht wenige Laptops oder auch Barebones haben M.2-Slots mit lediglich zwei Lanes. Wenn da dann eine "Samsung SSD" mit spektakulären sequenziellen Transferraten beworben werden darf, reicht das vermutlich schon, um Absatz zu generieren.
Das liegt dann aber auch wieder daran, dass deren Plattformen zu wenig Lanes bieten um alles anzuschließen.

Allerdings fehlt mir ein wenig der Glaube...
Mir auch, irgendwo ist das Marketing von Samsung da wohl falsch abgebogen. Wenn ich nur sehe wie lange es gedauert hat bis sie endlich mal eine 4TB Version der 990 PRO gebracht haben...
 
Eben, denn wer schon jetzt ein PCIe 5.0 fähiges System hat, der gehört sehr wahrscheinlich zu denen die tiefer in die Tasche greifen

Keine Ahnung was tiefer in die Tasche greifen ist. Einige billigen Mainboarsd haben schon minstestens einen PCIE 5.0 NVME Schacht.

Ich hoffe wir reden nicht von der 30€ Mainboard Kundschaft als Standard, oder?
Ein übliches Mainboard kostet im Bereich 150-200€ seit einigen Jahren.
Beitrag automatisch zusammengeführt:

Bereits aktuelle Gen4 SSDs sind (linear) doch bereits mehr als schnell genug für praktisch alle Szenarien im Desktop/Laptop.

Nein. Wenn ich auf eine Dateioperation warten muss, bremst es. Real Life Scenario - kein Marketing oder Benchmark Spezialfall - der nicht meiner Realität entspricht.
Beitrag automatisch zusammengeführt:

U.2/U.3 (oder was auch immer dann aktuell ist) greifen.

Ich will keine Sonderformate. Mir ist seit kurzem Bewusst, dass es Alternativen gibt. Ich schätze an dem 2280er NVME Format, dass es sehr übliche Bauform ist.
 
Zuletzt bearbeitet:
Es gab übrigens eine Bifurkation auf x2+x2 in den M.2 Slots für bestimmte Intel Plattformen um dort die Optane H10 betreiben zu können, also diese Hybridmodelle bei denen eine Optane Memory als Cache und eine 600p als Datenlaufwerk auf einer M.2 Platine sitzen und jeder Controller mit je 2 der 4 PCIe Lanes verbunden ist. Um beide ansprechen zu können und damit das Caching zu ermöglichen, mussten die M.2 Slots dafür dann auch Bifurkation unterstützen, aber für allen anderen SSDs hat dies eben keinen Nutzen.
Ja, leider im Nachhinein eine ziemliche Sonder-/Insel-Lösung gewesen. Das Konzept hätte Potenzial zu mehr gehabt. Aber sollte halt nicht so sein.
Das liegt dann aber auch wieder daran, dass deren Plattformen zu wenig Lanes bieten um alles anzuschließen.
Je nach Plattform kommt auch das hinzu (aber nicht nur, oftmals geht es eher um allgemeine Kostenersparnis). Würde mich nicht wundern, wenn wir da in Zukunft die 990 EVO sehen werden.
 
Auf die Idee, eine SSD mit dem Namen Fikwot zu kaufen, wäre ich nie gekommen! ;)
Man muss schon seinen inneren Schweinehund überwinden bzgl. der Namensgebung aber ist sie dann da, merkt man ganz schnell, dass die gar nicht schlecht ist für den Preis (192€ im Angebot und das zwei Tage vorm Fest). Ich persönlich merke absolut keinen Unterschied zwischen der Lexar NM790, Fanxiang S880 oder Fikwot SN955 und ich mache jede Wette, eine Ediloca & Co. mit identischen Controller und Nand würde da genau so laufen.
Das dram_less HMB SSDs in der Praxis (nicht im Benchbetrieb) und allgemein üblichen Nutzungsverhalten einer dram_cached SSD auch nicht unterlegen sein muss merke ich selbst ja täglich. Ich würde daher eher eine SSD nach den besten Preis kaufen €/GB, gerade wenn das dann Kapazitätsmonster 4TB und mehr werden sollen. Mir ist das auch egal, ob da nun Samsung, WD, SK_hynix oder Fanxiang drauf steht. Support hast du im Grunde genommen überall und für wem Support daraus besteht, dass der Anbieter häufiger FW. Updates anbieten muss - Glückwunsch! ..der hat dann was grundlegend falsch verstanden, denn diese Updates werden meist zur Konfliktbereinigung angeboten.

Daß die Lexar durch und durch China ist, ist mir aber bewußt. Scheint aber gelungen zu sein. Und immerhin hab ich einen Test dazu finden können, der sich sehr gut las. Wenn ich das richtig verstehe, wird die Samsung 990 Evo da nicht im Traum rankommen?
Das kann ich dir nicht beantworten, ich kenne die 990 EVO noch nicht.
 
Zuletzt bearbeitet:
Na ja. die Lexar wird vom Hersteller mit Seq Read/Write 7.400/6.500 MB/s angegeben. Das sind Werte, wie sie bei Samsung die Pro hat. Deshalb wird die 990 Evo darunter liegen müssen, und das tut sie ja mit den geleakten Daten (5.000/4.200 auch deutlich.
 
Kommt immer auf den Einsatzbereich-/zweck an.
Die Herstellerangaben würde ich nun nicht auf die Goldwaage legen, da sehr synthetisch mit bestimmter HW. unter optimalen Voraussetzungen bei absolut leerer SSD erstellt.
Wenn die 990 EVO, was ich nicht glaube, zb. mit dram_cache daher kommt, dann hätte die im random Access einen enormen Vorteil, heißt, vorzugsweise zb. als OS SSD in bestimmten Szenarien.
Muss man in der Praxis nicht merken, wären aber dann definitiv vorhanden, daher nutze ich persönlich als OS SSD immer eine dram_cached SSD. Für alles andere ist es mir egal.
 
oftmals geht es eher um allgemeine Kostenersparnis
Bei mobilen Plattformen geht es auch um die Leistungsaufnahme, denn jede PCIe Lane braucht auch Leistung und je schneller sie ist, umso mehr und dies geht dann von dem Power Budget für die CPU Kerne und die iGPU ab.

Würde mich nicht wundern, wenn wir da in Zukunft die 990 EVO sehen werden.
Mich würde es schon wundern, denn schau Dir nur an wie lange AMD bei den mobilen CPUs (bzw. eben APUs) noch PCIe 4.0 bot, nachdem die Desktop CPUs dies schon hatten. Auch hier dürfte die Leistungsaufnahme eine Rolle spiele, ich nicht bald mit PCIe 5.0 SSDs in Notebooks rechnen. Auch die Meteor Lake haben ja nur 8 PCIe 5.0 Lanes und die scheinen für eine GPU gedacht zu sein:
Wenn ich das richtig interpretiere gibt es neben den 8 PCie 5.0 Lanes noch 20 PCIe 4.0 Lanes, die dann für 3 M.2 Slot mit je 4 Lanes gedacht sind und 8 die für universelle Nutzung gedacht sind und auch anderes als wie nur als x4 zusammengefasst genutzt werden können, eben um so Dinge wie den LAN Chip und das WLAN dort anzubinden.

Die neuen AMD 8000er APUs haben gar kein PCIe 5.0:
Das ist eine AM5 APU und die haben bisher immer 28 PCIe Lanes gehabt, von denen 24 nutzbar sind, da ja 4 für die Anbindung des Chipsatzes. Entweder sind da also auch wie schon bei AM4 CPUs nur 8 Lanes für die Graka vorgesehen oder die zweimal 4 Lanes für M.2 Slot wurden weggelassen, aber ich vermute Ersteres. Auch da sieht es also nicht so aus als würde PCIe 5.0 bald in Notebooks kommen.
 
Mich würde es schon wundern, denn schau Dir nur an wie lange AMD bei den mobilen CPUs (bzw. eben APUs) noch PCIe 4.0 bot, nachdem die Desktop CPUs dies schon hatten. Auch hier dürfte die Leistungsaufnahme eine Rolle spiele, ich nicht bald mit PCIe 5.0 SSDs in Notebooks rechnen.
Passt doch perfekt zur Samsung 990 EVO: kann dann mit PCIe4 nutzbar sein und wenn die Werbeversprechen besonders fies sein sollen, kann trotzdem mit einer "Samsung PCIe5-SSD!" geworben werden :haha:
 
Praktisch das Nachfolgemodel der Samsung SSD 980 mit PCIe 3.0 ist die Samsung SSD 990 EVO mit PCIe 4.0 + PCIe 5.0 ohne Cache und TCL !

klein
 
Praktisch das Nachfolgemodel der Samsung SSD 980 mit PCIe 3.0 ist die Samsung SSD 990 EVO mit PCIe 4.0 + PCIe 5.0 ohne Cache und TCL !

klein

Naja, in naher Zukunft werden mehr oder weniger alle gewöhnlichen Consumer SSDs keinen eigenen Mapping Table Cache mehr haben - sondern nur noch auf den HMB (Host Memory Buffer) setzen. Gründe sind -wie so oft- Kosteneinsparungen. Hat man so ja auch beim Wechsel von 2-Bit MLC auf 3-Bit TLC-Speicher in den Consumer-SSDs durchgezogen. Neben der Kostenersparnis spielt im Mobilbereich auch die Energie-Effizienz eine Rolle. Im großen und ganzen merkt der gewöhnliche 08/15-Consumer im normalen Anwendungs-Alltag keinen großen Performance-Unterschied. Allerdings wird man wohl noch längere Zeit welche mit DRAM-Cache anbieten, allein um ein paar Kröten extra im Enthusiasten-Bereich mitzunehmen sowie weil die derzeitigen und xy der nächsten fertig entwickelten Controller-Generationen dies (noch) unterstützen.

Meine Intel Optane mit 3D XPoint setzt noch ganz klassisch auf SLC und hat nicht mal einen DRAM-Cache...
 
Zuletzt bearbeitet:
Meine Intel Optane mit 3D XPoint setzt noch ganz klassisch auf SLC und hat nicht mal einen DRAM-Cache...
Nein, die setzt auf 3D X-Point und kein NAND und damit auch kein SLC, auch wenn die 3X X-Point auch nur ein Bit pro Zelle speichern, sollte man die Bezeichnung SLC besser nicht verwenden. Einen DRAM Cache braucht sie nicht, da ja das 3D X-Point fast so schnell wie DRAM ist und auch einen wahlfreien Zugriff erlaubt, während NAND eben nur einen Blockzugriff ermöglicht, man muss also immer mindestens eine Page Lesen oder Schreiben und die Pages sind bei heutigen NANDs meist 16k groß. Es müssen also 16k gelesen werden, auch wenn der Controller eigentlich nur ein paar Byte braucht um den passenden Teil der Mappingtabelle nachzuladen.
 
Nutze meine Samsung SSD 980 extern im USB 3.2 Gen.2 M.2 Gehäuse die arbeitet auch ohne Dram Cache zuverlässig,
aber würde es bei einer Samsung SSD 990 EVO probleme im USB 3.2 Gen.2 M.2 Gehäuse wegen der PCIe 5.0 x2 anbindung geben ?

klein
 
Nutze meine Samsung SSD 980 extern im USB 3.2 Gen.2 M.2 Gehäuse die arbeitet auch ohne Dram Cache zuverlässig,
Es hat ja auch keiner behauptet das die Zuverlässigkeit ohne den DRAM Cache leiden würde, auch wenn dies dann der Fall sein könnte, wenn der Rechner RAM Fehler hat und HMB genutzt wird.
würde es bei einer Samsung SSD 990 EVO probleme im USB 3.2 Gen.2 M.2 Gehäuse wegen der PCIe 5.0 x2 anbindung geben ?
Zwar kann man Inkompatibilitäten nie ganz ausschließen, aber generell ist PCIe abwärtskompatibel und damit sollte es keine Probleme geben, aber eben auch keine Vorteile.
 
Zwar kann man Inkompatibilitäten nie ganz ausschließen, aber generell ist PCIe abwärtskompatibel und damit sollte es keine Probleme geben, aber eben auch keine Vorteile.
Zukünftig dachte ich mal an ein Model mit 2000 GB in ein USB 3.2 Gen.2 M.2 Gehäuse,
dafür wäre mir ein PRO Model zu schade.

klein
 
Ich habe es mir schon immer selbst gemacht extern vom HDD bis SSD da weis ich was ich habe :) inmomend reicht es noch habe letztes Jahr gut im die 980 PRO investiert.

klein
 
Naja, in naher Zukunft werden mehr oder weniger alle gewöhnlichen Consumer SSDs keinen eigenen Mapping Table Cache mehr haben - sondern nur noch auf den HMB (Host Memory Buffer) setzen. Gründe sind -wie so oft- Kosteneinsparungen.
Genau das ist/wird der Trend. (y) ..auch oder gerade Samsung wird das so verfolgen.
Ist halt wie beim Nand als MLC noch als Standard galt und TLC eher die verpöhnte Ausnahme war - und wo sind wir nun?
Selbst im Professional/Enterprise Segment fast ausschließlich nur noch TLC.
 
Ach ja.. hab jetzt die Lexar NM790 4TB eingebaut. Vorher hatte ich die Crucial P3 4TB getestet, vorher formatiert. Das vollständige Beschreiben mit H2testw dauerte 5 Stunden! Im Schnitt also eine Datenrate von 200MB/s! Und das mit einer PCIe-x3 SSD! Anschließend die SSD zu 1/3 geleert, und Daten draufkopiert (von anderer M.2-SSD). Die Schreibrate begann mit 1,6 GB/s uind brach dann schnell ständig ein - bis auf Null

Heute das Gleiche mit der Lexar gemacht: die 4TB vollständig zu beschreiben, dauerte 55 Minuten. Minimale Schreibrate (ab etwa 3/4 Füllstand der SSD) lag bei 750MB/s, schnitt bei etwa 1,2GB/s. Gleiches Ergebnis beim anschließenden Kopiertest und nochmal bei neu formatierter SSD.

Tag und Nacht! :oops:
 
Laut Anandtech ist die 990 EVO auf Effizienz getrimmt und hat einen in 5nm gefertigten Controller. Das wäre ein deutlicher Fortschritt gegenüber den jeweils in 12nm gefertigten Phison E26 und InnoGrit IG5666 und lässt Gutes für eine später kommende PRO mit PCIe 5.0 x4 hoffen. Die dürfte dann jedenfalls ohne AiO auskommen.
 
Nein. Wenn ich auf eine Dateioperation warten muss, bremst es. Real Life Scenario - kein Marketing oder Benchmark Spezialfall - der nicht meiner Realität entspricht.
Was für Workloads hast du denn, dass du hunderte GB verschiebst?

Ich will keine Sonderformate. Mir ist seit kurzem Bewusst, dass es Alternativen gibt. Ich schätze an dem 2280er NVME Format, dass es sehr übliche Bauform ist.
U.2/U.3 ist kein Sonderformat, sondern die professionelle Umsetzung. M.2 hingegen nur der Kompromiss, damit die Laufwerke sowohl in Desktops als auch in Laptops passen.
 
Heute das Gleiche mit der Lexar gemacht: die 4TB vollständig zu beschreiben, dauerte 55 Minuten. Minimale Schreibrate (ab etwa 3/4 Füllstand der SSD) lag bei 750MB/s, schnitt bei etwa 1,2GB/s. Gleiches Ergebnis beim anschließenden Kopiertest und nochmal bei neu formatierter SSD.
Hast du die auch @ PCIe3.0 angeschlossen? Denn normalerweise generiert die @sequentiell schon höhere Schreibraten und läuft H2t schneller durch.
 
Laut Crystal Disk info PCIe 4.0x4 . Der Slot gibt das her.
H2testw startete auch mit 2,6GB/s. Später ging es runter. und zwar bei etwa der Hälfte Füllstand auf rund 1,6 GB/s, später wohl noch tiefer.

Die Lexar ist ja, wie es scheint, so organisiert, daß sie den gesamten freien Platz als Puffer nutzt - bis der eben knapp wird. Und für den Einsatzzweck kann ich mit 700-800MB/s minimaler Schreibrate mehr als gut leben.
Überlege sogar, die System-SSD gegen solch ein Model auszutauschen. Aktuell ist das eine Samsung 970 Evo.
 
Zuletzt bearbeitet:
Das was du nun meinst ist aber nicht der HMB Cache der Lexar (bei 4TB 40MB des Arbeitsspeichers (Host)) fürs Mapping, sondern der pSLC Modus wo, je nachdem ob der nun dynamisch oder statisch zum Einsatz kommt, bis zu 1/3 des gesamt zu Verfügung stehenden Nand (dynamisch) bzw. eine feste Kapazität (statisch) im 1-Bit SLC Modus gecached wird. Das ist nun aber unabhängig davon, ob das nun eine SSD mit oder ohne DRam Cache ist, pSLC nutzen auch die. Von daher schreiben gerade SSDs im HMB Modus und dynamischen pSLC Cache seq. oft über eine längere Transferkapazität bei leerer SSD mit konstant hoher Schreibrate als SSDs mit Dram Cache und einen statischen pSLC Cache.

Kleines Beispiel: Kopiere ich nun von einer Quell-SSD (P41 Platinum) einen Ordner 800GB. Kapazität auf eine leere P41 Platinum (DRam_cached / statischer pSLC Cache) bricht die Datenübertragungsrate nach ca. 150~160GB ein, bei einer SN850-X (Daten wie bei der P41) nach ca. 180~200GB und bei meiner FikWot FN955 (dram_less im HMB / dynamischer pSLC Cache) erst ab ca. 600GB oder später.
Wie lange dann eine HMB Mode SSD "fullstream" schreibt, hängt immer mit der noch zu Verfügung stehenden Gesamtkapazität der SSD zusammen, bei SSDs mit DRam Cache aber auch und da tritt dann u.U. der Drosselungseffekt unabhängig vom Static-Maxima dann erst später füllstandsabhängig auf. Einbrechen werden aber auch die in immer kürzeren Intervallen, je voller die SSD wird. Das alles gilt aber rein nur im seq. Schreib-/Lesebetrieb.

Bei vielen kleineren random Access Zugriffen spielt aber wieder der HMB vs. DRam Cache Mode eine wesentlich größere Rolle. Hier ist ganz klar DRam Cache, schon alleine von der größeren Kapazität fürs Mapping und deren kapazitätsseitig viel umfangreichere Adressierung, im Vorteil. Von daher würde ich persönlich bei Einsatzbereichen wo random Access Zugriffe eine weit höhere Rolle spielen, also OS-Medium zb., SSDs mit DRam Cache glasklar empfehlen. Als Datengrab, bestimmten Workflow oder als Game SSD reichen dram_less SSDs vollkommen. Dazu kommt ja auch, dass einige der neueren dram_less SSDs über weit höher gestackten Nand (Lexar & Co. zb. 232 Layer) verfügen als viele der DRam cached SSDs. Laut Micron zb. soll durch dieses hochverdichtete Verfahren der Gatter und erhöhter Anzahl gestapelter Arrays die Bitdichte erhöht und die Geschwindigkeit der Programmierzellen gesteigert werden bei gleichzeitig niedrigeren Stromverbrauch. Micron spricht da zb. von einer Verringerung der Schreib-/Leselatenz Gen 96-Layer auf Gen 176-Layer von ca. 35%.
 
Von daher schreiben gerade SSDs im HMB Modus und dynamischen pSLC Cache seq. oft über eine längere Transferkapazität bei leerer SSD mit konstant hoher Schreibrate als SSDs mit Dram Cache und einen statischen pSLC Cache.
Was aber gar nicht mit dem DRAM Cache zu tun hat, sondern nur der Größe des Pseudo-SLC Schreibcaches und der ist eben recht klein, wenn es nur einen festen, statischen Bereich gibt. Aber inzwischen haben alle SSDs einen dynamischen Pseudo-SLC Schreibcache, nutzen also eine mehr oder weniger großen Teil des normalen TLC (oder QLC) NANDs um da zuerst nur ein Bit zu beschreiben. Was übrigens nicht nur schneller geht, sondern auch weniger Leistungsaufnahme erfordert.
auf eine leere P41 Platinum (DRam_cached / statischer pSLC Cache) bricht die Datenübertragungsrate nach ca. 150~160GB ein
Wenn der Pseudo-SLC Schreibcache 150GB oder mehr umfasst, dann ist er garantiert nicht statisch! Eine SSD mit TLC NAND bräuchte fast 500GB zusätzliches NAND um so viel statischen Pseudo-SLC Schreibcache bieten zu können, denn der ist eben ein statischer Bereich vom normalen TLC NAND welcher nur als Pseudo-SLC Schreibcache dient und daher nicht Teil der Nutzkapazität ist. Die P41 hat dann einfach einen kleineren Pseudo-SLC Schreibcache, so wie die Samsung 960 EVO, ja schon die hatte neben einem statischen auch einen dynamischen Pseudo-SLC Schreibcache, z.B. bei der 1TB eben 6TB statisch plus bis zu 35GB dynamisch, insgesamt als maximal 42GB.

Inzwischen haben viele SSDs aber eben sehr große Pseudo-SLC Schreibcaches, nicht selten bis zum Maximum des Machbaren, bei TLC NAND eben etwa einem Drittel und bei QLC einem Viertel der aus Sicht des Controllers freiem NAND, was z.B. bei Verschlüsselung oder ohne TRIM auch weniger sein kann als es aus Sicht des Users erscheint. Der Nachteil ist natürlich, dass die Schreibrate danach umso mehr abfällt, da es eben kaum noch NAND gibt wo man dann wenigstens alle drei Bits auf einmal schreiben kann, was immer noch schneller ist als wenn man nur die 2. und 3. Bits beschreibt, was man aber eben machen muss, wenn die ersten Bits alle schon beschrieben sind und auch wenn der Schreibcache eben nicht die maximale Größe hat, passiert dies halt auch irgendwann, aber eben erst später.

Ein weiter Nachteil eines großen Pseudo-SLC Schreibcaches ist, dass in dem Fall das beim Schreiben der 2. und dritten Bits ein Fehler auftritt, z.B. ein Stromausfall oder weil es ein Problem mit dem NAND gibt, dann auch die Daten verloren sind die schon lange vorher in die ersten Bits der betroffenen Page oder des betroffenen Blocks verloren sind. Das Daten die gerade geschrieben wurden während so ein Fehler auftritt dann weg sind, sollte keinen wundern und Filesysteme wie NTFS haben ein Journaling für die Metadaten, was dafür sorgt das andere Dateien die schon vor längerer Zeit geschrieben wurden, davon normalerweise nicht betroffen sind. Ein sehr großer Pseudo-SLC Schreibcache kann also auch Nachteile haben und die Größe des Pseudo-SLC Schreibcaches ist nur eine Frage der Auslegung die der Hersteller wählt, was aber nichts damit zu tun hat ob es einen DRAM Cache gibt oder nicht. Das ist dem Beispiel die SSD ohne DRAM Cache einen größeren Pseudo-SLC Schreibcache als die mit DRAM Cache hat, ist einfach reiner Zufall, dies sollte man nicht verallgemeinern.
 
Danke für die ausführliche Erläuterung.
Um das zu erforschen, hatte ich ja auch nach dem kompletten Füllen der SSD diese nur um rund 1TB erleichtert, und dann einen rund 800GB großen Ordner drauf kopiert (von SSD zu SSD). Sie war also zu dreiviertel gefüllt, so daß kaum Platz zum internen Cachen war. Und dabei brach sie eben nach einigen geschriebenen GB "nur" auf minimal 750MBs ein. Im Gegensatz dazu brach die P3 schon nach einer kurzen Startphase mit 1,6GB/s auf lächerliche 80-200 MB/s ein, immer wieder unterbrochen von Phasen ohne jeglichen Datentransfer. Also 0 MB/s. Und das ist einfach indiskutabel.
 
Ja, dass kenne ich von der P3 (bei mir die Plus Variante), allerdings scheint deine noch richtig flott gewesen zu sein, wohingegen meine nach nur wenigen geschriebenen GB konstant nur noch auf/unter HDD Sata2 Niveau schreiben wollte und egal was man machte auch darauf verblieb (nur SecureErase generierte dann den erhofften Refresh).

Um das zu erforschen, hatte ich ja auch nach dem kompletten Füllen der SSD diese nur um rund 1TB erleichtert, und dann einen rund 800GB großen Ordner drauf kopiert (von SSD zu SSD). Sie war also zu dreiviertel gefüllt, so daß kaum Platz zum internen Cachen war. Und dabei brach sie eben nach einigen geschriebenen GB "nur" auf minimal 750MBs ein.
Was relativ normal ist für eine SSD mit dynamischen pSLC nach der 1/3-Regel. Hier zum Vergleich mal ein alter Post meiner S880 wo die noch neu war: S880 Kopierbench - 3 Zustände.
Identischer Controller, Nand und HMB Cache.

edit: In diesen Test hier kann man übrigens auch sehen, dass die Platinum P41 mit DRam Cache @ PCIe4.0 schneller einbricht als die FN955 dram_less @ PCIe3.0, welche auch absolut identisch zur Lexar NM790 ist.
Während die FN955 eigentlich die gesamten 755GB konstant bei durchschnittlich 2,5GB/s (PCIe3.0) schreibt, bricht die P41 (PCIe4.0) nach rund 180~200GB auf durchschnittlich 1,8GB/s ein.
Beide SSDs waren zu diesen Zeitpunkt absolut leer. Dürfte so bei der P41 eigentlich nicht passieren, wenn hier der pSLC dynamisch nach der 1/3-Regel vorliegt.
 
Zuletzt bearbeitet:
Und ich dachte schon, ich hätte die eine defekte erwischt! :geek:

Na ja... Ich hab das Teil jetzt bei Crucial reklamiert und das Problem ausführlich beschrieben. Mal schauen, wie sie reagieren. Denn mit einem Austauschgerät ist mir ja nicht gedient, wenn der Fehler so systemisch ist. Und Gewährleistung hab ich ja so gesehen nicht mehr, da im Mai 2023 gekauft, und das Produkt ist ja so gesehen nicht defekt", sondern einfach nur Sch.... Aber Crucials Garantie sollte hier ziehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh