Overprovisioning bei Samsung 850 PRO

freeman303

Enthusiast
Thread Starter
Mitglied seit
01.08.2006
Beiträge
631
Ort
Schwarzwald/Bodensee (z.Zt. auf bestimmte Zeit bei
Hallo,

macht ein Overprovisioning bei einer Samsung 850 PRO überhaupt Sinn?

Angenommen es wird Win7 mit TrueCrypt Voll-Datenträger-Verschlüsselung eingesetzt.

Die aktuelle C'T schreibt, dass man bei aktuellen SSDs und der Samsung 850 Pro keine Overprovisionierung mehr benötigt, weil der Controller und der vom Hersteller eingerichtete freie Speicherbereich ausreichend wären. Außerdem stand im Artikel, dass auch bei einem durch Overprovisioning eingerichtetem Freiraum hinter der letzten Partition, dieser Freiraum eben trotzdem von dem Controller der SSD für die reguläre Datenablage genutzt würde, somit das Overprovisioning gar nichts nutzen würde.

Stimmt das so?

Ich meine, die C'T war auch schon mal besser - vor Jahren - daher stelle ich diese Frage hier zur Diskussion. Muss ja einen Grund haben, warum z.B. die Samsungs PM863 und SM863 andere GB-Größen haben. Wohl weil dort eben ein größeres Overprovisioning von Samsung eingerichtet wird.

Gruss
Freeman303
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn SSD getrimmt werden, macht es für Heimanwender meist keinen Sinn. Wie es diesbezüglich mit TrueCrypt aussieht, kann ich aber nicht sagen. Die c't ist nicht gerade eine bzgl. SSDs durch besondere Kompetenz ausgezeichneter Zeitschrift, die würde ich da eher mal schnell vergessen, aber das mit dem ab Werk freien Speicher ist korrekt, denn jede SSD hat mindestens so viele GiB NAND- wie GB Nutzkapazität, also etwa 7% mehr NAND verbaut als der User nutzen kann.

Mehr OP bringt aber vor allem im Steady State (da kommen die SSDs bei Heimanwendern aber gewöhnlich nie hin) gerade bei der 850 Pro schon einiges, schau Dir das mal hier im Review bei Anandtech mit 7%, 12% und 25% OP, an, da sind es statt weniger als 10.000 IOPS Schreibend ohne extra OP bei 4k Random Write auf die volle SSD dann schon 40.000 bei 25% statt nur 7% OP:



 
Danke für Deine Antwort und auch Danke für den Link.

Du bist hier eine echt Kapazität, was SSDs anbelangt! TOP!

Der Rechner, in dem die SSD stecken soll ist eine Workstation für Softwareentwicklung (Visual Studio, Ms SQL Server) und Bildbearbeitung (Adobe Photoshop). Rechner ist mit 32 GB RAM ausgerüstet. D.h. auf die SSD schreibt keine Auslagerungsdatei. Diese ist explizit deaktiviert. Falls das wichtig sein sollte.
 
Das Deaktivieren der Auslagerungdatei ist nicht zu empfehlen, es gibt bei einigen Programme Probleme wenn sie eine erwarten und kein da ist, außerdem bekommt man bei einem BSOD keinen Minidumps. Daher würde ich eine mit 2GB auf der SSD anlegen, die wird davon auch nicht kaputt geschrieben werden, so eine 850 Pro hält eine ganze Menge TBW aus, weit mehr als die angegebenen, die nur eine Grenze für die Garantie sind.
 
Eben, denn nicht die TBW sind entscheidend, die P/E Zyklen sind der Indikator für den Verschleiß der NANDs. MaxRink, wie viele P/E hat die denn schon runter? Das steht im Rohwert von S.M.A.R.T. Attribut 0xB1 (177 dezimal) und der Aktuelle Wert zeigt wie viel Prozent der spezifizierten P/E Zyklen noch übrig sind. Ich meine die Basis der Berechnung ist 5000 oder 6000 spezifizierte P/E Zyklen, aber wie dieser Endurance Test einer 840 Pro 128GB zeigt, sind die bei Samsung meist sehr konservativ die Garantierten Zyklen angegeben:

wear-normalized.png

data-lba-all.png


Weiter sieht man gut, dass die Badblock wie bei vielen anderen SSD im Dauerschreibtest auf xtremesystems.org so etwa nach der Hälfte der Zeit anfangen zu steigen:

runtime-bad-block.png

ecc-recovered.png


Erst wenn die ECC-Recoveries massiv ansteigen, dann wird es wirklich kritisch und die NANDs sind dem Ende nah. Die 840 Pro hält rund 6 mal so viel aus und der Verschleiß fing erst wirklich nach der dreifachen Anzahl von P/E Zyklen an und kritisch wird er, wenn die ECC Fehlerrate anfängt massiv zu steigen.

Wie man sieht hat die kleine 840 Pro mit ihren planaren 21nm NAND 3PB geschafft, obwohl die spezifizierten P/E Zyklen nach gut 500TB verbraucht waren, jede 850 Pro mit ihren 3D NANDs sollte deutlich mehr schaffen und je größer die Kapazität ist, umso mehr sowieso.
 
Zuletzt bearbeitet:
Mehr OP bringt aber vor allem im Steady State (da kommen die SSDs bei Heimanwendern aber gewöhnlich nie hin) gerade bei der 850 Pro schon einiges, schau Dir das mal hier im Review bei Anandtech mit 7%, 12% und 25% OP, an, da sind es statt weniger als 10.000 IOPS Schreibend ohne extra OP bei 4k Random Write auf die volle SSD dann schon 40.000 bei 25% statt nur 7% OP

Das ist sehr interessant. Man sieht richtig, wie die IOPS mit zunehmendem Overprovisioning ansteigen. Im Steady-State wohlgemerkt.

Auch interessant wäre es zu wissen, wie sich die Samsung PM863 und die Samsung SM863 verhalten. Diese Modelle sind ja für Server ausgewiesen.

Ich habe im Internet nach dem gleichen Test "Steady State" und IOPs für die obigen Samsungs gesucht, aber leider nichts gefunden. So könnte man vergleichen, ob das größere OP für den IOP-Zuwachs verantwortlich ist, oder ob da auch der Controller und sein Zugriffsmechanismus auf den Flash eine große Rolle spielen.

Könnte doch ja sein, dass z.B. eine Samsung PM863 oder SM863 mit ihrem vom Werk aus definierten OP genau die gleichen IOPs schafft, wie eine 850 PRO mit 25% Overprovisioning? Wer weiß?

Kennst Du ggf. Quellen im Internet, wo dieses Steady-State mit den Server-Samsung-SSDs ermittelt wird? Also genau die gleichen Test, wie hier auf dieser Webseite, die Du als Link angegeben hast (http://www.anandtech.com/show/8216/samsung-ssd-850-pro-128gb-256gb-1tb-review-enter-the-3d-era/7)?

Könntest Du bitte schauen, ob Du was im Internet dazu findest?

Grüße
Freeman
 
Die PM863 hat meines Wissens den gleichen Controller und dürfte entsprechend auch von mehr OP bei den IOPS Schreibend im Steady State profitieren. Das hängt ja eben auch vom Controller ab, manche profitieren da mehr als andere. Die Enterprise SSDs haben ja meist ab Werk mehr OP als die Consumer SSD, aber die haben auch nicht selten intern eine Technologie die wie ein RAID 5 über NAND Pages/Blöcke arbeitet (bei Sanddorce RAISE und bei Micron RAIN genannt) und damit steht dann weniger von der OP für die Free Area zur Verfügung und auf die kommt es ja bei den IOPS im Steady State an.

Die Angaben für die IOPS Schreibend sind bei Enterprise SSD i.d.R. auf den Steady State bezogen, bei Consumer SSD dagegen auf leere SSDs unter optimalen Bedingungen und nicht selten nur für den Pseudo-SLC Schreibcache. Die BX200 ist meine ich mit 78k IOPS Schreibend angegeben, schafft aber im Steady State keine 2000, die Intel SC S3700 schafft fast 40.000 und das sind mehr als angegeben sind. Wer also nur nach den Angaben der Datenblätter geht, vergleich bei Consumer und Enterprise SSDs dort Äpfel mit Birnen.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh