Kingston V300 Trim unter XP

Thread Starter
Mitglied seit
10.06.2008
Beiträge
11.672
Ort
zuhause
Moin

Ich habe eine Kingston V300 übrig die ich im Rahmen eines Austauschs bekommen habe. Möchte sie gerne meine Mutter für ihren Laptop spendieren.

Da sie noch XP nutzt wäre meine Frage folgende:
Welche Möglichkeiten habe ich eine Windows 7 Installation zu umgehen?
Ich möchte gerne die SSD mit XP einsetzen, bin mir aber bewusst, dass ich TRIM dann manuell erledigen muss.

- Welche Software ist empfehlenswert? Bei Kingston finde ich nichts zu dem Thema - welche Drittanbietersoftware gibt es und welche ist gut?
- In welchen Zyklen sollte man die Aktion durchführen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Angeblich soll eine SF-SSD auch ohne TRIM bei passabler Speed bleiben.

Wenn die SSD nicht ständig vollgeschrieben wird mußt du das nicht oft durchführen, einmal im Monat sollte da locker reichen

Werd das mal in nächster Zeit bei einer SSD mit alten Indilinx-Controller testen, die sind ohne TRIM kaum zu gebrauchen.
 
Ich möchte gerne die SSD mit XP einsetzen, bin mir aber bewusst, dass ich TRIM dann manuell erledigen muss.
Wenn die SSD nur etwa halb voll wird und der Firmwareprogrammierer nicht chronisch besoffen war, dann ist das "TRIM-Kommando" meiner Meinung nach ziemlich überflüssig. TRIM "von außen" ist bei den heutigen SSD-Größen in Heim-PCs wahrscheinlich mehr Marketing als Notwendigkeit. ---------- Post added at 23:52 ---------- Previous post was at 23:37 ---------- ...Außer bei der Samsung 840 mit TLC. Die sollte man nur zu 30% füllen - und unter dem Gesichtspunkt ist der Preis von der gar nicht mehr günstig.
 
Zuletzt bearbeitet:
Die Sandforce erreichen selbst mit TRIM nach dem erstmaligen Beschreiben der NAND Pages nie wieder die gleiche Schreibrate wie neu und dann fällt die Schreibrate nach dem Beschreiben einer Datenmenge die etwa dem Overprovisionung entspricht, noch weiter ab (Recovery Mode) und erholt sich erst nach einigen Stunden wieder. Da TRIM dafür gedacht ist die Schreibrate über die ganze Kapazität die auch im Filesystem frei ist auf dem Niveau des Neuzustands zu ermöglichen und dies bei guten SSDs auch macht, ist TRIM bei Sandforce SSDs in der Tat entbehrlicher als bei anderen. Ein Marketinggag ist TRIM aber ganz sicher nicht und es ist auch nicht so, dass die SF ohne besser klarkommen sondern eben selbst mit nicht so reagieren, wie es sein sollte.

In dem Sinne macht es bei denen halt keinen so großen Unterschied, ob sie getrimmt werden oder nicht.
 
Die SSD hat 60GB. Im Moment sind auf dem Notebook etwa 16GB Speicher belegt.

Heisst also, bei der geringen Ausnutzung spielt TRIM erstmal keine Rolle und ich kann XP ganz normal auf der SSD installieren?
 
@Holt:.... Denk mal an Wear Levelling: Die Zuordnungseinheit 4711 wird beim ersten Schreibvorgang in den Zellenblock 0815 geschrieben. Eines Tages liefert das OS wieder 4711 zum Schreiben und die Firmware befindet den Zellenblock 1234 als frei und günstig, ist aber so schlau und vorsichtig, zuerst mal nachzusehen, ob nicht eventuell 4711 schon mal da war: ja, in 0815! Der Block 0815 wird für TRIM vorgemerkt und die Daten für 4711 werden neu in 1234 geschrieben, und 1234 bekommt den Status "Besetzt". (In diesem Zeitraum darf es keinen Stromausfall geben!!!!) In einer ruhigen Minute werden dann die vorgemerkten Blöcke getrimmt. Wir brauchen also die Stati Frei, Besetzt, Vorgemerkt für TRIM. Und weil das alles zu einfach wäre, gibt es MLC. Und weil der Sandforce keinen großen Cache hat, kann der nicht gleich 2 angelieferte Blöcke verschmelzen, sondern schreibt die erst mal als Pseudo-SLC und verschmilzt die später. Man muss also Besetzt noch in in Halb besetzt und Ganz besetzt unterscheiden und TLC in... ---- Das TRIM-Kommando kommt in dem Plan gar nicht vor. ;) ---------- Post added at 00:47 ---------- Previous post was at 00:41 ----------
Die SSD hat 60GB. Im Moment sind auf dem Notebook etwa 16GB Speicher belegt. Heisst also, bei der geringen Ausnutzung spielt TRIM erstmal keine Rolle und ich kann XP ganz normal auf der SSD installieren?
Nö, TRIM braucht man unter den Umständen nicht unbedingt - wenn der Programmierer clever ist. Anders sieht die Sache auf Servern aus, wo es ums Geld geht und die SSDs wirklich ausgenutzt und voll geschrieben werden sollten. Dann käme eine SSD mit TLC bei Hochdruck, wenn sie so richtig mit vollem Strahl zugesch...üttet wird, nach meinem obigen Plan ernsthaft ins Schwitzen. Das kennen wir von Indilinx - nannte sich damals 80%-Bug. ---------- Post added at 01:25 ---------- Previous post was at 00:47 ---------- ACHTUNG! Bei meinem Plan sollten aber alle Zellen vor der Installation von XP unbedingt frei, getrimmt sein! Sonst wird vllt schon die Installation schneckenlangsam. Also vor dem Ausbau unter W7 SCHNELLformatierung der ganzen SSD. Oder die SSD ist wirklich nagelneu...aber sicher ist sicher. Und wenn man danach nur eine Partition von der halben Größe der SSD anlegt, dann kann gar nichts anbrennen.
 
Zuletzt bearbeitet:
Der Block 0815 wird für TRIM vorgemerkt und die Daten für 4711 werden neu in 1234 geschrieben, und 1234 bekommt den Status "Besetzt". (In diesem Zeitraum darf es keinen Stromausfall geben!!!!) In einer ruhigen Minute werden dann die vorgemerkten Blöcke getrimmt.
Du schmeißt TRIM und das Löschen durch den Controller (die Garbage Collection, die jeder Flash Controller hat und nicht mit der Idle-GC zu verwechseln ist!) in einen Topf. TRIM ist ein SATA Kommando und sagt dem Controller das SSD, dass Daten die bestimmten Adrwessen (LBAs) zugeordnet wurden, nun nicht mehr gültig sind. Das gleiche passiert ohne TRIM aber nur, wenn der entsprechende LBA überschrieben wird.

Der Sandforce löscht aber die Daten nicht bevor geschrieben wird, weiß der T**fel warum. Deshalb ist bei dem die Schreibrate ja im Normalzustand geringer. Außerdem räumt dessen Idle-GC immer nur so viel Platz frein, wie an OP Area vorhanden ist, weshalb es den Recovery Modus gibt, wenn mehr geschrieben wird, als vorher freigemacht wurde. Warum nicht mehr? Keine Ahnung aber es ist Mist!

Der Sandforce funktioniert also im Normalmodus so, dass in eine Kapazität die der OP Area entspricht keine gültigen Daten mehr enthält, die Flash Blöcke aber nicht gelöscht sind. Das passiert erst während des Scheibvorgangs was angeblich die NANDs schont (das ist aber Unsinn, es muss einen anderen Grund haben). Wird in kurzer Zeit mehr geschrieben, so kopiert der Controller die noch gültigen Daten aus anderen Speicherblöcken und freie Pages und löscht die Blöcke dann um sie erneut zu beschrieben, weshalb die Schriebrate in diesem als Recovery Modus bezeichneten Modus nochmal langsamer ist. Wenn der Controller dann eine Weile (i.d.R. Stunden!) Idle ist, so räumt er wieder auf bis wieder ein Bereich von der Größer der OP Area frei von gültigen Daten ist.

Das ganze ist so unsinnig wie es klingt und während andere Controller in einigen Minuten die ganzen mit überwiegend ungültigen Daten belegten Blöcke löschen und dafür die noch gültigen Pages in diesen Blöcken umkopieren und so die ganze frei Kapazität mit der maximalen Geschwindigkeit neu beschreiben können, macht der SF das einfach nicht. Deswegen mag ich den Controller nicht und denke, dass das beste an SF war, dass die Firmengründer die Klitsche für ein Heidengeld an LSI verkaufen konnten. Wenn es nie eine dritte Generation von dem Müll geben wird, dann würde mich das nach alle den FW Problemen auch nicht ein bisschen wundern.
 
Meine Lieblingslinks: www.bswd.com/FMS10/FMS10-Werner.pdf ---- www.flashmemorysummit.com/English/Collaterals/Proceedings/2011/20110809_F1B_Werner.pdf

---------- Post added at 10:01 ---------- Previous post was at 09:49 ----------

Du schmeißt TRIM und das Löschen durch den Controller (die Garbage Collection, die jeder Flash Controller hat und nicht mit der Idle-GC zu verwechseln ist!) in einen Topf.
Ja, ganz bewusst. TRIM wird explizit vor der neuen Verwendung der gleichen (logischen) Dateisystemadressen vom System befohlen. Aber spätestens, wenn eine Schreib-Adresse neu mitgeteilt wird, "verrät" sich das System auch ohne TRIM-Kommando. Da aber sowieso wegen WL immer an andere vorgeputzte physikalische Adressen geschrieben wird, juckt das die SSD nicht mehr weiter. Wenn ich der Controller wäre, würde ich natürlich meckern: "Hey System, das hättest du mir auch mal früher sagen können, dass es aus deiner Sicht schon länger so viele obsolete Bereiche gibt, für die du mir jetzt neue Daten schickst. Jetzt ist mein Verwaltungsaufwand viel höher." ;)

---------- Post added at 10:08 ---------- Previous post was at 10:01 ----------

Unter GC verstehe ich auch mehr das Zusammenfummeln von lower und upper Pages und von einzelnen Zuordnungseinheiten von sehr kleinen Dateien, die eventuell kleiner als eine Page sein könnten. Und wenn man über all das nachdenkt, versteht man, warum ich bei MLC und besonders bei TLC beim Gedanken an plötzliche Stromausfälle die Stirne runzele.

---------- Post added at 10:14 ---------- Previous post was at 10:08 ----------

Es gab mal ein Tool, das in stundenlanger Fummelei den Index von einem zerbrochenen Dateisystem wieder neu aufgebaut hat, mcafee nuts and bolts: https://www.google.de/search?q=mcaf...&rls=org.mozilla:de:official&client=firefox-a --- So eine Aktion machen die bei der Crucial M4, wenn die mal für 10 Minuten und länger weg ist.

---------- Post added at 11:38 ---------- Previous post was at 10:14 ----------

Übrigens, oben im 2. Link, Seite 2: Everyone Knows: Declining Reliability, Retention, Performance. 3Bits per Cell NAND Makes It Worse! (Gartner). .... Aber hier darf das bei der 840 Nobody Know. ;) Nur die "SSD-Versteher" dürfen sich diskret zuzwinkern. lol

---------- Post added at 11:40 ---------- Previous post was at 11:38 ----------

Ach ja, die schreiben auch 3Bits per Cell, TBC, und nicht TLC... lol

---------- Post added at 11:56 ---------- Previous post was at 11:40 ----------

Übrigens, neulich schrieb hier jemand, dass in Samsung NBs SSDs von SanDisk sind, keine 840er. Klar, falls der absolut ausgeschlossene Fall von Ärger mit TBC eintreten sollte, haben nur Endverbraucher einzelne 840er verbaut und schicken die dann einzeln zurück. Das wäre natürlich deutlich billiger als wenn komplette NBs zurück gingen und der Service die SSDs wechseln müsste. Wenn dann die Bastler diese SSDs ohne größere Probleme erprobt haben, kann man TLC auch OEMs und Enterprise anbieten.
 
Zuletzt bearbeitet:
Mit Trim hat man doch zwangsläufig sehr, sehr viel mehr freie Zellen wodurch das Wear Leveling viel effizienter arbeiten kann. Es verhindert zudem, dass die Garbage Collection Daten hin und her schiebt, die der Anwender eigentlich schon lange gelöscht hat was der SSD-Controller aber eben ohne Trim einfach nicht wissen kann.
 
Ja, so wird es sein. Aber wenn man der SSD quasi in die Hand verspricht, dass man sie nicht mal halb voll schreibt, dann kann die FW auf die ganzen Maßnahmen und Tricks pfeifen. Wenn ich weniger als die Hälfte niemals partitioniere, dann kann eine lernfähige FW erkennen, dass ein kompletter, zusammenhängender Adressbereich gar nicht verwendet wird und wesentlich zurückhaltender und gelassener vorgehen, was der Robustheit der SSD zugute käme. Im SATA-Protokoll fehlen leider Befehle, um dem Datenträger das explizit zu sagen.

---------- Post added at 14:40 ---------- Previous post was at 14:27 ----------

Ach ja, wenn ich die nutzbare Partition recht klein halte, dann kann Windows die Daten nicht so auf dem Datenträger verkleckern. Dann muss es obsolete Adressen zwangsläufig viel früher wiederverwenden. Das könnte in einem System ohne TRIM nützlich sein. Wie gesagt, ich mache mir so meine Gedanken und "Vermuterei", aber ich habe nicht mehr den jugendlichen Forscherdrang oder die Notwendigkeit, so etwas real experimentell auszutesten und nachzuweisen.
 
Zuletzt bearbeitet:
Von Sandforce! Gerade die haben doch gezeigt wie man es nicht machen soll und so viel Marketingmüll über ihren und anderen Controller verbreitet, von wegen Write Amplification 0.5 und anderen 10, 256Bit AES Verschlüsselung versprochen und nur 128Bit geliefert, etc.

Dann haben sie erst ihre komische RAISE Fehlerkorrektur als unbedingt nötig beworben und nun kommen immer mehr SSDs mit dem SF-2281 ohne RAISE aber dafür mit "der vollen Kapazität" von 128/256/512GB daher. Der Sandforce Controller ist nie auf die SSD Kunden hin optimiert worden sondern immer auf die Belange der SSD Hersteller, die ja die Kunden von Sandforce sind und denen erlaubt es eben mit Techniken wie RAISE und dem Life Time Throtteling auch SSDs mit minderwertigen NANDs möglichst über die Garantiezeit zu bringen, auch wenn die Performance total einbricht. Dafür ist auch die Datenkompression da, denn damit kann man bei vielen Benchmarks die nur mit extrem komprimierbaren Daten arbeiten gute Werte erzielen und bei vielen Leuten Eindruck schinden. Im Dauerschreibtest auf xtremesystems.org hat aber keine der Sandforce SSDs die versprochene überlegene Haltbarkeit gezeigt, die waren alle nur im Mittelfeld. Der Nutzer hat aber die Nachteile der verschiedenen Schreibgeschwindigkeiten, weil der Controller eben nicht die ganze freie Kapazität einfach löscht um sie schnell wieder beschreiben zu können, was angeblich wegen der besseren Haltbarkeit gemacht wird.
Ja, ganz bewusst.
Das solltest Du Dir dann wieder abgewöhnen, denn wenn man die Begriffe schon durcheinander wirft, bekommt man die Sachverhalte nie auf die Reihe.
TRIM wird explizit vor der neuen Verwendung der gleichen (logischen) Dateisystemadressen vom System befohlen.
Das macht ja aber nur Sinn, wenn zwischen TRIM (dem ungültig werden der alten Daten durch Löschen der Datei) und dem neu beschreiben des LBAs auch einige Zeit liegt. Das ist beim direkten Überschreiben einer Datei aber nicht der Fall und daher gibt es da auch kein TRIM, was auch in Ordnung ist.
Aber spätestens, wenn eine Schreib-Adresse neu mitgeteilt wird, "verrät" sich das System auch ohne TRIM-Kommando.
Wenn ich die Daten eines LBAs überschreibe, dann sind die Daten die vorher dort lagen natürlich ungültig, das war schon bei den HDDs nie anders.
] Da aber sowieso wegen WL immer an andere vorgeputzte physikalische Adressen geschrieben wird, juckt das die SSD nicht mehr weiter.
Das nicht wieder in die gleiche Page geschrieben wird, hat erstmal mit dem Wear Leveling wenig zu tun. Der Grund liegt primär darin, dass man NAND Flash zwar Pageweise (4k, 8k) lesen und schreiben kann, es aber nur blockweise löschen muss und so ein Block hat mal eben 256 oder 512 Pages. Wollte man hier die Daten wieder in die gleiche Page schreiben, müssten man die Daten aller anderen Pages vorher auslesen und nach dem löschen des Blocks ebenfalls wieder schreiben. Das wäre alleine schon von der Performance her totaler Wahnsinn.

Deshalb werden die Daten immer in eine anderen Flashpage, die vorher schon gelöscht wurde, geschrieben. Dadurch hat man hinterher Blöcke in denen viel oder gar alle Pages nur noch ungültige Daten enthalten und braucht andererseits ständig Blöcke die man wieder löschen kann um erneut freie Pages zum schreiben zu haben. Das Wear-Leveling ist nichts anderes als das Ergebnis des Algorithmus der die Blöcke zum Löschen auswählt. Dabei muss er berücksichtigen wie viele Pages des Blocks frei, von gültigen oder von ungültigen Daten belegt sind, wie oft der Block im Verhältnis zum Durchschnitt schon gelöscht wurde und an welchem Kanal des Controller der Block hängt.

Das Wear-Leveling und die Write Amplification sind dann das Ergebnis der Auswahl des Algorithmusses und der gewählte Block wird dann gelöscht, wobei vorher die noch gültigen Daten kopiert werden müssen und eben in einem vorher gelöschten Land landen.
Wenn ich der Controller wäre, würde ich natürlich meckern: "Hey System, das hättest du mir auch mal früher sagen können, dass es aus deiner Sicht schon länger so viele obsolete Bereiche gibt, für die du mir jetzt neue Daten schickst. Jetzt ist mein Verwaltungsaufwand viel höher." ;)
Da muss der Controller mit leben, denn wenn z.B. wie bei Datenbanken oder Images von Virtuellen Laufwerken üblich, die Dateien nicht gelöscht sondern immer nur (teilweise) überschrieben werden, dann bekommt es sowieso keine TRIM Befehle. Der Unterschied zwischen TRIM und nicht TRIM ist eben, wie voll die SSD aus der Sicht des Controllers ist.
Unter GC verstehe ich auch mehr das Zusammenfummeln von lower und upper Pages und von einzelnen Zuordnungseinheiten von sehr kleinen Dateien, die eventuell kleiner als eine Page sein könnten. Und wenn man über all das nachdenkt, versteht man, warum ich bei MLC und besonders bei TLC beim Gedanken an plötzliche Stromausfälle die Stirne runzele.
Was Du darunter verstehst ist Deine Sache, aber man versteht unter der GC das Recycling der NAND Pages, so wie ich es oben beschrieben habe und das muss jeder Flash Controller haben, denn sonst wäre das ja nur Write-Once. Wenn also jemand behauptet eine bestimmte SSD hätte keine GC, dann kann es nur falsch sein und man hat die GC mit der Idle-GC verwechselt.

Dateien kennt der SSD Controller sowieso nicht, denn der hat einfach nur eine bestimmte Anzahl LBAs und das Filesystem verwaltet diese und ordnet die LBAs den Dateien zu. Das es da "sehr kleinen Dateien, die eventuell kleiner als eine Page" sind gibt, kommt daher nicht vor und wenn man statt Datei Daten sagt, dann passiert das nur beim Sandforce, weil nur der die Daten komprimiert. Alle anderen Controller verwalten die Daten viel einfacher, weil die eben die immer eine feste Größe haben und die interne und "externe" Größe identisch sind. Bei 4k Pages passen also immer die Daten von 8 LBAs, denn es werden ja nach außen immer 512Byte Sektoren emuliert.

Die lower und upper Pages zusammen zu fügen braucht nur, wer die auch wirklich getrennt beschreibt, so wie OCZ es beim Everest2 und Barefoot3 macht, was aber eine hohe WA und alleine schon wegen der Algorithmen zur Bestimmung der Ladungswerte eine geringere Lebensdauer bedeutet. Das macht man einfach nicht, sowas ist ein billiger Hack, denn bei MLC NANDs ist es nicht vorgesehen nur ein Bit zu schreiben. Deshalb verwenden seriöse SSD Controller diesen billigen Trick zum Pushen der Schreibraten ja auch nicht, denn die wissen zwar auch genau, dass man das erste Bit sehr schnell schrieben kann, aber die NANDs schädigt, weil sich die internen Thresholds dabei mit der Zeit verschieben weil die Logik im NAND eben versucht 4 verschiedene Ladungsmenge zu unterscheiden und nicht nur 2.

Plötzliche Stromausfälle sind bei SSDs immer ein Problem weil sie alleine schon für die NANDs ein Problem darstellen, wenn diese gerade beschrieben oder gelöscht werden, was ein komplexer und in mehreren Phasen ablaufender Vorgang ist, der entsprechend den Herstellervorgaben erfolgen und möglichst nicht unterbrochen werden sollte. Die betroffene Page bzw. der betroffene Block können dabei irreparabel beschädigt werden und entweder ganz ausfallen oder danach zumindest eine deutlich geringere Zyklenfestigkeit ausweisen. Obendrauf muss der Controller noch seine ganzen eigenen Verwaltungsdaten handhaben und nicht nur im Cache sondern auch im NAND ständig aktuell halten.

Es gab mal ein Tool, das in stundenlanger Fummelei den Index von einem zerbrochenen Dateisystem wieder neu aufgebaut hat, mcafee nuts and bolts: https://www.google.de/search?q=mcaf...&rls=org.mozilla:de:official&client=firefox-a --- So eine Aktion machen die bei der Crucial M4, wenn die mal für 10 Minuten und länger weg ist.
Testdisk und alle anderen Datenrettungsprogramme machen das auch, aber der Controller der m4 macht das ganz sicher nicht. Nur frühe Samsung Controller aus der Zeit vor TRIM hatten mal so einen Algorithmus implementiert der die Dateisystemstrukturen analysiert hat um gelöschte Dateien zu finden und die denen zugeordneten Daten zu löschen. Das ging dann auch glatt schwer in die Hose wenn man die SSD im RAID betrieben hat.

SSDs haben sich schlicht nicht darum zu kümmern was auf ihnen abgelegt ist, denn das geht nur das Filesystem etwas an und alle aktuellen SSDs halten sich auch daran. Die guten SSDs führen zwar ein Schattenfilesystem in dem sie sich merken, welche LBAs zusammenhängend geschrieben wurden um die Daten möglichst optimal über die Kanäle zu verteilen, aber das war es dann auch.
Übrigens, oben im 2. Link, Seite 2: Everyone Knows: Declining Reliability, Retention, Performance. 3Bits per Cell NAND Makes It Worse! (Gartner). .... Aber hier darf das bei der 840 Nobody Know. ;) Nur die "SSD-Versteher" dürfen sich diskret zuzwinkern. lol
Das gleiche hat man beim MLC damals auch gesagt und nur SLC war gutes NAND, heute wird selbst in Enterprise SSD fast nur noch MLC verbaut und auch wenn das als eMLC oder sonstwie vermarktet wird, es ist ganz normales MLC, nur eben die besten Qualitäten. Da erreichen die 25nm NAND von IMFT (Micron + Intel) inzwischen über 30.000 P/E Zyklen.

Das TLC der Samsung 840 hat im Dauerschreibtest auf xtremesystems.org 3556 P/E Zyklen[/U] ausgehalten, davon über über 2600 ohne Fehler, also deutlich mehr als die von Samsung garantierten 1000 P/E Zyklen. Selbst diese 1000 P/E Zyklen reichen aus um 5 Jahre lang täglich die halbe Kapazität der SSD neu zu beschreiben, sind also mehr als genug für jeden Heimanwender. Wie es bei anderen TLC NANDs oder anderen SSDs mit TLC NANDs aussieht bzw. mal aussehen wird, steht auf einem anderen Blatt und wird sich noch zeigen müssen.
Übrigens, neulich schrieb hier jemand, dass in Samsung NBs SSDs von SanDisk sind, keine 840er. Klar, falls der absolut ausgeschlossene Fall von ärger mit TBC eintreten sollte, haben nur Endverbraucher einzelne 840er verbaut und schicken die dann einzeln zurück. Das wäre natürlich deutlich billiger als wenn komplette NBs zurück gingen und der Service die SSDs wechseln müsste. Wenn dann die Bastler diese SSDs ohne größere Probleme erprobt haben, kann man TLC auch OEMs und Enterprise anbieten.
Tolle Theorie, aber hast Du Dir mal überlegt, ob es nicht einfach sein kann, dass man in der Notebookabteilung die SanDisk U100 nimmt, weil die SSD Abteilung noch keine 840er in dem benötigten Formfaktor (mSATA) im Angebot hat? Suche mal ein Samsung Notebook das ab Werk eine 2.5" SSD hat die nicht von Samsung selbst ist.

Mit Trim hat man doch zwangsläufig sehr, sehr viel mehr freie Zellen wodurch das Wear Leveling viel effizienter arbeiten kann. Es verhindert zudem, dass die Garbage Collection Daten hin und her schiebt, die der Anwender eigentlich schon lange gelöscht hat was der SSD-Controller aber eben ohne Trim einfach nicht wissen kann.
So ist es, denn mit TRIM ist die SSD voll wie sie auch für das Filesystem ist und ohne TRIM so voll wie die Summe aller jemals beschriebenen LBAs. Es reicht also eine SSD ohne TRIM einmal normal (nicht schnell) zu formatieren und ab da ist deren gesamte Nutzkapazität für den Controller ständig mit gültigen Daten gefüllt. Mit TRIM passiert das nur deshalb nicht, weil Windows die ganze LBAs die nicht mit den Verwaltungsdaten des Filesystems belegt sind trimmt.

Ja, so wird es sein.
So ist es, nicht so wird es sein.
Wenn ich weniger als die Hälfte niemals partitioniere, dann kann eine lernfähige FW erkennen, dass ein kompletter, zusammenhängender Adressbereich gar nicht verwendet wird und wesentlich zurückhaltender und gelassener vorgehen, was der Robustheit der SSD zugute käme.
So ein Müll. Da braucht der Controller gar nichts zu merken, denn wenn man einen Bereich ab neu unpartitioniert lässt, dann kann das Filesystem diese LBAs auch nie beschreiben und somit werden schlicht keine Daten vorhanden sein die diesen LBAs zugeordnet sind und der Controller hat automatisch immer mehr freie NAND Kapazität zur Verfügung. Der Sandforce ist da vielleicht wieder das Negativbeispiel, aber bei anderen Controllern i.d.R. funktioniert das wunderbar, obwohl das natürlich auch von der FW abhängt.
Im SATA-Protokoll fehlen leider Befehle, um dem Datenträger das explizit zu sagen.
Das ist schlicht falsch. SET MAX ADRESSS ist Teil der ATA Spezifikation und genau dafür gemacht. Damit kann man eben genau das machen, was Du vermisst und zwar dem Controller der Platte (HDDs wie SSDs) sagen, wie viel Kapazität man maximal nutzen will. Das wird auch schon wenig dafür verwendet um Short-Stroke bei HDDs zu realisieren oder eben OP bei SSDs. HDPARAM oder HDAT2 sind uralte Tools die man dafür verwendet. Damit weiß der Controller dann auch, dass die LBAs jenseits der MAX ADRESS nie mehr angesprochen werden.
 
Das ist schlicht falsch. SET MAX ADRESSS ist Teil der ATA Spezifikation und genau dafür gemacht. Damit kann man eben genau das machen, was Du vermisst und zwar dem Controller der Platte (HDDs wie SSDs) sagen, wie viel Kapazität man maximal nutzen will. Das wird auch schon wenig dafür verwendet um Short-Stroke bei HDDs zu realisieren oder eben OP bei SSDs. HDPARAM oder HDAT2 sind uralte Tools die man dafür verwendet. Damit weiß der Controller dann auch, dass die LBAs jenseits der MAX ADRESS nie mehr angesprochen werden.
Danke! Gut, dass wir darüber gesprochen haben. Da habe ich wieder etwas dazu gelernt. Es wäre ja schön, wenn das die Datenträgerverwaltung von Windows implizit gleich mit erledigen würde beim Anlegen oder Löschen von Partitionen. Was den Sandforce-Controller betrifft, war ich immer deiner Meinung. Leider habe ich gedacht, wenn Intel den Sandforce verwendet, ist der quasi geadelt und rehabilitiert, und habe mir aus einer Laune heraus die Intel 330 gekauft - und gleich bereut. Unter W7 kommt die SSD im NB nicht aus dem Standby. Ich habe jetzt Linux Mint auf dem NB. Mal sehen, was es da für Tools gibt und ob ich da mal rumspiele. ---------- Post added at 20:09 ---------- Previous post was at 19:55 ----------
...Testdisk und alle anderen Datenrettungsprogramme machen das auch, aber der Controller der m4 macht das ganz sicher nicht. Nur frühe Samsung Controller aus der Zeit vor TRIM hatten mal so einen Algorithmus implementiert der die Dateisystemstrukturen analysiert hat um gelöschte Dateien zu finden und die denen zugeordneten Daten zu löschen. Das ging dann auch glatt schwer in die Hose wenn man die SSD im RAID betrieben hat. ...
Das hast du jetzt zu wörtlich, eng aufgefasst. Ich meinte das auf die internen Verwaltungsstrukturen der SSD bezogen. Unter Umständen geht etwas schief, die SSD muss sich beim nächsten Start tot stellen und erst mal die losen Enden wieder zusammenknoten - im übertragenen Sinne.
 
Zuletzt bearbeitet:
Sandforce und Notebook hat noch nie zusammen gepasst. Der Controller mag im Enterprise Segment sogar besser als in Cosumer SSDs abscheiden, denn da hat er eine "Notstromversorgung" und viel mehr Overprovisionung, muss sich aber vor allem nicht ums Energiesparen bemühen (was immer der Pferdefuß war und auch die Ursache, warum die SF in Mobilen Rechnern immer besonders viele Probleme hatten / haben, wie den Sandby Bug der ersten Generation). Deshalb würde es mich nicht wirklich wundern, wenn es keinen weiteren SF für Consumer SSDs mehr geben wird, denn auch LSI ist ja nicht wirklich im Consumer Segment zuhause.

Wieso Intel vom eigenen Controller erst zu Marvell und dann auf Sandforce gewechselt ist, kann ich wirklich nicht nachvollziehen. Immerhin gibt es nun in der DC S3700 wieder einen eigenen SATA 6Gb/s Controller und vielleicht wird der Controller ja noch mal in einer Cosumer SSD von Intel erscheinen.
 
Nachtrag: "Understanding SSD over-provisioning" Understanding SSD over-provisioning | EDN About the author Kent Smith is senior director of Marketing ...

---------- Post added at 23:50 ---------- Previous post was at 23:42 ----------

Wenn man sich den Artikel auf der Zunge zergehen lässt, kann man meine Gedanken, Vermutereien, Verschwörungstheorien ... vllt etwas nach empfinden. So etwas liest man ja sonst nicht und muss sich das zusammen vermuten. So kann man eventuell akzeptieren, dass mir Pseudo-SLC besser als MLC besser als TLC gefällt. Mir geht es dabei nicht nur um das absolute Speichervolumen in der Summe und die Lebensdauer, sondern um das arme Schwein von Programmierer, der TBC am Leben halten muss.

---------- Post added at 23:53 ---------- Previous post was at 23:50 ----------

Bei derart komplizierten Algorithmen sind dann FW-Pannen fast zu erwarten, wie bei der Crucial M4.
 
Der Artikel zum OP und den ganzen verschiedenen Schreibraten im Neuzustand, Normalzustand, Revocery Mode sowie Hammer gab es schon vor Jahren u.a. bei OCZ. Das das Marketing beim OP natürlich unterschlägt wie viel NAND für RAISE genutzt wird, was bei den SF mit 60/120/240/480GB eigentlich immer aktiv ist (bei der ersten SF Generation sowieso) und aus dem internen RAID 0 sowas wie ein RAID 5 macht (also den Ausfall eines Dies komplett überbrücken kann). Nur ist dieser Teil des OP eben nicht für User Daten verfügbar, weil ja da schon die Parity steht und somit ist es Augenwicherei, wenn man da mehr pauschal als besser verkauft.

Ansonsten finde ich das Thema besser in Anandtechs Artikel Exploring the Relationship Between Spare Area and Performance Consistency in Modern SSDs abgehandelt. Für den Heimuser, bei dem die SSD wenig Random Write erfährt und dazwischen immer wieder reichlich Pause hat, ist das Thema aber weniger relevant, da kommt es schon eher auf andere Dinge an. Trotzdem ist es natürlich schon interessant, auch nun wirklich kein Heimanwender deswegen auf einen größeren Teil der Kapazität seiner SSD verzichten sollte.

Was Crucial da mit der FW der m4 bei vor allem bei der Version 010G angestellt hat, verstehe ich auch nicht. Den 5184 Stunden Bug kann man noch verzeihen, der dürfte zwar manche User ärgern und für so einige Reklamationen sorgen, aber wieso nach den sehr stabilen Versionen 0309 und 000F dann solche Erkennungsprobleme aufgetreten sind und so lange unbehoben blieben, kann ich nicht verstehen. Das hat dem Image von Crucial geschadet, denn die m4 ist eigentlich eine wirklich sehr zuverlässige SSD die sonst auch in den unterschiedlichsten, auch älteren, Rechnern gut funktioniert.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh