"Tote" Bereiche auf SSDs

A

A_H

Guest
Datenträger haben mehr oder weniger wegen Fehlern ausgeblendete Bereiche. Wie ermittelt man das bei SSDs?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
geringere zur verfügung stehende kapazität?

Das kann ich so nicht sagen.

4096 Bytes in jeder Zuordnungseinheit
15629228 Zuordnungseinheiten auf dem Datenträger insgesamt
(Super Talent SST_FMT64GX25H).

Bei Festplatten gibt es dafür ja Reserve. Es gäbe aber schon Rückschlüsse auf die Qualität und Zuverlässigkeit, wenn man wüsste, wie viele Zuordnungseinheiten ausgelagert wurden.
 
Sind gemappte Sektoren gemeint oder Zellen, die tot sind (Lebensdauer überschritten)
 
Schau Dir die SMART-Werte an. Relocated Sector Count
 
Schau Dir die SMART-Werte an. Relocated Sector Count
Über diesen Parameter schweigt sich Crystal Disk Info 3.0.1 oder die SSD aus.
WAs auffällt ist:
01 Lesefehlerrate 8
D1 Remaining Drive Life 98(%)
Die SSD ist 245 STd. gelaufen.
Wenn das so weiter ginge, wäre nach 2 Jahren Schluss - dann ist die Garantie auch rum :fresse:

Ich will aber auf etwas ganz anderes hinaus. Die Leute schreiben über und testen hier munter und lustig Firmware, Treiber und Tools, ohne genau zu wissen, dass auf ihrer SSD kein faules Bit ist und installieren ohne wenigstens ordentlich zu formatieren - sinnlos.

Testprogramme wie chkdsk und der format-Befehl stammen noch aus Floppy-Zeiten.

Ist eine SSD technisch gesehen näher an einer magnetischen Festplatte oder an Ram? Wie aufwändig ist ein Test für den Hauptspeicher, und wie lange dauert der bei 60GB?
 
Zuletzt bearbeitet:
Du hast doch gar keinen "direkten" Zugriff auf die Speicherzellen, das Regelt doch der Controller in der SSD.
Du kannst ja ne Oberflächen-Prüfung mit HD-Tune oder den Windows-Tools durchführen. Dabei wirst Du aber auch nur die Zellen prüfen können die der Controller Dir zur Verfügung stellt und nicht die Reserve-Blocks und auch nicht die schon "ausgemusterten" Zellen.
 
Was du machen kannst ist die SSD mit FAT32 zu formatieren und dann zb mit IOmeter vollzuschreiben und die Bytes zu notieren. Und das regelmäßig zb jeden Monat zu wiederholen. Dann siehst du ja wie die zu schreibende Kapazität abnimmt.

Bin mal gespannt wieviele User mit MLC sich in 1 Jahr melden.
 
Was macht denn format oder chkdsk in Phase 4 und 5 genau? Werden damit keine defekten Cluster ausgemustert? Sind format und chkdsk annähernd identisch? Was ist mit Low Level Format?

Was macht memtest mit dem Hauptspeicher? Was ist sensibler, ein Bit im Ram oder ein Bit in einer MLC? Wie gut werden die Bauteile und die fertigen SSDs einzeln getestet ("eingebrannt")? Das würde vielleicht Tage dauern. Werden defekte Zellen während des Betriebs erkannt und ausgemustert? Die Controller mit ihrer Funktion sind wahrscheinlich Betriebsgeheimnis.

Die ganze MLC-Technologie ist mir suspekt. Da mein Heim-PC aber keinen praktischen Nutzen hat, sind mir 150 Euro für MLC schon fast zu viel.

//Ich finde, es gibt noch gar keine guten Testprogramme speziell für SSD, und darüber freuen sich eventuell auch die SSD-Produzenten und -verkäufer.
 
Zuletzt bearbeitet:
Was ist sensibler, ein Bit im Ram oder ein Bit in einer MLC?

Die ganze MLC-Technologie ist mir suspekt.

Wenn man mal die Flüchtigkeit der Daten bei Ram weglässt, ist ein Bit im Ram wohl sicherer.

MLC-SSDs sind nur deshalb so langsam, weil ständig Fehlerkorrekturen stattfinden.
Wenn man sich mal die Technologie genauer ansieht, will man eigentlich keine MLC-SSD bzw. man traut ihr weniger.
Nachteilig bei Multi-Level-Speicherung ist, dass einerseits die Bewertung des Speicherinhalts langsamer geschieht – da der Abstand zum Schwellwert kleiner ist – und mit aufwändigeren Schaltungen durchgeführt werden muss. Aufgrund des geringeren Abstands zum Schwellwert ist auch die Fehleranfälligkeit größer, da im Vergleich zur Single-Level-Speicherung kleinere Veränderungen des Speicherzustandes reichen, um in einen benachbarten Zustand zu fallen und damit ein oder mehrere Bits zu verändern. Im Vergleich zur Single-Level-Speicherung sind komplexere Fehlerkorrekturverfahren zum Sichern des Informationsgehalts der Daten erforderlich, in der Regel werden bei Flash-Speichern BCH-Codes eingesetzt.

Aber ich denke, das weiss man schon vor dem Kauf...
 
Zuletzt bearbeitet:
@Snoopy69
Ich stimme Dir 100% zu.

Ich fürchte, nach gründlichem "Einbrennen" wäre meine SSD auch schon "ausgebrannt" :(

//"Aber ich denke, das weiss man schon vor dem Kauf... " Mann, bist Du gemein :)
 
Zuletzt bearbeitet:
Na dann freut euch wenn bald die 3bit pro Zelle MLC Generation kommt :fresse:
 
Was zu lange hält, bringt der Firma kein Geld!

Ja, nach 3 Wochen Gebrauch merke ich, dass meine neue SSD wunderbar geeignet ist als Cache für Webseiten und als Archiv für Familienfotos mit nackten Kinderörschen - also alles so Sachen, die man schon vor dem Abschalten des PCs getrost vergessen kann...Aaber schön schnell isse!
 
Zuletzt bearbeitet:
Lagere mal unnötig viele Schreibzugriffe auf eine Ramdisk aus.
 
Lagere mal unnötig viele Schreibzugriffe auf eine Ramdisk aus.

Danke für den Tipp. Aber nix is! Das Ding wird durch regulären Gebrauch geschrottet. Warum wollte es eine "Festplatte" werden.

Ich warte schon auf die netten Bildchen mit "Spezialbehandlung": Fleischwolf, Mikrowelle, 10000 Meter Meerestiefe usw.

Eigentlich suche ich nur ein Tool, um den sicheren Zustand genau zu überwachen und notfalls wieder herzustellen.

---------- Beitrag hinzugefügt um 22:36 ---------- Vorheriger Beitrag war um 22:22 ----------

Dort hat jemand einen interessanten und ehrlichen Artikel (leider selten) gefunden:

was sagt ihr eigentlich dazu?


klick mich

Besonders interessant finde ich das:
"We spend many months developing and then fine-tuning the controller and firmware technology for our SSDs, working very closely with most of the major PC OEMs"
Es muss also nicht immer gut ausgehen, wenn man ein neues Gerät(SSD) in ein bestehendes System einfach dazu steckt.
 
Zuletzt bearbeitet:
Manchmal gibt es seltsame Zufälle, gerade jetzt finde ich diesen Artikel:
"Studie: DRAM-Fehler sind weit häufiger als bisher bekannt"
http://www.zdnet.de/it_business_tec..._bisher_bekannt_story-11000009-41515463-1.htm

Ich weiß nicht, ob es ähnliche Effekte bei SSDs geben könnte, aber ähnliche Fehlermeldungen und einen kompletten Crash hatte ich mit der werksneuen SSD. Nach der gründlichen Formatierung waren sie weg; und so soll es bleiben.

(Im PC ist ECC-Ram.)
 
Zuletzt bearbeitet:
SSD-Sektor geht doch nie beim lesen kaputt sondern nur beim schreiben. Und da mekts der Controller und schreibts wo anders hin. Was ihr für Probleme habt...
Außerdem ist die Lebensdauer mit 30 Jahren bei 50GB pro tag schreiben angegeben(64GB ST ultradrive).
 
SSD-Sektor geht doch nie beim lesen kaputt sondern nur beim schreiben. Und da mekts der Controller und schreibts wo anders hin. Was ihr für Probleme habt...
Außerdem ist die Lebensdauer mit 30 Jahren bei 50GB pro tag schreiben angegeben(64GB ST ultradrive).

30 Jahre kann ja nur eine Hochrechnung sein. Es kommt ja leider immer mehr in Mode, zu schreiben "... bis zu ...", "max. 230MB/s" usw. Damit zerstören sich solche Firmen selbst ihren Ruf. Und Du siehst ja, selbst bei Ram, was es ja nun schon einige Jahrzehnte gibt, kommt man zu neuen Erkenntnissen.

Aber vermutlich hast Du recht. Ich habe nur noch keine genauen, technisch-wissenschaftlich untermauerten Informationen gefunden. Macht denn der Controller nach jedem Schreibvorgang einen Lesevorgang und vergleicht das mit seinem Cache? (Davon abgesehen, ein Bit im Ram kann auch erst später aus den Latschen kippen.)

Die SSDs sind eine sehr neue Technologie und die Firmen, die so etwas bauen sind teilweise auch noch recht jung und machen leider nicht immer den professionellsten Eindruck, wie ich leider im Nachhinein feststellen musste.
 
Was du machen kannst ist die SSD mit FAT32 zu formatieren und dann zb mit IOmeter vollzuschreiben und die Bytes zu notieren. Und das regelmäßig zb jeden Monat zu wiederholen. Dann siehst du ja wie die zu schreibende Kapazität abnimmt.

Bin mal gespannt wieviele User mit MLC sich in 1 Jahr melden.

Snoopy, ehrlich ich hätte mir da mehr erwartet...

Sobald da auch nur ein Bit weniger ist, ist das ein ernsthafter Datenverlust. Sollte ein Sektor defekt sein, wird der einfach (wie bei HDDs) vom Controller umgemappt - auf ERSATZsektoren.
 
hat schon jemand von fällen gehört in denen MLC SSDs durch fehlerhafte sektoren wirklich kaputtgegangen sind bzw. richtig messbar an kapazität verloren haben? also ich jedenfalls nicht.
und selbst wenn nach vielen jahren mal die ersten einzelnen zellen versagen haben aktuelle SSDs bereits ersatz-chips eingebaut die genau diese fehler dann ausgleichen.

MLC SSDs gibt es etwa 2 jahren massentauglich zu kaufen, daher halte ich dieses gerede hier für paranoides geschwätz.
selbst USB sticks die überhaupt kein ordentliches Wear-Levelling kennen lassen sich monatelang mit zig terabyte beschreiben ohne kaputt zu gehen.

ausgefallene controller und firmwarefehler haben nichts mit der eigentlichen speichertechnik zu tun.
ich vertraue meinen SSDs jedenfalls weit mehr als den alten magnetscheiben die ich spätestens nach 2-3 jahren austausche.

15-20 jahre halten die sicher locker, aber wer hat dann noch so ein uraltes stück technik in seinem rechner?
 
auf ERSATZsektoren.
Das war (mir) schon klar.
Edit:...
Ganz am Anfang soll es ja noch Listen auf den Etiketten gegeben haben, die man wohl selbst ins Bios eintragen musste.

Aber wir sind beim Heute. Und da wäre es vielleicht ganz nützlich (oder für die Einzelnen Konzern eben auch nicht), wenn alle Beteiligten ihre Spezifikationen offen legen würden. An SSDs angepasste (Pflege-)Software von Drittanbietern, wenn es schon die Originalhersteller nicht im Griff haben, und angepasste Controllerkarten könnten vielleicht auch etwas bringen.

Ohne Grund tüftelt ja niemand an sehr teuren SSD-Karten.

Wie verhalten sich SATA-SSDs an SAS-Controllern (im Raid1)? Gibt es dafür schon Erfahrungen? Aber dann wäre man auch sofort bei 500 Euro...

---------- Beitrag hinzugefügt um 15:54 ---------- Vorheriger Beitrag war um 15:45 ----------

...MLC SSDs gibt es etwa 2 jahren massentauglich zu kaufen,...

ausgefallene controller und firmwarefehler haben nichts mit der eigentlichen speichertechnik zu tun.

2 Jahre sind auf dem Gebiet nicht viel. Mit firmwarefehler hast Du einen empfindlichen Punkt getroffen - ohne saubere FW läuft eben nichts ordentlich.

Exakte Statistiken für SSDs habe ich noch nicht gesehen. Schreib Du doch bitte mal genauer. Interessant wäre es ja, zu erfahren, ob schon ein Firma wie Google "billige" Heim-SSDs in nennenswertem Umfang praktisch einsetzt. (Obwohl es in deren Datenbank vielleicht nicht auf jedes Bit ankommt.)
 
Zuletzt bearbeitet:
In Servern werden SLC-SSDs eingesetzt weil Server weitaus mehr als 50gb am tag schreiben. SLC-SSDs vertragen 10x mehr Schreibzyklen. Pflegesoftware wäre eigentlich nur TRIM richtig zu implementieren(und win7 zu verwenden), so dass der Controller nicht ständig Daten hin und her kopieren muss.

SATA-SSDs verhalten sich an SAS-Controllern genauso wie an onboard RAIDs da sie eh kein SAS können. Bei RAID1 braucht man auch keinen teueren Controller(der muss ja keine Prüfsummen berechnen) nur bei Raid5/6.

Firmware einer SSD ist halt viel komplexer als bei HDDs und außerdem steht man da noch am Anfang der Entwicklung wo man hingegen bei HDDs auf mehrere Jahrzehnte praktische Erfarung zurückgreifen kann.
 
Zuletzt bearbeitet:
MLC-SSDs werden wahrscheinlich mit dem SandForce Controller Einzug in Unternehmen halten - vorrausgesetzt, die verpsrochenen "80 mal längere Lebensdauer von MLC" kann auch tatsächlich so implementiert werden.
 
Ich möchte nurmal einwerfen, dass auch Festplatten nicht fehlerfrei arbeiten ;)
WD gibt für die Green-Serie z.B. an, einen "Non-recoverable read error" pro gelesenen 113 TB zu erhalten.
 
Keine einzige HDD arbeitet fehlerfrei.
Früher musste man (ich) die Nummer der defekten Sektoren in eine Datei eintragen, damit das System diese Sektoren ausklammerte :(
Die Liste klebte auf der HDD...
 
Ich möchte nurmal einwerfen, dass auch Festplatten nicht fehlerfrei arbeiten ;)
WD gibt für die Green-Serie z.B. an, einen "Non-recoverable read error" pro gelesenen 113 TB zu erhalten.

Deshalb ist ein Dateisystem mit Hash-Summen, wie bei Sun Solaris ZFS, eine schöne Sache. Bei Snow Leopard hat man die geplante Implementierung von ZFS leise unter den Tisch fallen lassen. Warum? Könnte es sein, dass sonst einigen Leuten die Kinnlade runter klappen würde?

Edit:
"Suns Geschäftsführer Jonathan Schwartz hebt in einem Blog-Eintrag vor allem die Eignung von ZFS für Installationen mit vielen Platten hervor und kündigt die Unterstützung von Solid State Disks an."
Darauf will mein Unterbewusstsein die ganze Zeit hinaus, das "Ökosystem"/ die Infrastruktur für SSD lässt noch zu wünschen übrig - vielleich bei Windows 8 oder 9...

http://www.heise.de/newsticker/meld...er-Serverversion-von-Snow-Leopard-213524.html
Edit:
(Warum hat das (außer mir) anscheinend niemand bemerkt?) Weil es (jetzt) nur noch für Server ist - und da gibt es ja keine MLC-SSDs.
http://www.appleinsider.com/article...d_server_to_pioneer_zfs_ahead_of_desktop.html

Ich habe schon nach einem Service gesucht, der so etwas auf Windows pfropft. Das würde ich sogar bezahlen ;)
 
Zuletzt bearbeitet:
Weil SSD (HDD auch) über einen Sektor schon selber prüfsummen hat. Extra prüfsumme pro datei würde die Arbeit stark verlangsamen(Änderung von wenigen bytes bedeutet neu-hashen der Datei).

Warte halt auf win8 oder 9 oder auf Flash Nachfolger. Ich nutze einfach meine beiden SSDs :p.
 
@A_H Worauf willst du hinaus? Ursprünglich waren wir bei defekten Sektoren/Zellen, jetzt geht es um Dateisysteme?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh