SSD UltraDrive Supertalent / OCZ Vertex SSD / Indilinx Barefoot Controller [Part 9]

Status
Für weitere Antworten geschlossen.
wenn ich an den Bug glaube, dann hab ich ihn bestimmt auch.....
so kommt mir das hier manchmal vor.

Wollte schon meine Intel testen aus lauter Angst, ich könnte den Bug da auch drauf haben :fresse:

Ist ein bisschen ironisch gemeint, nicht böse sein;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn ich an den Bug glaube, dann hab ich ihn bestimmt auch.....
so kommt mir das hier manchmal vor.

Wollte schon meine Intel testen aus lauter Angst, ich könnte den Bug da auch drauf haben :fresse:

Ist ein bisschen ironisch gemeint, nicht böse sein;)

Du könntest aber Recht haben :fresse:
 
Bei normaler Benutzung werden stärker belastete Blöcke (zb. hervorgerufen von alten firmwares) vom wearleveling vorläufig nicht mehr verwendet. Wenn man die ssd übermäßig voll macht, ist die ssd gezwungen diese stark belasteten Blöcke dennoch zu verwenden. Sie sollten dann möglichst mit statischen Daten belegt werden. Das führt zu Umkopieraktionen auf der ssd, die manchmal Verlangsamung hervorrufen. In der nächsten Firmware wirds eh behoben, dafür gibts dann einen neuen "Bug".

Allerdings werden alle ssds mit writecombining gegen Ende langsamer, vor allem wenn das statische wearleveling voll am arbeiten ist, das läßt durch mehr spare verbessern. 80% der Downgradeopfer hier sind Kollateralschäden, weil sie das als "Bug" interpretieren.

Bei OCZ ist kaum jemand von dem "Bug" betroffen, ganz einfach weil sie die ssd ganz normal verwenden anstatt immer wieder in die eine weiche Stelle von 1916 reinzutreten. Mitunter hilft den Betroffenen dann eine secure-erase.

Die pinki Ergebnisse sind kompletter Stuss! Das sieht man an seinen smart Daten
http://www.hardwareluxx.de/community/showthread.php?t=676299&page=13
Pinki hat eine write amplification von 1:6,7. Wenn das statische wearleveling aber voll in Betrieb ist ergibt sich bei normaler Nutzung eine write amplification von 1:50 bis 1:100. Das sieht man an den Userdaten im SSD Status Tool Thread. Sandforce reitet auch auf der schlimmen write amplification von 1:50 eines Mitbewerbers rum.
SMART research - So how long will your SSD really last?

Pinki hat Supertalent einen destruktiven flash vorgeschlagen. Aus gutem Grund hat sich Supertalent dagegen entschieden. Pinki verstehts aber nicht und unterläuft einfach die Entscheidung des Herstellers. Dann dachte pinki, daß OCZ einen destruktiven Flash machen würde. Das war natürlich nicht der Fall weil es die ssds beschädigt! Im Gegenteil, die destruktiven Flashs für 1.1 und 1.3 werden von OCZ nicht mehr angeboten.

Pinki denkt auch die smart Tools würden (alle gleichermaßen!) die Daten falsch auslesen oder Indilinx würde falsche smart Daten angeben. Weil er es einfach nicht versteht!

Das soll sich mal jeder überlegen:
Kann das sein, daß Supertalent und OCZ und Indilinx und Sandforce alle keine Ahnung haben und pinki weiß es besser?

Kann das sein?
 
ah hast dich auf mich eingeschossen? lol
Lustig ^^

Also von dir hab ich bisher noch nicht mitbekommen das du einem mit dem Bug helfen konntest ^^

Aber ich verstehs ja, wie konnte ich es waagen antirams theorien anzuzweifeln (sprich waten bis man schwarz wird die Wunder SSD repariert sich von allein ^^)... also echt, böser pinki ^^

Es ist natürlich normal das zb Doktor seine SSD nicht zu ende verschlüsseln kann... neiiiiin das ist nicht der bug das ist gaaanz normal ^^ (PS also du scheinst überlesen zu haben das Sanitary Erase was ja nichts anderes als Secure erase ist, bei den bertoffenen nicht geholfen hat)

Nur mal so neben bei, zwischen langsamer werden und nahezu stillstand ist ein kleiner unterschied... ach was sag ich das ist dir ja sicher klar ;)

Dann dachte pinki, daß OCZ einen destruktiven Flash machen würde. Das war natürlich nicht der Fall weil es die ssds beschädigt! Im Gegenteil, die destruktiven Flashs für 1.1 und 1.3 werden von OCZ nicht mehr angeboten.
Genau, Solidata zb, legts anscheined drauf an das aller ihre kunden mit verkürzten lebenszeiten leben muss, denn bisher waren alles deren FW updates destruktiv, ok dann muss ich ja jetzt dazu über gehen von Solidata abzuraten, gelle ;)

Ach was soll der ganze mist wahrscheinlich ist der ganze 80% scheiß, nur ne erfindung vom bösen pinki *brüller*

Du kannst aber gerne nicoc erklären wie er es geschaft hat eine MLC zelle über 24000 mal zu beschreiben (so verstehe ich zumindest das tool bzw den wert, kann aber gut sein das ich da fehl interpretiere.)

alles in allem, danke antiram, viel luft um nichts aber das musste ja sicher auch mal raus oder ? ^^
 
Zuletzt bearbeitet:
Du kannst aber gerne nicoc erklären wie er es geschaft hat eine MLC zelle über 24000 mal zu beschreiben (so verstehe ich zumindest das tool bzw den wert, kann aber gut sein das ich da fehl interpretiere.

Genau so interpretiere auch ich die Werte. Man sollte sich einfach von dem Gedanken lösen, das MLC auf den Punkt genau 10.000 Löschvorgänge verkraftet.
Einige Zellen sterben sogar früher ab, einige weitaus später. Ich halte das alles für vollkommen normal.
 
... Pinki denkt auch die smart Tools würden (alle gleichermaßen!) die Daten falsch auslesen oder Indilinx würde falsche smart Daten angeben...

... wegen mir aus können die ausgelesenen SMART Daten korrekt sein. Allerdings hoffe ich einerseits, dass die SSD vor Ablauf der Garantie einknickt andererseits hoffe ich für Supertalent, dass es später passiert. Sonst haben die eine Menge Rückläufer. Die SMART Daten zeigen in Richtung kurze Lebensdauer und das, obwohl ich die SSD kaum belaste.
 
In SSD Status verliert meine SSD etwa 1% Lebensdauer pro Monat. Wenn das so bleibt müsste sie etwa 100 Monate halten was immerhin eine Lebensdauer von über 8 Jahren bedeuten würde.

Ich habe eine Supertalent GX 64GB als Systemlaufwerk unter Win 7 x64.
 
Einige Zellen sterben sogar früher ab, einige weitaus später.
Bin ich mir jetzt grad nicht ganz 100% sicher, aber war das nicht so, dass die 10k *garantiert* sind, aber halt auch mehr gehen können? Also nix mit früher "absterben" (wobei das natürlich im extremfall bei nem ernsthaften defekt sicher passieren kann, aber eben nicht bei normalen Zellen).

Werd ich Mittwoch wenn ich dran denk auch mal in der Firma nachhaken =)
 
@chrismischler,
meine Supertalent hat eine Laufzeit von 789 Std. (32,8 Tage) bei 482 Zyklen (96%). Wenn ich diese Werte hochrechne (32,8 Tage=4%) komme ich auf ca. 768 Tage. Da ich meine SSD nicht 24 Stunden am Tage laufen lasse komme ich richtigerweise auch auf ca. 8,4 Jahre. Bei einem 24 Stundenbetrieb verkürzt sich die Lebenszeit aber eben auf 2 Jahre. Supertalent kann aber nicht einfach davon ausgehen, dass niemand die SSD 24 Stunden laufen lässt.
 
Zuletzt bearbeitet:
die frage ist doch eher, aber ich gebe zu so recht blick ich da auch noch nicht durch, wie kann es sein das zb bei nicoc mindestens eine zelle über 24.000 zyklen hinter sich hat, andere aber nur 2, warum wenn das auslesen richtig sein sollte, wurde diese zelle so oft beschrieben, das wiederspräche doch dem wearleveling.

Aber wie gesagt, so recht peil ich da noch nicht durch und es kann gut sein das ich das fehl interpretiere

PS
was jetzt antiram.. das wars schon?
rein kommen, nen spruch loslassen und dann abzischen? pfffff......
 
Zuletzt bearbeitet:
Kann mir auch fast nicht vorstellen, dass die Werte so stimmen können. Meine SSD hat eine durchschnittliche Zellenabnutzung von 576. Bei einer Größe von 119.242 würde das einem Datenvolumen von 68683,392 GB entsprechen. Bei einer Laufzeit von 801 Stunden müssten also pro SEKUNDE 24,40 MB geschrieben worden sein. Ich traue meiner SSD zwar viel zu, DAS aber nicht. ; )

Die Zahl steht auf alle Fälle in keinem Verhältnis zu den Host-Writes von insgesamt 1.292 GB.
Sollte das alles aber dennoch stimmen, wäre ja praktisch das 53 fache an Daten auf den Flash geschrieben worden.
 
@ pinki
Dazu müssten wir erst einmal wissen wie genau das Wear Leveling der UD arbeitet.

Ich kann es mir im Augenblick auch nur so erklären, dass Zellen auf denen statische Daten auf der SSD lagern weniger belastet werden.
Man muss natürlich auch sehen, dass das Tool nur die am wenigsten und die am meisten belastete Zelle anzeigt.
Wenn man wissen würde wie die anderen Millionen von Zellen aussehen, dann könnte man schon eher Rückschlüsse ziehen.
Aber die Lebensdauer einfach von diesen beiden Zellen abhängig zu machen, halte ich für überbewertet. Den Durschnittswert halte ich da für interessanter.
 
... warum wenn das auslesen richtig sein sollte,...
Trennt euch doch wenigstens mal von dem Auslesen ^^
Das Auslesen ist unter Garantie richtig. Wenn die Werte wirklich irgendwo mal nicht stimmen sollten (zB wegen destruktiven Flashvorgängen oder verbuggter voriger Firmware) dann ist das schon intern falsch ;)

Edit:
Btw, auch wenn der Controller intern sicher mehr Informationen über die Zellenzyklen hat als min/avg/max, so hat er keine Informationen über jede *einzelne* Zelle. Mit etwas Glück hat er einen Zähler / Eraseblock, aber selbst das halte ich für unwahrscheinlich (!VERMUTUNG meinerseits!). Denn wenn er soviele Zähler hätte wie es Zellen gibt, bräuchte er (bei mind. 16 Bit pro Zähler und 2 Bit pro Zelle) acht mal soviel Speicherplatz wie die SSD hat nur für die Speicherung der Zählerstände ;)
 
Zuletzt bearbeitet:
@ Detonator

Die Rechnung stimmt so nicht. Eine MLC-Zelle kann nur 2-bit speichern.

Ein Zyklus ist nicht einmal die Gesamtkapazität der SSD.
 
So hohe Zellenabnutzung (~20000) kann ich mir durch 2 Sachverhalte erklären:

a) MLC scheint teilweise deutlich mehr als nur 10000 Schreibvorgänge auszuhalten
b) Durch wear-level Bugs in früheren FW:
  • 1571 --> Performance boost routine reused the recently used block and it did harm to wear leveling.
    Klingt für mich sehr nach extrem krasser Abnutzung einzelner Zellen.
  • 1819 --> L63B (256 pages/block) wear leveling bug
    Sagt mir persönlich jetzt nicht wirklich was.
 
Zuletzt bearbeitet:
1x workstation pattern mit 256QD
bg54ag96o9day6zee.png


edit: und nochmal CDM
ich hab mittlerweile Adaptive Read Ahead abgeschalten, hab ich zwar keine 1,6gb/s seq. mehr dafuer random hoeher ;)
bg54hm8w2wdsupkmu.png
 
Zuletzt bearbeitet:
Jein ;)
Wenn der durchschnittliche Wert der Zellenzyklen auf zb 500 liegt, heisst das, dass auch die gesamte Platte im *Schnitt* 500 mal beschrieben wurde ;)

OK, das wäre dann naürlich perfektes Wear Leveling... :xmas:
 
OK, das wäre dann naürlich perfektes Wear Leveling... :xmas:
Klar, aber es ging ihm ja um die tatsächlich geschriebenen Daten auf der Platte ... und das ist (solang die FW die Daten korrekt hergibt) eben Durchschnittliche Zellenzyklen * Plattengröße :d
Klar, das wurde dann sicher nicht verteilt auf die ganze Platte sondern an manchen Stellen mehr und an manchen weniger, das Ergebnis hat aber den gleichen Wert :xmas:
 
hi

hab mir heute eine SSD von Supertalent gekauft.

Mein jetziges System läuft im Raid 0 mit 2 Samsungplatten.
Der Raidververbund sollte erhalten bleiben.
Hab ein Gigabyte-Board (DS-EX-DS4).
Die SSD habe ich vorhin angeschlossen und laut AS-SSD-Benchmark habe ich jetzt iastor-Treiber und nicht den ahci-Treiber

Jetzt meine Frage :

Die SSD wollte ich als Systempartition machen

Was ist besser Raidverbund auflösen und auf AHCI umstellen, oder so die Samsung im Raid 0 weiterlaufen lassen und die SSD einfach so lauffen lassen?
 
Zuletzt bearbeitet:
Ich würde den Raid auch auflösen, denn mit den Raid Treibern funktioniert Trim nicht.
 
hi danke erstmal.

omg das heisst also format c:

oder gibt es eine Möglichkeit mit Windows7 von Raid nach AHCI ohne formatieren?
 
Siehe FAQ (link in Morpogs sigantur), habs zwar noch nie probiert sollte aber genauso gehen wie IDE zu AHCI
 
Zuletzt bearbeitet:
morgen

seit antirams letzten post bin ich nun doch etwas verunsichert bezüglich des destruktiven flashens.

was passiert bei einem destruktiven flash genau ? ich war immer der meinung das das ssd gelöscht wird und komplett zurückgesetzt wird.

wieso soll das schädlich sein und die lebensdauer verkürzen ?


danke schonmal
 
@Nimoy, mach dir da mal keine Sorgen, ein destruktiver Flash ( z.B. MP-Tool) zerstört keine SSD das Tool wird nur nicht angeboten weil da sehr viel internes verarbeitet ist, du kannst zwar damit jede SSD zerstören, aber nur wenn du entsprechend falsche Eingaben machst, nicht weil das Flashen die Zellen zerstört. Bei Solidata bekommst du das Tool auch nur noch auf Anforderungung. Aber aus dem gleichen Grund, nicht weil es schädlich für die SSD ist. (eher im Gegenteil wie sich's zeigt)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh