Welche SSD würdet ihr nehmen

Status
Für weitere Antworten geschlossen.

rene.marxis

Neuling
Thread Starter
Mitglied seit
09.03.2009
Beiträge
3
Hallo in die Runde

ich weiß es gibt schon einige Empfehlungen, jedoch habe ich keine in dieser "Zusammenstellung" gefunden... Welche der folgenden drei würdet ihr euch zulegen? Die Platte wird als Systemplatte verwendet und manchmal laufen da noch ein bis zwei Programme gleichzeitig drauf, die ein bisschen IO ziehen.

Corsair Force 240GB, 2.5", SATA II (CSSD-F240GB2-BRKT) Preisvergleich bei Geizhals.at Deutschland

Intel X25-M G2 Postville 160GB, 2.5", SATA II (SSDSA2MH160G2C1/SSDSA2MH160G201) Preisvergleich bei Geizhals.at Deutschland

Crucial RealSSD C300 256GB, 2.5", SATA 6Gb/s (CTFDDAC256MAG-1G1) Preisvergleich bei Geizhals.at Deutschland

Das SSD wird an ein ASUS P5Q angeschlossen, d.h. für die C300 müsste ich eine ASUS U3S6 Karte kaufen. Das board ist zwar nicht auf der Kompatibilitätsliste, jedoch scheint es damit einwandfrei zu funktionieren. Zumindest hat hier das jemand behauptet (ASUS U3S6 Karte PCIe x4 SATA 6G USB 3.0: Amazon.de: Computer & Zubehör). Kann das jemand bestätigen bzw. empfehlen oder gibt es noch andere steckkarten für SATA 6/GB (vorzugsweise mit UDB 3 :) )

Danke schon mal für die Infos/Empfehlungen ...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Empfehlungen sind ja immer so eine Sache - meistens macht der Fragende dann ja doch, was er möchte. ;) Meine Erfahrung ist zumindest, eine C300 ist für den normalen Anwender totaler kappes und SATA3 derzeit einfach nur überflüssig. Ich kann zwischen einer X25-M G2 80GB und einer C300 128Gb null, ich betone, null Unterschied in der gefühlten Leistung feststellen. Eher im Gegenteil, der SATA2-Controller von Intel im ICH10R oder ICH9R ist dem Marvel vor allem im 4K-Bereich weit überlegen, was die Performanz betrifft. SATA3 ist derzeit daher mit dem Marvel-Controller einfach überflüssig, die C300 performt am Intel besser, als am Marvel - traurig aber wahr, von den grottigen Marvel-Treibern ganz zu schweigen. Also mein Tipp, kauf dir ne Intel und gut ist, bei deinem Einsatzzweck ist es aber sowieso egal, welche du nimmst. Dein Kopf wird wahrscheinlich sagen, ja, ich muss SATA3 und die C300 haben, er wird wohl gewinnen, dann probiere die C300 aber auch mal am Intel-Controller aus, meine läuft über diesen, der Marvel ist mittlerweile abgeschaltet!;)

Grüße

Edit: Habe noch ein Bild beigefügt - C300 am Marvel und am Intel-Controller, man beachte die 4K-Werte, den schnelleren Speed im Lesen am Marvel merkt man im Einsatz nirgends.
 
Zuletzt bearbeitet:
Ich würde die billigste der 3 nehmen... Von der Leistung liegen sie eh so knapp zusammen, dass man als Privatanwender keine Unterschiede merken dürfte.
 
@A_H
kein plan aber post muss sein - bla bla, ladida o ja


falls dein Geldbeutel dir sorgen macht kauf ne intel v für ca. 100 €uronen und du kriegst was du willst. Mehr Budget die 80gb oder 160er intel.

Apropo es gibt auch nen Kaufberatungsthreat um spezielle Anforderungen der Hardware zu beurteilen.
 

Da diese "20.000" IOPS nicht mit Größe angegeben sind und auch mit Langlebigkeit geworben wird, sowie entsprecehnde Modelle noch nirgendwo getestet wurden würde ich da dennoch nicht vor einem halben Jahr bis Jahr (also Weihnachte/Ostern) damit rechnen... und das ist schon noch recht lange hin!

Wozu sollte eine Systemplatte(!) auf der zig statische Dateien liegen auch auf Langlebigkeit optimiert werden?!
 
...dennoch nicht vor einem halben Jahr bis Jahr (also Weihnachte/Ostern) damit rechnen... und das ist schon noch recht lange hin!

Dieses Anobit-SSD war nur als Beispiel gedacht, aber wenn die endlich mal das halten, was immer so alles versprochen wird und auch zügig am Markt erscheinen, dann werden hoffentlich, wie auch schon lange versprochen, die Preise niedriger.

Vielleicht kommt ja der Indilinx Jetstream doch noch. Die Hersteller werden schon wissen, dass sie noch sehr viel Arbeit in ihre SSDs stecken müssen. Vielleicht sind die heutigen SSDs in 6 bis 12 Monaten schon ziemlich veraltet?
(SATA3 war auch noch ein Gedanke bei mir.)

Andererseits, mit einem Intel-SSD für 100 Euro kann man nicht viel verkehrt machen.
 
Zuletzt bearbeitet:
Hm, ich wüsste nicht, was an derzeit aktuellen SSDs veraltern kann. Anscheinend versprechen sich hier manche von Werbeaussagen einen Schritt, aber wo bitte soll der den hingehen? Zuverlässigkeit, hm, meine beiden Mtrons, meine beiden Intels laufen seit Monaten/Jahren ohne Ausfälle, meine C300 seit etwas über einer Woche ebenso. Von der Geschwindigkeit ist eine Intel für so gut wie jeden ausreichend, ich merke zumindest keinen nennenswerten Vorteil von der erhöhten Geschwindigkeit von SATA3. Die IOPS sind mittlerweile auch schnell genug, für sogut wie alle Durchschittsanwender. Ich sehe zumindets keinen Grund zu warten - zusätzlich sind, wenn man eine SSD einsetzt, nicht die SSDs die Bremse, sondern die Anwendungen und die Betriebssysteme bzw. die Daten werden jetzt so schnell geliefert, dass der Bus schon nicht mehr hinterhekommt - von daher merkt man wohl gar keinen Unterschied, wenn diese Anobit-SSD kommen würde - aber jedem das Seine!
 
Zuletzt bearbeitet:
@Zoork
Die derzeitigen Preise hast Du vergessen.
Und wenn bei längst verkauften SSDs die Anzahl der Schreibvorgänge mal eben so im Vorbeigehen von 10.000 auf 5.000 reduziert wird, dann begeistert mich das auch nicht gerade. Dann frage ich mich, ob die überhaupt eine Vorstellung von der Haltbarkeit ihrer Produkte mit irgend welchen gerade zufällig günstig verfügbaren Flashchips haben. Zuverlässigkeit ist für mich das wichtigste Kriterium.
(Und mit Zuverlässigkeit meine ich Zuverlässigkeit auf der ganzen Linie, also auch des Herstellers usw.)
 
Zuletzt bearbeitet:
Wer auf Preise achten muss, darf sich eben nicht bei SSDs umsehen.;) Entweder hat man das Geld, oder nicht. Zusätzlich ist das Ganze als Hobby zu betrachten, ich gebe lieber 200 - 300 Euro für ne SSD aus, als mir, nur so als Beispiel, dafür Bier zu kaufen, man muss eben Priotitäten setzten. Wie gesagt, ich kann bis heute behaupten, mich hat noch keine SSD im Stich gelassen und wird es die nächsten Jahre wohl auch nicht. Selbst wenn, dann kaufe ich eben eine Neue. Die Schreibvorgänge halten auf jeden Fall für viele viele Jahre, mehr als wie die Hardware zumindest bei mir überleben wird, ist vorher längst verkauft. Vor fünf Jahren habe ich mir ein neues Auto gekauft, da habe ich zum Beispiel draus gelernt, knappe. 40.000 Euro auf den Tisch, Listenpreis der Karre war 58.000 Euro, heute bekomme ich noch knappe 13.000 im Ankauf, das ist Geld verbrennen - was ist da schon eine SSD!;)
 
Zuverlässigkeit ist nicht nur im Zusammenhang mit der Ausfallwahrscheinlichkeit zu verstehen. Viel wichtiger ist es (bei MLC) die interne Fehleranfälligkeit zu reduzieren. Gerade das ist ja der Knackpunkt bei SSDs. Eine zuverlässige Fehlererkennung und Beseitigung ist hier sehr wichtig. Interne CRC-Fehler können z.B. erkannt werden, jedoch nicht korrigiert. Auch treten Fehler auf, die erst gar nicht erkannt werden können. Bei den z.Z. eingesetzten Fehlerkorrigierungsalgorytmen besteht jedenfalls noch die Notwendigkeit zur Weiterentwicklung.
 
Bei den z.Z. eingesetzten Fehlerkorrigierungsalgorytmen besteht jedenfalls noch die Notwendigkeit zur Weiterentwicklung.

Die Postvilles und SandForce-Laufwerke haben jetzt schon eine geringere Bitfehlerrate als herkömmliche Festplatten...
 
Zuletzt bearbeitet:
Die Postvilles und SandForce-Laufwerke haben jetzt schon eine geringere Bitfehlerrate als herkömmliche Festplatten...

Die Angaben von Festplatten sind aber nicht mit denen von SSDs vergleichbar. Eine SSD braucht eine bessere Fehlerkorrektur als eine Festplatte um auf dem gleichen Niveau zu sein.
 
Hm? Die Bitfehlerrate ist eine einfache Zahl, die man angeben kann. Wenn die niedriger ist, dann ist sie niedriger. Das eine SSD eine andere Fehlerkorrektur braucht als eine HDD ist ja wohl selbstverständlich. Trotzdem, und das wollte ich sagen, klappt das schon so gut, dass SSDs weniger Bitfehler als Festplatten produzieren.
 
Mir ist bisher einzig eine Statistik der Firma Google über ihre Festplatten bekannt geworden. Andere Zahlen kenne ich nicht, kann mir daher kein objektives Urteil erlauben. Leider war nach ca. 20 Festplatten ohne große Probleme mein erstes SSD total daneben, und durch die ständigen Firmwaregeschichten kam ich nur schwer auf die richtige Spur. Ich war vor einem Jahr schon irrtümlich davon ausgegangen, dass man mit dem angeblichen ECC die Fehler bei SSDs besser als bei Festplatten unter Kontrolle hat und immer gemeldet bekommt. Vielleicht veröffentlicht Google ja bald eine Statistik über die Haltbarkeit seiner SSDs. ;)
 
Zuletzt bearbeitet:
Hm? Die Bitfehlerrate ist eine einfache Zahl, die man angeben kann. Wenn die niedriger ist, dann ist sie niedriger. Das eine SSD eine andere Fehlerkorrektur braucht als eine HDD ist ja wohl selbstverständlich. Trotzdem, und das wollte ich sagen, klappt das schon so gut, dass SSDs weniger Bitfehler als Festplatten produzieren.

Wie kommst du darauf das SSDs weniger Bitfehler als Festplatten produzieren? Wie hast du das denn gemessen? Die nackten Zahlen der Hersteller sagen da leider nur bedingt etwas aus. Man muss da schon tiefer ins Detail gehen um den Vergleich SSD zu HDD auf einen gemeinsamen Nenner zu bringen.

Uncorrectable Bit Error Rates (UBER) occur when a sector (HDD) or flash block or page (SSD) goes bad or there is an error reading back the data from the media. In high-end enterprise hard drives, there is less than one sector error in 10'16 bits read. These rates are acceptable for hard drives because their peak data transfer performance is generally 50-100Mbps. Even if the drive runs with a typical duty cycle, this means there will be an uncorrectable sector error only once every year or so. But in an SSD, the data transfer performance is much higher at up to 250Mbps, so the UBER must be even higher - 10'17 - to ensure comparable reliability.

ECC techniques are well-defined (typically using BCH or Reed Solomon algorithms), but SSDs need more sophisticated ECC protection. Each flash memory maker requires a different amount of correction depending upon the type of Flash memory and the process technology involved. As the process technology shrinks, the potential for errors increases. With SSDs, therefore, ECC must become stronger to support the increased transfer rate over HDDs.

Quelle: Data Integrity Challenges in flash SSD Design

Error Correction in MLC Flash SSD RAID

Editor:- October 28, 2009 - ECC Technologies has published a new article which examines data reliability issues in RAID systems using MLC flash.

In his survey of RAID and error correction related to SSDs the author Phil White said he thinks that "MLC NAND Flash memories should implement nonbinary error-correcting codes such as a Reed-Solomon (RS) codes so that all of the bits from one cell are in one symbol. The communications industry has been doing that for decades, but the Flash industry has been implementing a scheme that forces the bits from one cell to be in separate records (pages) so that one cell failure can cause multiple binary symbol failures – which seems illogical."

I asked him to expand on this for our readers.

In reply - Phil said he doesn't think that most NAND Flash (SSD) companies have a high level of expertise in the field of error-correcting codes.

"Many of the NAND Flash controllers that are out in the market now have ECC Tek's ECC designs in them. None of the controller companies who have come to us have any idea how to implement binary BCH encoders and decoders in hardware. I doubt if any of the Flash manufacturers have that expertise either."

"For years the Flash manufacturers implemented a simple binary scheme that corrected only 1 bit in a page. I don't have evidence to prove this, but I believe the NAND Flash manufacturers simply decided to extend their original scheme to correct N bits in instead of 1 bit to handle higher error rate devices. I also believe that they implemented a scheme for MLC NAND Flash to "randomize" the errors when a cell fails.


"Consider 4-bits/cell. When a cell fails, 0-4 bits may be in error. In order to keep using binary error-correcting codes that only correct bits, they designed the chips so that all of the bits from that cell are in different pages.

"To the best of my knowledge, they never considered using RS codes so that all of the bits from one cell are in one RS symbol. For example, assume a RS code with 12-bit symbols. Each RS symbol can hold the data from three 4-bit cells, and if those three cells happen to fail, it will only corrupt one RS symbol. RS codes can correct t "symbol" errors and s "symbol" erasures as long as 2t+s is less than or equal to R where R is the number of "symbols" of redundancy. The most natural and powerful thing to do is to put all of the bits from one cell in one RS symbol."

Quelle: storage reliability articles - StorageSearch.com
 
Ja super, du gehst davon aus, dass die Laufwerke immer unter Volllast laufen. Das ist natürlich sehr realistisch ;) Wenn man eine SSD und eine HDD gleich beansprucht, machen Intel/SF Laufwerke nicht nur relativ sondern auch absolut gesehen weniger Fehler.
 
Ja super, du gehst davon aus, dass die Laufwerke immer unter Volllast laufen. Das ist natürlich sehr realistisch ;) Wenn man eine SSD und eine HDD gleich beansprucht, machen Intel/SF Laufwerke nicht nur relativ sondern auch absolut gesehen weniger Fehler.

1. Wie kommst du darauf? Ich möchte dazu schon gerne etwas handfestes sehen.

2. Wenn du deine CPU übertaktest, dann überprüfst du sie doch auch indem du sie auf Vollast laufen lässt u.a. mit Prime95. Du würdest doch schließlich auch nicht eine CPU, wenn sie unter Vollast Fehler produziert, einfach so im "realen Betrieb" nutzen wollen. Oder? Genau das gleiche trifft hier auch auf eine SSD zu.
 
1. Wie kommst du darauf?
Meinst du den ersten oder zweiten Teil meines Posts? Den ersten: Steht im Fettgedruckten, den zweiten: Schau dir die Datenblätter an.

2. Wenn du deine CPU übertaktest, dann überprüfst du sie doch auch indem du sie auf Vollast laufen lässt u.a. mit Prime95.
Was hat eine CPU mit einer SSD gemeinsam, außer das sie beide in einem PC stecken?
Den Vergleich könntest du machen, wenn es bei CPUs auch so etwas wie eine UBER gibt. Gibt es das? Nein.
 
Zuletzt bearbeitet:
Ja super, du gehst davon aus, dass die Laufwerke immer unter Volllast laufen. Das ist natürlich sehr realistisch ;)

Das ist nicht unbedingt realistisch, aber sehr erstrebenswert. Es ist immer eine feine Sache, wenn eine Maschine 24/7 im optimalen Bereich läuft, ein Datenbankserver meistens um die 70% ausgelastet ist. Das ist dann auch kostenoptimal. Was die überdrehten Freaks hier machen, ist mit Kanonen auf Spatzen geschossen, Overkill, Spitzenleistung für ein paar Sekunden am Tag.

Ich hätte nicht gedacht, dass ich rein intuitiv so nahe bei den zitierten Fachleuten liege. Und um noch eins drauf zu setzen, ich finde es bedauerlich, dass in Artikeln zum Thema SSD so wenig auf diese Problematik eingegangen wird, werden kann, werden darf...Die Artikel sind fast immer sehr oberflächlich.
 
Zuletzt bearbeitet:
Ich spare mir jetzt, darauf argumentativ einzugehen, denn Argumente interessieren dich in deinem Hass auf SSDs und Größenwahn ("Ich weiß alles besser als jeder Hersteller") sowieso nicht. Wie war der Spruch mit den Perlen?

Und da der Thread nun auch ziemlich OT ist und es für die Kaufberatung eigentlich bereits einen Thread gibt, is hier mal zu.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh