Samsung 840 Evo oder Crucial MX100

Fabian2000

Neuling
Thread Starter
Mitglied seit
13.08.2014
Beiträge
63
Nach dem mir hier im Forum so fleißig geantwortet wurde brauche ich noch mal eure Hilfe also ich schwanke zwischen diesen beiden o.g Festplatten in 500 GB. Ich meine lohnt sich der Aufpreis von Crucial zu der Samsung von ca.30 Euro? Bin mal gespannt was ihr dazu meint.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1. ist die MX genauso gut.
2. hast du 12GB mehr Platz
3. kannst du bei der MX weniger Unsinn anstellen
 
Warte einfach ab bis er wieder on ist

Also der Aufpreis lohnt sich eigentlich nicht
Die Samsung ist zwar ein wenig schneller(in benchmarks)
Dieses kannst du aber in der Realität gar nicht feststellen (fühlen)
Somit siehst du die Mehrleistung nur in mehr Punkten bei einem Benchmark
Also Mega wumpe

Kann man besser mit den 30€ seine Freundin ausführen
 
Ob es sich lohnt hängt vom Einsatz der SSD ab. Die 840 Evo ist im Idle deutlich sparsamer als die MX100, was zumindest ohne LPM über 0.5W Unterschied macht. In einem Notebook oder einem sehr kompakten Gehäuse mit schlechter Lüftung und vielen Wärmequellen kann das durchaus relevant sein.

Dann hatte Crucial bei der m500/m550 eine FW Bug der bei QUEUED-TRI​M Datenverlust bewirken kann, was vor allem Linux betrifft, da habe ich aber nun nicht verfolgt, ob der behoben wurde, hier mehr dazu aus dem Crucial Forum. Die Samsung bietet also durchaus die 30€ Aufpreis etwas, ob es einem diese im Zweifel wert ist, hängt vom Einsatzfall ab. Der normale Windows Nutzer mit Desktop PC kann sich die natürlich sparen, der Linux Nutzer mit Laptop sollte es sich zweimal überlegen.
 
Die Evo nutzt einen Teil der MLC Zellen als SLC und erreicht (u.a.) deswegen höhere Benchmarkwerte. Es geht aber auch zu Lasten der Haltbarkeit da es die Write Amplification erhöht.
Die MX ist schnell genug für normale Consumer Workloads. Steckst du die 30€ (beim Neubau eines PCs) in eine stärkere CPU hast du mehr davon. Ansonsten inverstierst du die 30€ tatsächlich besser in deine Freundin oder dich selbst, statt in den blauen Koreaner.
 
h00bi , was Du da schreibst ist von vorne bis hinten Unsinn! Die 840 Evo hat TLC und der Teil der also Pseudo-SLC dient ist immer fix, da geht also nix auf die WA oder Haltbarkeit. Im Pseudo-SLC Modus hält das TLC NAND über 30.000 Zyklen aus und wenn das Kaputt ist, wähllt der TurboWrite Cache eben weg, na und? Bis es so weit ist, nutzen über 99% der Heimanwender längst eine ganz andere SSD, weil Evo schon total veraltet ist, denn die wenigsten schreiben mehr als 10TB im Jahr, die 250GB Evo hat fast ein PB bei techreport geschfft und die 500GB dürfte doppelt so viel bringen, also etwa wofür ein normaler Heimanwender 200 Jahre braucht! Aueßrdem haben bei techreport die Intel und die eine HyperX vor der Evo schlapp gemacht!

Haltbarkeit ist bei den SSD für Heimanwender kein Thema, sofern man keine Budget SSD von einem Anbieter ohne eigene NAND Fertigung kauft, denn da besteht immer die Gefahr das NANDs verbaut sind, deren Qualitätsstufe sie eigentlich für SSDs unbrauchbar macht.
 
Wie schon geagt, hängt das vom geplanten Einsatz ab. Außerdem dem Preis spricht aber nichts gegen die Evo und bei Einsatz unter Linux oder in einem Notebook einiges dafür.
 
Wie schon vorher geschrieben ich möchte die in einen neuen Dell Inspiron als Hauptfestplatte einbauen.
 
Der Notebook ist eigentlich als Unterstützung für einen Normalen PC und wird wenig oder fast garnicht Mobil genutzt.
 
dann nimm die günstigere.
 
Stimmt, das war noch die Vorgängerversion 840, aber die hatte auch schon TLC NANDs.
 
Hallo zusammen,

ich wollte eigentlich auch den genauer Thread öffnen :) ich bin mom auch zwischen diesen zwei SSD. Woher kommt diesen 30 € Unterschied. Soweit ich in Online Handler gesehen haben, billigste Samsung EVO 250GB ~105€ und billigste Crucial MX100 256GB ~90€

Was auf das Zettel steht, zeigt eigentlich Samsung EVO hat schnellere Schreibsgeschwindigkeit, aber im Praxis merkt man es ? das ist die Frage ^^
Ich bin kein Mensch der mit Benchmark spielt, wegen den Preis bei mir Crucial MX100 sieht mehr logisch aus und die bietet mehr Platz an ! vllt für Manchen vernachlässigbar :)

Was könnt ihr noch dazu sagen ?

Gruß
cryonix
 
Also es ist keine 256 sondern 500 GB und ich habe mir jetzt die Samsung bestellt weil es sind keine 30 sondern nur 20 Euro Unterschied mit dem 5 Euro Gutschein und Abholung in der Hardwareversand Filiale in Münster. Preis genau 192,79 Euro.
 
Praktisch wird man kaum einen Unterschied zwischen den beiden SSD merken können, das hängt aber auch vom Einsatz ab. Die Evo kann ja nur 3GB so schnell schreiben wie es beworben ist, die Crucial hat diese Einschränkung nicht. Eine 250GB Evo schreibt danach mit etwa 250MB/s weiter, wenn die 3GB interner TurboWrite Puffer voll sind, die 500GB (6GB TurboWrite) mit über 400MB/s, da spielt das also praktisch keine Rolle, aber wer schreibt schon laufend mehr als 3GB am Stück und aus so eine schnellen Quelle? Beim Einsatz in Notebook oder kleinen, schlecht belüfteten Gehäuse wie z.B. den NUC ist die Evo dann wegen der deutlich geringeren Idle Leistungsaufnahme im Vorteil, denn kann die MX100 aber größtenteils ausgleichen, wenn man LPM aktiviert.

Pauschal die bessere zwischen beiden gibt es nicht, eine die die besten Eigenschaften der beiden hat und meist sogar übertrifft wäre die 850 Pro, nur kostet die dann eine Stange mehr.
 
..die 250GB Evo hat fast ein PB bei techreport geschfft..
Das ist eine 250GB Samsung840 Basic, zu erkennen an den orangefarbenen Label und den silberfarbenen Facettenschliff. Die EVO gab es zu Beginn der Tests noch nicht. Hatte selbst mal ein paar Basics am Start und eine mal just_for_fun ein paar Tage via Anvil "gequält":

unbenanntgxkbf.png


Vieleicht wiederhole ich mal über einen längeren Zeitraum und mehreren 100TB den gleichen Test mit einer meiner EVOs.


Stimmt, das war noch die Vorgängerversion 840, aber die hatte auch schon TLC NANDs.
Das stimmt! Allerdings hatte die Basic auch einen anderen Controller als die EVO und der Nand war TLC 21nm mit 1000P/E Zyklen während EVO TLC 19nm mit 2500P/E Zyklen besitzt. Also irgendwie schlecht vergleichbar zudem auch noch Kommissar Zufall dort eine große Rolle spielt. Man kann 100 EVOs nehmen und 100 verschiedene Ergebnisse von xx TB bis event. x PB erzielen.

Mir hatte mal ein Samsung Mitarbeiter bei einer Schulung in Hamburg verraten, daß Samsung bzgl. EVO da an Langzeittests zugange wäre und man damals schon Ergebnisse über mehrere 100TB ohne nennenswerte Zwischenfälle als Zwischenstand erzielt hätte. Auf die Endergebnisse bzw. ob die Tests noch am laufen sind (ist jetzt immerhin gut 6 Monate her) läßt man aber warten. Das Samsung bei der neuen SSD850 aber 150TB Endurance Lifetime bei 10 Jahren Herstellergarantie vorgibt, läßt schon u.U. erahnen das die Tests mit deren EVOs da wohl sehr gute Ergebnisse erzielt haben und der neue TLC Nand wohl noch weiter optimiert wurde. Sind aber alles nur Vermutungen und auch irgendwo wieder nur das übliche Marketing, denn rechnet man die 150TB TBW auf 10 Jahre Garantie um, dann kommt man auch schon auf die von Intel vorgegebenen 40GB tgl. Schreiblast die ja mittlerweile von Crucial (siehe M500 TBW) und Samsung als Messlatte übernommen wurden. ;)
 
Zuletzt bearbeitet:
Erstmal um Verwechselungen zu vermeiden: Basic ist nicht der Zusatz der 840 (Vorgänger der 840 Evo), sondern Basic ist bei Samsung die Bezeichnung für die Aussattung, in diesem Fall die SSD ohne jedes Zubehör und steht damit im Gegensatz zu dem Kit oder den Kits, die es bei einigen Modellen gab bzw. gibt und wo Dinge wie 3.5" Rahmen, 2.5mm Spacer oder USB Adapter enthalten sind. Von einer Basic zu reden ist zielführend, weil das kein konkretes Modell beschreibt, es ja auch die 840 Evo Basic, eben die Evo ohne Kit.

Wie kommst Du auf die 2500 P/E Zyklen, ergibt sich das aus den S.M.A.R.T. Werten? Wenn ja, poste bitte man den Screenshot. Ich hatte aufgrund der geloggten S.M.A.R.T. Werte in diesem Endurance Test (der ist im Steady States, daher so wenige TBW!) angenommen, dass die 19nm Evo mit etwa 1200 P/E Zyklen spezifiziert sind und das würde auch zu den erreichten 3151 passen, wobei sie da offenbar nicht kaputt war, sondern der Test wohl unterbrochen wurde "Preliminary Data - Test is Running".

Damit dürften die 19nm TLC NANDs also wenigstens nicht weniger haltbar sein als die 21nm der Vorgängerversion, die in allen Endurance Tests immer über 3000 bis knapp 4000 Zyklen gekommen ist.

Mich wundert aber der Aktuelle Wert bei F1, demnach wäre die 33TB gerade 1% des zu Erwartenden Schreibvolumens, obwohl die 142 P/E Zyklen schon 15% der spezifizierten Zyklen sind., Samsung rundet da immer ab, es sind ja nur 14,2% und damit wäre der Aktuelle Wert genau 85,8 und korrekt gerundet noch 86, aber sobald nur ein Zyklus verbraucht ist, steht da bei Samsung schon 99.
 
@Holt:

Ich denke nicht, das man die P/E Zyklen mit dem erwarteten Schreibvolumen übereinbringen kann.
1000 P/E Zyklen bei einer 250GB SSD würde doch bedeuten: 1000 x 250GB = 250000GB = 250TB (wenn man davon ausgeht, das die gesamte SSD gleichmäßig bzw. unter gleichmäßiger Ausnutzung der Speicherzellen beschrieben wird (das wäre ja der absolute Idealfall, welcher jedoch nie eintreten wird)

Derzeit sind 142 P/E Zyklen verbraucht, was ja bedeuten würde: 142 x 250GB = 35500GB = 35,5TB, was ja auch die Host-Schreibvorgänge mit 33,25TB widerspiegeln (hier gibt es natürlich Rundungsfehler und dergleichen).

Da die Zellen ja aber vollkommen unterschiedlich beschrieben werden (unter Umständen haben diese dann die 1000 P/E Zyklen, andere dagegen jedoch nur 100 P/E Zyklen) kommt man theoretisch und praktisch nie auf die 1000 x 250GB Schreibvolumen. Die angegebenen 72TB bei 1000 P/E Zyklen werden da nur ein errechneter Mittelwert sein, welcher die ungleichmässige Ausnutzung berücksichtigt.


Hier wird aber der Unterschied zur Samsung 470 sehr deutlich.
Obwohl die Samsung 470 bei mir keine Angabe über die Host-Schreibvorgänge auswirft, so errechne ich diese einfach mal anhand der P/E Zyklen.
Diese liegen bei mir bei 130. 130 x 256GB = 33,xx TB. Prozentual gesehen stehe ich mit der Samsung 470 bei 97%, was die P/E Zyklen angeht. Und das obwohl schon 33,xxTB geschrieben wurden.
Die eingeschalteten Stunden liegen bei mir bei 19706, das entspricht 96%.
Die Ein/Ausschaltungen von 1117 entsprechen 98%.

Rein theoretisch müsste die Samsung 470 also noch Ewigkeiten halten (sozusagen unkaputtbar), wenn die max. Anzahl der Host-Schreibvorgänge nicht wäre. Hiervon hätte ich ja rein theoretisch 50% verbraten.
 
Zuletzt bearbeitet:
Die Write Amplification (WA) ist bei dem Anvil Endurance Test meist sehr gering, oft weit geringer als man sie bei real genutzen SSDs auf den S.M.A.R.T. ablesen kann. Aber so eine unterschiedliche Abnutzung wie, 100P/E Zyklen bei einigen und 1000 Zyklen bei anderen Blöcken, sollte bei modernen Controller nicht mehr vorkommen. Wäre das Wear Leveling so mies, dann hätten die NAAND in vielen Endurance Test wo nur ein Teil der Kapazität immer wieder beschrieben wird, in Wirklichkeit ja noch viel mehr Zyklen ausgehalten.

Die angegebenen 72TBW beziehen sich immer auf den Worst Case, also Random 4k Schreiben auf der randvollen SSD (Steady State) und sind bei Consumer SSDs sowieso absichtlich niedrig angegeben um Enterprise User vom Kauf solcher SSD abzuhalten, darf doch in vielen Rechnenzentren HW nicht außerhalb der Spezifikationen verwendet werde und wenn man dann bei schreibintensiven Anwendungen die günstiger Consumer SSD alle paar Monate tauschen müsste weil die spezifizierten TBW erreicht sind, kann man auch gleich zu einer teuren Enterprise SSD greifen. Ignoriert ein Enterprise Nutzer die Spezifikationen und nutzt das Teil bis es kaputt geht, so braucht der Herstellern dann wenigstens keine Garantie zu leisten, da die laut den Garantiebedingungen der meisten SSDs nur bis zu den TBW geht. Logisch wäre es daher eigentlich, wenn der aktuelle Wert vor Schreibvolumen bei Erreichen der spezifizierten TBW auf 1 fällt oder sich wenistens an dem der P/E Zyklen ausrichtet.

Beim Errechnen der TBW auf den P/E Zyklen vernachlässigt man übrigens immer die WA und die ist praktisch immer über 1, teils deutlich darüber, je nach Füllstand und Schriebzugriffen. Deine errechneten 33TB sind also der Höchstwert, praktisch dürften es eher 10 bis 20TB gewesen sein, wenn nicht noch weniger.
 
Das ist eigentlich Allgemeinwissen über SSDs, aber Du kannst es hier auch selbst nachlesen. Es gibt zunehmend auch Consumer SSD bei denen davon abgewichen wird, wie bei der Kingston V310, da steht das dann aber in der Fußnote zu der Angabe dabei, dass sich diese auf einen Client Workload bezieht. Daher kann man solche Angaben dann auch nicht vergleichen, da gerade Consumer SSD im Steady State eine sehr hohe WA erzeigen, weil sie einmal nicht auf den Betrieb unter diesen Umständen optimiert sind, sowas kommt ja bei Heimanwendern auch nie vor und zum anderen halt auch wenig OP ab Wert haben, der Kunde will ja möglichst viel von der teuer bezahlten NAND Kapazität auch nutzen können.
 
Soweit mir bekannt, gibt es von der JEDEC noch keine verbindlichen Vorgaben für Client-SSDs. Das von dir genannte Szenario (4K Random, Steady State) ist von der JEDEC für Enterprise-SSDs vorgesehen. Auch der von dir verlinkte Artikel bezieht sich überwiegend auf Enterprise-SSDs. Die Samsung 470, um die es mir hier geht ist jedenfalls keine SSD für den Enterprise-Markt.

Schau ich mir z.B. bei Crucial das Datenblatt einer Client-SSD an, wird mir nirgends gesagt nach welchen Standard bzw. welchen Workload sich die TBW-Angaben richten. Ähnliches finde ich bei Hersteller XY, wo mir Angaben mit unterschiedlichen Workloads zur Bestimmung der TBW genannt werden. So wie es aussieht, scheint jeder Hersteller noch sein eigenes Süppchen zu kochen wenn es um die TBW geht, zumindest bei Client-SSDs.

Um es hier vielleicht noch zu konkretisieren, kannst du mir Holt, einen Link oder eine handfeste Bestätigung schicken, wo für eine Samsung 470 SSD, der von dir genannte Workload (4K Random, Steady-State) zur Bestimmung der TBW zugrunde gelegt wird?

So ganz nach Allgemeinwissen kommt es mir jedenfalls nicht vor...oder ich tue mich damit nur schwer. ;)
 
Es kann sein dass es noch immer keine JEDEC Vorgaben für Client SSDs gibt, aber macht auch keinen Sinn für einen Hersteller bei einer Client SSDs diese Angaben auf eine andere Art zu ermitteln, wenn er sie als Teil der zugesicherten Eigenschaften in Datenblatt aufnimmt und auch noch die Garantie davon abhängig macht. Wer zu hohe Angeben macht, riskiert nur unnötige Garantiefälle, wenn die SSD dann doch so genutzt wurden, dass eine höhere WA aufgetreten ist. Im Steady State erzeugt man die höchst mögliche WA und wenn eine SSD da die TBW erreicht, dann erreicht sie diese auch bei jeder anderen Belastung und dann sogar sehr viel mehr. Aber die 32 bis 72 TBW die meist angegeben sind, reichen Heimanwendern auch dicke aus um über die 3 bis 5 Jahre Garantie zu kommen, die 80 TBW der Extreme Pro sind bei deren 10 Jahren Garantie u.U. schon knapp. Verstehe die TBW bei Consumer SSDs also Minimalwerte die i.d.R. weit überschritten werden, was spätestens dann klar sein solte, wenn die TBW für alle Kapazitäten einer Serie gleich angegeben sind.

Es gibt also eigentlich keinen Grund für die Hersteller höhere Angaben zu machen und wenn Kingston das bei der V310 macht, dann vermutlich um diese als besonders haltbar dastehen zu lassen, denn sonst gibt es bei der ja gar nichts, womit die punkten kann, die ist lahm (wen wunderts bei dem Phison 3108 Controller?) und teurer als andere 1TB Modelle von Crucial oder Samsung. Wenn das Beispiel Schule macht, wird die TBW wie die MTBF zu einer reinen Werbeangebe verkommen und noch weniger praktische Relevanz haben als sie ohnehin schon hat. Jetzt ist sie i.d.R. total tiefgestapelt und dann wird sie bei viele total übertrieben sein, aber so viele PB erreicht ja kein Heimanwender innerhalb von 2, 3, 5 oder auch 10 Jahren Garantiedauer.
 
...aber macht auch keinen Sinn für einen Hersteller bei einer Client SSDs diese Angaben auf eine andere Art zu ermitteln, wenn er sie als Teil der zugesicherten Eigenschaften in Datenblatt aufnimmt und auch noch die Garantie davon abhängig macht.

Welche Eigenschaft wird mir denn zugesichert, wenn sich zum Workload nichts in den Datenblättern finden lässt (z.B. Crucial M500)? Von was soll man da ausgehen, wenn der Hersteller seine TBW-Angaben nicht konkretisiert? Selbst wenn es das Worst-Case Szenario wäre, sollte dies doch dann auch zumindest in den Datenblättern erwähnt werden.

Solange keine einheitlichen Standards geschaffen sind, ist es die Ansicht des jeweiligen Herstellers was Sinn macht oder nicht. Im Moment geht es wohl nur um die Abgrenzung Client zu Enterprise, wie es bereits Anand, in dem von dir verlinkten Artikel bereits erwähnt hat. Also alles noch etwas schwammig im Client-Bereich...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh