SSDs mit Sandforce Controllers SF1200 und SF1500 [Part 3]

Status
Für weitere Antworten geschlossen.
Kurze Frage: Habe heute als Austausch für meine defekte OCZ Vertex 2 60 GB eine
Super Talent Teradrive CT 60 GB erhalten. Mit welchem Modell bin ich besser bedient?
Welche von beiden ist zu empfehlen? Ggf. muss ich dann erneut reklamieren :/

Danke im voraus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Als Vergleichswert, frisch installiertes Win7 64:

attachment.php


Fujitsu Siemens U9200 mit einem T9300 (war mal T2390), Santa Rosa Chipsatz und eigentlich auch nur SATA 1. OCX Vertex 2 mit 180GB, gleich ausgeliefert mit Firmware 1.28 (heisst das 25nm?). Durchaus erstaunlich finde ich die angebliche seq Leserate.
 
Das RAISE immer eine ganze Die beansprucht war mir nicht bekannt und erklärt auch, warum man bei den größeren Modellen die Kapazität nicht angerührt hat. Trotzdem macht es die Sache ja eigentlich nicht besser, denn im Vergleich zwischen einer 60GB (34nm) und einer 55GB (25nm) mit gleichen Datenmenhe ist auf der ersten prozentual mehr frei als auf die zweiten, die dies aber dringender bräuchte.

Das einzige was sich geändert hat ist die Nutzkapazität. Die Rohmenge an NAND bleibt im Falle einer 55GB/60GB SF-SSD unverändert bei 64GB. Das Over-provisioning bleibt mit 7% ebenfalls unverändert, nur RAISE zwackt sich aufgrund der jetzt höheren Speicherdichte mehr ab.

Holt schrieb:
Das die Händler natürlich geringere Preise nicht weitergeben liegt aber auch an OCZ, die diese Änderung niocht komuniziert haben und auch keine anderen Bezeichnung, ja nicht einmal eine auf die korrekte Größe angepasste Größenangabe gemacht haben und es den Händlern so erleichtern bei Modelle aus einer Kiste heraus zum selben Preis zu verkaufen.

Was da seitens OCZ kommuniziert wurde, kann ich leider nicht beantworten. Die Händler werden es aber spätestens am Einkaufspreis sehen können. Hier stellt sich zudem die Frage ob direkt bei OCZ eingekauft wurde oder über einen Distributor, der dann auch etwas vom Kuchen abhaben will.

Der Preis richtet sich außerdem nach der Rohkapazität, nicht nach der Nutzkapazität. Die Rohkapazität an NAND ist immer die gleiche geblieben, egal ob 32Gbit oder 64Gbit Chips. Bei einer 60GB SF-SSD hat man immer noch 64GB, bei einer 120GB SF-SSD sind es auch immer noch 128GB und bei einer 240GB SF-SSD sind es ebenso noch 256GB an Rohkapazität.

Übrigens ist der Preis für eine 120GB OCZ SF-SSD von Tag zu Tag am fallen. ;)

Holt schrieb:
Das ist einfach nicht akzeptabel zumal z.B. Intel seinerseit eine B Version seiner Postville eingeführt und getrennt vermarktet hat, obwohl es keine relavanten Unterschiede zwischen beiden Modelle gab. Sowas gehört sich auch und wer das ignoriert, der darf sich über Vertrauensverluste nicht beklagen, denn die hat er sich selbst zuzuschrieben.

Da bin ich mit dir einer Meinung. OCZ hätte es durchaus kundenfreundlicher gestalten können. Nun haben andere Hersteller daraus die Möglichkeit zu lernen...

Holt schrieb:
Bzgl. der Löschzkylen, dass es da Serienstreuungen gib ist klar, aber bei gleicher Technologie wird 25nm NAND immer weniger erreichen als 34nm, welches weniger als 50nm erreicht. Ausnahmen bestätigen die regel und besonders gute 25nm können länger halten als besonders schlechte 34nm Exemplare.

Das ist richtig. Man darf aber auch nicht den Faktor Controller vergessen. Die neuen Controller nutzen den NAND immer effizienter aus. Eine SSD mit 50nm NAND kann z.B. schneller verschlissen sein als eine mit 34nm NAND, wenn der Controller wesentlich effizienter mit den PE/Zyklen umgehen kann. Deshalb betone ich auch immer, dass man sich nicht zu sehr nur auf den NAND fixieren soll.

Das Herzstück einer SSD ist der Controller bzw. die Firmware.

Holt schrieb:
Da Du Dich ja gut mit dem Sandforce auskennst, welche Techniken hat der implementiert um die Lebendauer so zu erhöhen und wie will man eine Schreiberhöhung von nur 0.5 erreichen, wenn sich die meißten Daten gar nicht so starkk komprimieren lassen?

Die 3 Eckpfeiler des SF-Controllers sind wohl DuraWrite (u.a. Kompression + Deduplizierung), RAISE und Over-provisioning. Desweiteren ist die interne Verarbeitung auf ein möglichst effizientes Ausnutzen der PE/Zyklen optimiert.

Das der Controller die meisten Daten nicht komprimieren kann ist so auch nicht ganz richtig. Es ist sehr davon abhängig wie ich das SSD nutze. Nutze ich es als Systemplatte/Programmplatte, habe ich eine bessere Kompressionsrate. Wenn ich das SSD überwiegend als Multimediaplatte nutze, wo viele rar, avi, jpeg oder mp3 Dateien gespeichert werden sollen, dann verschlechtert sich natürlich auch die Kompressionsrate.

Holt schrieb:
Der Kompressionstest von ASS zeigt ja auch, dass bei 50% komprimierbaren Daten die Lesen- und nicht beim doppelten der von unkomprimierbaren Daten liegt obwohl noch Luft nach oben wäre? So stark können die beiden ARM Cores halt einfach nicht komprimieren, das ist ja auch kein Wunder.

Es geht auch nicht um die absolut beste Kompression. Das Ziel der Kompression ist es die Write-Amplification zu reduzieren. Ein Schritt in Richtung höherer Haltbarkeit und effizienterer PE/Zyklen Ausnutzung.

Der SF-Controller basiert übrigens auf einer Tensilica CPU.

Tensilica - Diamond Standard 570T

Kurze Frage: Habe heute als Austausch für meine defekte OCZ Vertex 2 60 GB eine
Super Talent Teradrive CT 60 GB erhalten. Mit welchem Modell bin ich besser bedient?
Welche von beiden ist zu empfehlen? Ggf. muss ich dann erneut reklamieren :/

Danke im voraus.

Du kannst das Teradrive bedenkenlos behalten. Alle SandForce SSDs unterscheiden sich hauptsächlich nur in der Optik. Sprich anderer Name, aber gleicher Inhalt.
 
Zuletzt bearbeitet:
Vor kurzem hab ich einen relativ großen Schreck bekommen, als nach einem üblen BSPlayer-Crash beim nächsten Bootversuch des seit Ende September 2010 ansonsten problemlos laufenden Win7 32-Bit Ultimate (mittlerweile SP1) dort plötzlich stand: "NTLDR nicht vorhanden" (o.ä.). :-[

Die SSD war von jetzt auf gleich 'verschwunden'. :confused: Zum Glück hab' ich mich daran erinnert, was ich hier im Forum öfter mal als Tipp gelesen hab: Rechner ausschalten, SSD für ein paar Minuten stromlos machen und wieder anschließen. - Glücklicherweise hat das Bios die OCZ 60 GB E SSD danach wieder erkannt und es scheint nun auch alles wieder normal zu laufen. *puh* :hail:

Wenn man schon mal eine SSD verloren hat (nach einem Jahr war bei mir die Indilinx Barefoot Supertalent kaputt, Lesefehler wegen defekter Sektoren etc.), kann einen sowas ganz schön ins Schwitzen bringen, besonders wenn das letzte Backup schon 1 Woche her ist. :p

Hab' das hier auch nur mal berichtet, falls sich diese Vorkommnisse demnächst häufen sollten und als Information für die, denen das noch bevorsteht. ;)
 
Das einzige was sich geändert hat ist die Nutzkapazität. Die Rohmenge an NAND bleibt im Falle einer 55GB/60GB SF-SSD unverändert bei 64GB. Das Over-provisioning bleibt mit 7% ebenfalls unverändert, nur RAISE zwackt sich aufgrund der jetzt höheren Speicherdichte mehr ab.
Wenn ich die 8GB für RAISE abziehe, da diese ja nur Verwaltungsdaten enthalten und niemals Nutzerdaten, dann komme ich auch 56GB für Nutzdaten. Davon sind 55 verfügbar, was dann keine 2% Over-provisioning ergibt.
Waren es vorher 4GB, so gab es 0% Over-provisioning.
Hat die Die nur halb so viel Kapazität wie ich eben unterstellt haben, so waren es vorher 62GB (2 für RAISE) und damit 3,3% Over-provisioning, jetzt wären es dann 9%. Irgendwie komme ich nicht auf gleichbleibend 7%.
Übrigens ist der Preis für eine 120GB OCZ SF-SSD von Tag zu Tag am fallen. ;)
Nachdem sich der Wechsel auf die günstigeren aber langsameren 25nm NANDs langsam doch herumspricht, ist dies auch kein Wunder. Die 60GB (bzw. 55GB) Variante ist übrgens wieder teuerer geworden und sogar teuerer als eine 64GB Crucial C300.

Da bin ich mit dir einer Meinung. OCZ hätte es durchaus kundenfreundlicher gestalten können. Nun haben andere Hersteller daraus die Möglichkeit zu lernen...
Das werden sie wohl hoffentlich tun, denn auch da gab es so einige, die still und heimlich die NAND Bestückung geändert und dadurch nur noch die Hälfte der Kanäle bestückt haben. Bei dem von SF favorisierten ATTO Benchmark fällst das nicht auf, aber mit realen Daten schon.
Die neuen Controller nutzen den NAND immer effizienter aus. Eine SSD mit 50nm NAND kann z.B. schneller verschlissen sein als eine mit 34nm NAND, wenn der Controller wesentlich effizienter mit den PE/Zyklen umgehen kann.
Weniger als 1.0 werden aber wohl auch SF Controller nicht hinbekommen, wenn die Daten nicht komprimierbar sind. Wenn die SSD dann noch sehr voll ist, bleibt dem Controller auch keine andere Wahl als immer wieder viele Pages zu kopieren, damit er eine Cell in der eben Pages mit unvalid Daten sind flashen und wieder Daten schreiben zu kann. Einige Controller sind da sicher agressiver und flashen Cells schon, wenn nur wenige Pages darun unvalid geworden sind um so möglichst immer volle Schreibperformance zu bieten.
Das der Controller die meisten Daten nicht komprimieren kann ist so auch nicht ganz richtig. Es ist sehr davon abhängig wie ich das SSD nutze. Nutze ich es als Systemplatte/Programmplatte, habe ich eine bessere Kompressionsrate. Wenn ich das SSD überwiegend als Multimediaplatte nutze, wo viele rar, avi, jpeg oder mp3 Dateien gespeichert werden sollen, dann verschlechtert sich natürlich auch die Kompressionsrate.
Eben, solche Daten lassen sich normalerweise nicht mehr verlustfrei komprimieren und deshalb finde ich Aussagen wie "SF hat eine WA von 0.5 und ist damit 20mal besser als der Standart" sehr unseriös, weil dies nur auf spezielle Fälle zutrifft. Das ist so, als würde man behaupte auf deutschen Strassen gäbe es kein Tempolimit.
Es geht auch nicht um die absolut beste Kompression. Das Ziel der Kompression ist es die Write-Amplification zu reduzieren. Ein Schritt in Richtung höherer Haltbarkeit und effizienterer PE/Zyklen Ausnutzung.
Ist ja auch eine gute Idee, nur schade, dass man dies dazu (miss/ge)braucht hat um die Leistungswerte nur mit ATTO und seinen unrealistisch komprimierbaren Daten anzugeben.
Der SF-Controller basiert übrigens auf einer Tensilica CPU.

Tensilica - Diamond Standard 570T
Irgendwo hatte ich mal gelesen es wären zwei ARM Cores. Aber egal, der Kompressionstest von ASS zeigt deutlich, dass bei 50% komprimierbaren Daten die Werte keineswegs doppelt so gut sind wie bei unkomprimierbaren Daten. Wenn man sich überlegt, wie wenige RAM im Controller vorhanden sein dürfte und wie gering die Leistungsaufnahme und damit der Takt sein düfte, dann sind gewaltige Kompressionsraten da nicht zu erwarten, zumal bei der Datenrate. Hatte gerade heute eine Datei die NTFS auf ca. 50% komprimieren konnte, 7zip auf 25%.
Du kannst das Teradrive bedenkenlos behalten. Alle SandForce SSDs unterscheiden sich hauptsächlich nur in der Optik. Sprich anderer Name, aber gleicher Inhalt.
Solange sind mit der gleichen NAND Bestückung aufwarten auf jeden Fall.
 
Vor kurzem hab ich einen relativ großen Schreck bekommen, als nach einem üblen BSPlayer-Crash beim nächsten Bootversuch des seit Ende September 2010 ansonsten problemlos laufenden Win7 32-Bit Ultimate (mittlerweile SP1) dort plötzlich stand: "NTLDR nicht vorhanden" (o.ä.). :-[

Die SSD war von jetzt auf gleich 'verschwunden'. :confused: Zum Glück hab' ich mich daran erinnert, was ich hier im Forum öfter mal als Tipp gelesen hab: Rechner ausschalten, SSD für ein paar Minuten stromlos machen und wieder anschließen. - Glücklicherweise hat das Bios die OCZ 60 GB E SSD danach wieder erkannt und es scheint nun auch alles wieder normal zu laufen. *puh* :hail:

Wenn man schon mal eine SSD verloren hat (nach einem Jahr war bei mir die Indilinx Barefoot Supertalent kaputt, Lesefehler wegen defekter Sektoren etc.), kann einen sowas ganz schön ins Schwitzen bringen, besonders wenn das letzte Backup schon 1 Woche her ist. :p

Hab' das hier auch nur mal berichtet, falls sich diese Vorkommnisse demnächst häufen sollten und als Information für die, denen das noch bevorsteht. ;)


genau das gleiche problem hatte ich am samstag auch. war schon toll, kein boot device im bios zu haben. aber luxx forum hilft.
 
Wenn ich die 8GB für RAISE abziehe, da diese ja nur Verwaltungsdaten enthalten und niemals Nutzerdaten, dann komme ich auch 56GB für Nutzdaten. Davon sind 55 verfügbar, was dann keine 2% Over-provisioning ergibt.
Waren es vorher 4GB, so gab es 0% Over-provisioning.
Hat die Die nur halb so viel Kapazität wie ich eben unterstellt haben, so waren es vorher 62GB (2 für RAISE) und damit 3,3% Over-provisioning, jetzt wären es dann 9%. Irgendwie komme ich nicht auf gleichbleibend 7%.

Moment, wir wollen jetzt nicht alles durcheinander bringen. Ich gebe zu, es ist etwas verwirrend. Halten wir uns deshalb einfach an die Definition von SandForce.

Over-provisioning = (Rohkapazität - Nutzkapazität) : Nutzkapazität

IDEMA Spezifikation zu den Vertex 2 Extended Modellen:

idemamcv2.png


SF-SSD 60GB:

32Gbit --> (64GB - 60GB) : 60GB = 7% OP

64Gbit --> (64GB - 55GB) : 55GB = 16% OP


SF-SSD 120GB:

32Gbit --> (128GB - 120GB) : 120GB = 7% OP

64Gbit --> (128GB - 118GB) : 118GB = 8% OP


Die Unterschiede im OP liegen allein an RAISE und der höheren Speicherdichte der 64Gbit Chips. Nur daraus ergeben sich diese krummen Zahlen. Ab 180GB haben dann alle Laufwerke, egal ob 32Gbit oder 64Gbit immer 7% OP.

Holt schrieb:
Das werden sie wohl hoffentlich tun, denn auch da gab es so einige, die still und heimlich die NAND Bestückung geändert und dadurch nur noch die Hälfte der Kanäle bestückt haben.

Du scheinst da mehr zu wissen als ich. Wer hat denn da noch still und heimlich gewechselt? :asthanos:

Holt schrieb:
Bei dem von SF favorisierten ATTO Benchmark fällst das nicht auf, aber mit realen Daten schon.

Was sind für dich denn "reale Daten"?

Holt schrieb:
Weniger als 1.0 werden aber wohl auch SF Controller nicht hinbekommen, wenn die Daten nicht komprimierbar sind. Wenn die SSD dann noch sehr voll ist, bleibt dem Controller auch keine andere Wahl als immer wieder viele Pages zu kopieren, damit er eine Cell in der eben Pages mit unvalid Daten sind flashen und wieder Daten schreiben zu kann. Einige Controller sind da sicher agressiver und flashen Cells schon, wenn nur wenige Pages darun unvalid geworden sind um so möglichst immer volle Schreibperformance zu bieten.

Wenn es sich ausschließlich nur um unkomprimierbare Daten handelt, dann kann man sicher nicht unter 1 kommen. Der SF-Controller kann aber unter 1 kommen (auch wenn nur unter einer bestimmten Rahmenbedingung), andere Controller können das bisher nicht. ;)

Holt schrieb:
Eben, solche Daten lassen sich normalerweise nicht mehr verlustfrei komprimieren und deshalb finde ich Aussagen wie "SF hat eine WA von 0.5 und ist damit 20mal besser als der Standart" sehr unseriös, weil dies nur auf spezielle Fälle zutrifft. Das ist so, als würde man behaupte auf deutschen Strassen gäbe es kein Tempolimit.

Ich habe es schon einmal geschrieben, aber ich tue es gerne nochmal. Das sind Angaben, die der Controller unter bestimmten Rahmenbedingungen erreichen kann. Um deiner Logik zu folgen wären die oftmals angesprochenen 1,1 für eine Intel ebenfalls als unseriös zu bewerten. Man könnte sogar soweit gehen und behaupten, dass alle Werte von jeden x-beliebigen Hersteller unseriös wären. Da wäre dann nämlich keiner besser als der andere. Ich verstehe deshalb nicht, was dich so sehr am SF-Controller stört. Das sind typische Werbeaussagen, die man von jeden Hersteller zu hören bekommt.

Holt schrieb:
Ist ja auch eine gute Idee, nur schade, dass man dies dazu (miss/ge)braucht hat um die Leistungswerte nur mit ATTO und seinen unrealistisch komprimierbaren Daten anzugeben.

AS SSD Werte sind für den SF-Controller genau so unrealistisch. Die Wahrheit liegt irgendwo zwischen AS SSD und ATTO. Der SF-Controller hat seine Stärken, wenn man ihn als Systemplatte/Programmplatte einsetzt. Mein Gefühl sagt mir, dass die meisten Leute eine SSD auch für diesen Einsatzzweck auch nutzen wollen und da hat man es ganz sicher nicht nur mit unkomprimierbaren Daten zu tun.

Ich verstehe deshalb das Problem nicht. Zeig mir doch bitte ein Nutzerprofil bei dem der SF-Controller nur mit unkomprimierbaren Daten zu tun hat. Denkst du wirklich das wäre dann realistischer?

Einzig bei der Videobearbeitung sehe ich den SF-Controller von der Leistung her im Nachteil.

Holt schrieb:
Irgendwo hatte ich mal gelesen es wären zwei ARM Cores. Aber egal, der Kompressionstest von ASS zeigt deutlich, dass bei 50% komprimierbaren Daten die Werte keineswegs doppelt so gut sind wie bei unkomprimierbaren Daten. Wenn man sich überlegt, wie wenige RAM im Controller vorhanden sein dürfte und wie gering die Leistungsaufnahme und damit der Takt sein düfte, dann sind gewaltige Kompressionsraten da nicht zu erwarten, zumal bei der Datenrate. Hatte gerade heute eine Datei die NTFS auf ca. 50% komprimieren konnte, 7zip auf 25%.

Du verkrampfst dich viel zu sehr auf die negativen Aspekte, die eigl. keine sind. Betrachtet man es aus einer anderen Perspektive, kann dir die Kompression bei 50% einiges an Daten wegkomprimieren, somit muss weniger in den Flash geschrieben werden. Die begrenzte Haltbarkeit des Flashs wird dadurch effizienter ausgenutzt. Nochmal: Der Schwerpunkt beim SF-Controller liegt nicht auf Leistung, sondern auf Haltbarkeit.

P.S. So langsam müsste man mich für den Support hier bezahlen... :d
 
Zuletzt bearbeitet:
@Cippoli: du könntest hier langsam auch einfach mal copy paste betreiben, schreibst doch im großen und ganzen quasi immer dasselbe :P

... weil alle dasselbe fragen xD
 
Zuletzt bearbeitet:
Naja, jetzt reden alle um irgendwelche theoretischen Fakten und Versprechungen, obwohl man die Teile in 10 (oder sogar 5) Jahren in irgendwelchen Retrorechnern wiederfindet. Dann hat man nämlich 10TB gleich auf dem Mainboard gelötet. Alle Lebensdaten hat man dann in einem kleinen 3D-Speicher :fresse2:
 
Frage an SSDfix:

Was wird unter den verkäuferspezifischen IDs E9 und EA ausgelesen?

ssdihho.png


EA dürften die Host-Writes sein. Aber was zeigt E9 an?
 
Habe jetzt die OCZ Vertex 180GB und zwei Fragen:

1: Kann ich sehen ob 25er oder 34er? Firmware is 1.28 und Win sagt mir in den Eigenschaften 167 GB freier Speicher.

2: Da ich die als zweite Platte dran habe (um bischen zu schauen) kann ich ja nicht AHCI im BIOS einschalten da dann mein Win von der Magnetplatte nicht bootet. Jemand ein Tipp. Den so wie es zur Zeit ist, ist die OCZ grottenlangsam.
 
1032 beiträge und du weißt immernoch nicht wie die suchfunktion hier im Forum funktioniert?

@Cippoli

Ich glaube nicht das SSDFix dir das beantworten kann

Bei den Samsung kannst dir aus den Smart werten noch weniger zusammen reimen ^^
 
Zuletzt bearbeitet:
Habe mal auf die Platte geschaut,, hat wie in dem Test aus dem Link ein E in der PN Nummer. Ist wohl eine 25nm. Da muss ich jetzt noch mal drüber schlafen, ob ich die behalte.

p.s.: Die Sufu nutze ich hier sehr oft ;)

---------- Beitrag hinzugefügt um 23:50 ---------- Vorheriger Beitrag war um 23:20 ----------

hmm...die Werte sind echt nicht so berauschend...

ass_ocz_180gb_copy_001771r.jpg


crystal_ocz_180gb_001e7zr.jpg


Da sehen die Werte der P3 irgendwie ansprechender aus...

p3_128_16gb_1600_4400_u7ji.jpg


crystal_p3_00137xz.jpg
 
Zuletzt bearbeitet:
ja genau nimm die P3... wie es scheint ist für dich nur der seq wert ausschlaggebend

oder du bencht mal mit atto dann schlafst heut doch nocht gut ;)
 
Habe jetzt die OCZ Vertex 180GB und zwei Fragen:

1: Kann ich sehen ob 25er oder 34er? Firmware is 1.28 und Win sagt mir in den Eigenschaften 167 GB freier Speicher.

2: Da ich die als zweite Platte dran habe (um bischen zu schauen) kann ich ja nicht AHCI im BIOS einschalten da dann mein Win von der Magnetplatte nicht bootet. Jemand ein Tipp. Den so wie es zur Zeit ist, ist die OCZ grottenlangsam.

1. Ab einer Nutzkapazität von 180GB kann man das nicht mehr allein an der Kapazität festmachen. Die 180GB Laufwerke können entweder mit 12x 32Gbit NAND zu je 4 Dies oder mit 12x 64Gbit NAND zu je 2 Dies bestückt werden.

Die Wahrscheinlichkeit mit FW 1.28 ist aber recht groß das da 64Gbit Chips drauf sind, also 25nm.

2. http://www.hardwareluxx.de/communit...vista-ohne-neuinstallation-des-os-450538.html
 
Hallo
Ich habe die Probleme mit meiner C300 nun satt und habe Win 7 wieder auf eine HDD installiert.
Die C300 schicke ich nun nach 4 Wochen wieder zurück.
Die Probleme begannen damit als ich uaf FW 0006 geflasht habe.
Nun bin ich am überlegen was ich machen soll.
Crucial noch eine Chance geben und die c300 gegen eine neue Eintauschen?
oder es mal mit einer Sandforce Probieren ? hier schwebt mir die F120 von Corsair vor.
Scheiß auf Sata 6gb/s.
Was meint ihr?
Gibts bekannte Probleme mit der F120?
 
@Cippoli

danke für den Link, hatte ich schon gegoogelt ;)
Auch das E in der Seriennummer spricht ggf für die 25er. Muss ich mir überlegen ob ich sie trottzdem behalte.

@Pinki
Habe auch so gut geschlafen, aber grad getestet, weiß nicht was da besser wird. Schreiben ist aus meiner Sicht eher nebensächlich. Die meisten Zugriffe bei mir sind lesend und da ist die P3 selbst bei 4k schneller.
OCZ
atto_ocz_180_00117zl.jpg

P3
atto_p3_001r79w.jpg


---------- Beitrag hinzugefügt um 10:23 ---------- Vorheriger Beitrag war um 07:16 ----------

Die 160GB Variante hat laut Geizhals Info kein "E" in der Seriennummer: OCZSSD2-2VTX160G. (Vergleich 180er : OCZSSD2-2VTXE180G)
Die 180GB ja. Vielleicht ist das ja wirklich ein Indiez dafür das die 160GB noch die 34er hat.
 
hey leute... ich glaube ich habe ein problem :shake:

hatte einen bluescreen beim ersten neustart versuch kam dann *no bootable device*

smart zeigt mir jetzt bei *ausrangierte blöcke* den wert 91 an (grenzwert ist 3)

meint ihr die ssd ist defekt ? ein grund zum umtauschen ?



hat jemand vieleicht ähnliche erfahrungen gemacht ?
 
... hier schwebt mir die F120 von Corsair vor.
Scheiß auf Sata 6gb/s.
Was meint ihr?
Gibts bekannte Probleme mit der F120?

M.W. sind keine verallgemeinerbaren technischen Probleme bekannt. Einige User fühlen sich betrogen, weil bei neueren SF-SSD teilweise 25nm-Flash verbaut ist. An einem mir vorliegenden P67-Board "dp67bg" von intel läuft 'ne 120GB-SSD mit SF12xx-Controller am SATA3-Port völlig unauffällig als Systemplatte.
 
halt halt... NOCH verbaut nur OCZ 25nm, bei dir hört sich das grad sehr allgemein an, die Corsair die er sich ausgesucht hat, ist noch mit 34nm nand bestückt.
Es ist also nicht bei neueren SF SSD teilweise 25nm Nand sondern bei neueren OCZ Vertex2.
 
Vieles könnte man auch einfach in den Startbeitrag aufnehmen...

REVIEW: Vertex 2 Extended 25nm vs. 32nm

der 32nm von Hynix ist nicht so performant wie der 34nm von IM.
Mich würde mal ein direkter Vergleich von IM flash 25 zu 34nm interessieren.

Wenn es gut läuft hab ich die ersten Vorserien Muster unserer 55 und 115GB XLR PLUS mit 25nm nächste Woche da und kann man direkt vergleichen.

Bisher konnte ich nur ein 400GB SSD in 25nm mit einem 120GB in 34nm vergleichen und da war das 25nm SSD deutlich schwächer, speziell 4k Bereich.

Das ist aber auch das, wo der 32nm zu 25nm die Schwächen aufzeigt.
Inwieweit das in der Praxis relevant ist, bleibt abzuwarten.

Fakt ist, dass so langsam die letzten Lieferungen mit 34nm SSD in den Markt kommen. Ich denke ab März wird man fast nur noch 25nm Sandforce SSD sehen.
Alternative bleibt dann die Samsung 470 die ja ein Schattendasein fristet.

Intel preppt den Händlerkanal auch schon langsam für die kommenden 25nm Postville Nachfolger.
und die C400 / M4 steht auch in den nächsten 2-3 Wochen vor der Tür....
 
Zuletzt bearbeitet:
moin!

habe hier eine OCZ Vertex 2 mit FW 1.25 seit der zweiten dezemberwoche 2010, ist meine erste SSD überhaupt. und so wie ich das sehe sind die werte "01 - Raw Read Error Rate" und "C3 - On-the-Fly ECC Uncorrectable Error Count" bei vielen anderen hier ähnlich hoch.

Code:
01 - Raw Read Error Rate - 50 - 112 - 100 - 54851608 - OK: Wert ist normal
C3 - On-the-Fly ECC Uncorrectable Error Count - 0 - 112 - 100 - 54851608 - OK: Keine Fehler

kann mir jemand mehr dazu sagen?

danke!
 
Alternative bleibt dann die Samsung 470 die ja ein Schattendasein fristet.

Leider, weil die Samsung 470 ein echter geheimtip ist, allerdings ist Samsung da nicht ganz unschudig dran, wie kann man eine derartig gute SSD nicht offiziel in der EU verkaufen und damit wegen der fehlenden Garantie die kunden vom kauf abhalten.
Geht mir nicht in den Kopf.
 
Anandtech hat die Vertex 3 Pro gepreviewt in einem sehr frühen Muster mal testen dürfen und hat ein paar interessante Fakten drin.

Anand schrieb:
SandForce, like some other vendors, expose a method of actually measuring write amplification and remaining p/e cycles on their drives. Unfortunately the method of doing so for SandForce is undocumented and under strict NDA. [...]

The worst write amplification we saw was around 0.6x. Actually, most of the drives we've deployed in house came in at 0.6x. In this particular drive the user (who happened to be me) wrote 1900GB to the drive (roughly 7.7GB per day over 8 months) and the SF-1200 controller in turn threw away 800GB and only wrote 1100GB to the flash. This includes garbage collection and all of the internal management stuff the controller does.
(Hervorhebung von mir)
Sollten diese Zahlen stimmen, wäre das in der Tat ein verdammt gutes Ergebnis. Hätte ich so gut nicht erwartet.

Fakten zur Vertex 3 Pro:
  • 25 nm-Flash )(Vorserienmodell hat noch 34 nm-Flash)
  • 8k-Pages (wie das Vorserienmodell)
  • 256 GiB Flash verbaut im 200 GB-Modell, welches dann 186 GiB hat, möglicherweise wird es Varianten mit mehr Kapazität (und weniger Spare-Area) geben
  • IOMeter 4k-RandomRead mit QD3 und Zuffalsdaten: 148,3 MB/s
  • Geringer Einbruch nach Belastung
  • an einem SATA 6Gbps-Anschluß derzeit praktisch die schnellste SSD

Negative Punkte:
- Vorserienmodell mit 34-nm-Flash
- Enterprise-Modell mit Preisen von um 4 $ je GB

Was ich auch bemerkenswert fand: der AS SSD-Benchmark wird benutzt.

Aus den Kommenatren dort ein Tool: HDD LED - zur Überwachung der täglichen Schreibleistung.

Nachtrag: Jaja, falscher Thread, habe ich auch grad gesehen.

mfg
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh