Corsair Force GS 240GB - Läuft unter seinen Möglichkeiten! Warum?

Die Verzögerungen in der Bootsequenz wird mit der Samsung sicher nicht verschwinden. Bzgl. der Transferraten habe ich nochmal genauer recherchiert. Demnach gibt es ein weiteres Modell, dass eine Beschränkung beim seq. Lesen auf ca. 400 MB/s aufweist - die Sandisk Extreme 120GB. Die Besonderheit dieses SSD ist die Bestückung mit 4 32GiB statt 8 16GiB Flash-Bausteinen und die damit verbundene unvollständige Ausnutzung der 8 Kanäle des Controllers. Die Corsair GS wurde bisher auch mit Bausteinen von Sandisk ausgestattet. Mir scheint es daher nicht ausgeschlossen, dass die GS durch eine Umstellung von 24nm-Sandisk- auf 19nm-Sandisk-Toggle-NAND statt Vollbestückung mit 8 32GiB nur noch halbe Bestückung mit 4 64GiB hat und infolge dessen nicht mehr ganz die bisherige Leistung erreicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Er hat aber die 240GB GS und bei 240GB sollte es schon möglich sein alle 8 Kanäle zu bestücken, ebenso wie bei 120GB, denn die NAND Dies haben ja weiterhin nur 64Gigabit also 8 GiB. Selbst bei 128Gigabit Dies sind das 16GiB und somit braucht man immer noch 8 Dies, kann also 8 Chips mit je nur einem Die dort verbauen und so alle Kanäle belegen. Es dürfte aber schlicht zu teuer sein Chips mit wenigen Dies darin zu nehmen, zumal bis zu 8 Dies einem Chip Platz untergebracht werden können und das Packaging dann kaum teurer sein dürfte als wenn man nur ein oder 2 Dies verwendet.

SanDisk macht das mit den 4 Kanälen aber sowieso gerne, die Ultra Plus und diese "MediaMarkt" SanDisk (ohne Modellnamen) haben auch nur so winzige Platinen mit 4 NAND Chips darauf, selbst bei den 256GB Modellen. Es ist also durchaus möglich, das Corsair den gleichen Weg gegangen ist.

Intel hat die Modellnummern für die SSDs mit dem 20nm NAND geändert und OCZ der Vertex3 den Zusatz .20 verpasst, aber schon vor einem Jahr die Angabe zu den NANDs in den Datenblättern fast aller SSDs von 25nm MLC auf 2xnm MLC geändert, also entweder die Umstellung früh vorweggenommen oder auch schon vorher Modelle ohne den Namenszusatz mit den neuen 20nm NANDs bestückt. Generell würde ich aber bei allen Sandforce SSDs deren Hersteller keine konkreten Angaben über die Strukturbreite der NANDs machen davon ausgehen, dass diese auf die neuen NANDs umgestellt wurden oder werden, was eben zu Änderungen in der realen Performance führen kann.
 
So, die Samsung 840 Pro 256GB ist eingebaut und bin in den letzten Zügen frische Installation + Treiber und Updates abgeschlossen zu haben.
Erste Benchmarks z.B. mit AS SSD Benchmark sind schon deutlich vielversprechender, Seq. Lesen 500+ MB/s und Schreiben 400+ MB/s um ein Beispiel zu geben.

Nun stelle ich mir wieder die Frage: Macht es immer noch Sinn sich diesen Windows 7 SSD Guides (wie z.B. hier) zu widmen bzgl. Optimierungen oder kann man solche mittlerweile (oder zumindest bei einer frischen Installation) getrost links liegen lassen? Wenn es Sinn macht, werde ich die Dinge gerne anpacken, so ist nicht...
 
Zuletzt bearbeitet:
Der Guide ist aus Anfang 2011. Windows7 stellt quasi alles wichtige ein, von daher lass es so, wie es ist und erfreue dich an der Leistung.
 
Lass die Finger von diesen "Optimierungen", einzig das Deaktivieren des Ruhezustands (wenn man den wirklich nie nutzt und auf einem Desktop) oder das manuelle Eintellen der Auslagerungsdatei auf 2GB (wenn genug RAM vorhanden und diese daher ebenfalls nicht wirklich genutzt wird) machen Sinn. Ganz deaktivieren sollte man das Pagefile aber nicht und es auch nicht auf eine HDD auslagern.
 
Aus Interesse: Weshalb gerade 2GB als Auslagerungsdatei?

Und bei 16GB verbauten Arbeitsspeichern im System und eigentlich keiner Nutzung an Programmen mit solch ausgeprägter Speicherauslastung (wird eigentlich nur mit gespielt und vielleicht noch ein wenig gestreamt), macht es da nicht Sinn auf die Auslagerungsdatei komplett zu verzichten? Oder ist das auch nicht zu empfehlen!?
 
Windows verwendet die Auslagerungsdatei um Speicherbereiche zu verschieben und wenn mal ein großer Block angefordert wird, der so am Stück nicht verfügbar ist, dann kann ohne Auslagerungsdatei die Anfrage nicht befriedigt werden, selbst wenn in Summe noch mehr als genug freier Speicher verfügbar ist. Je länger der Rechne ram Stück läuft, umso relevanter wird diese Punkt. 2GB sollte damit also eine ausreichende Reserve selbst zum Verschieden größerer Speicherblöcke bieten.

Außerdem gibt es ohne Auslagerungsdatei zuweilen bei einigen Programmen Probleme und es gibt bei einem Bluescreen auch keine Dumpfiles, denn die können nie größer als die Auslagerungsdatei sein. Je nach Art des gewünschten Dumps braucht man also auch immer eine entsprechend große Auslagerungsdatei und ohne einen Minidump ist die Diagnose von BSOD Ursache halt auch schwer.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh