Toshiba TR200 SSD mit 3D-BiCS-Speicher im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.134
teaser.jpg
Die Toshiba TR200 verzichtet erstmals auf den OCZ-Namenszusatz und soll ein attraktives Paket für den Einstiegsmarkt sein. Dazu setzt Toshiba auf den neusten 3D-TLC-Speicher, der den Namen "BiCS Flash" trägt. Als Produkt für den Einstiegsmarkt steht bei der Toshiba TR200 das Preis-/Leistungsverhältnis an wichtigster Stelle – doch auch beim Stromverbrauch soll die TR200 punkten können. Wie sich Toshibas Neuling gegen die Konkurrenz schlägt untersuchen wir in diesem Artikel.Nachdem Toshiba durch den Kauf von OCZ seine Position im Endkundenmarkt deutlich stärken konnte, sieht man nun...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Reichlich teuer für die gebotene Leistung, würde ich mal sagen.
 
Die 4k Werte bei AS-SSD die deutlich über den Werten von CrystalDiskMark bei thessdreview (schade das HL den Benchmark nicht verwendet) liegen, outen den Toshiba Controller als Phison. Obwohl auch der Sandforce ja eine Datenkompression hat, konnte der bei nur 4k kurzen Zugriffen nicht wirklich von dem Bug in AS-SSD profitieren, der bewirkt das nur etwa 70% der Daten die bei 4k (QD1) gelesen werden, wirklich nicht komprimierbar, während die restlichen 30% extrem komprimierbar sind. Die aktuellen Phison Controller können dies aber sehr wohl, wie man auch sieht wenn man mit CDM mal mit Fill und mal in der Standardeinstellung mit nicht komprimierbaren Daten bencht. Eigentlich liegt der Wert dann immer etwa höher als bei AS-SSD, weil AS-SSD eben die Mittelwerte und CDM die Spitzenwerte anzeigt, aber wenn es umgekehrt und der Vorsprung auch noch so deutlich ist, so ist dies typisch für die Phison Controller.

Wie die Werte bei IOMeter ausfallen dürfte gerade bei den DRAMless SSDs sehr davon abängen über was für einen Adressraum gebencht wird und natürlich wie hoch die Kapazität ist. Die 8GB über die mit IOMeter häufig nur gebencht wird, zwingen die Controller in aller Regel nämlich nicht ständig andere Teile der Mappingtabelle ins das knapp bemessene interne SRAM zu schaufeln, womit sie dann eben immer noch gute Werte erzielen. Wird aber über einen großen Adressraum gebencht, was ja eher dem Alltag entspricht, denn wer nutzt schon nur 8GB von seiner SSD, dann bricht die Performance solcher DRAMless SSDs eben stark bis sehr stark ein. Einzig bei der Leistungsaufnahme haben die dafür einen Vorteil, denn das DRAM braucht eben auch einiges an Energie, nur wird dieser gerade für den Einsatz im Desktop total irrelevant Vorteil, dann eben mit einer viel geringeren Performance erkauft als sie mit einem DRAM Cache möglich wäre.
 
Wird aber über einen großen Adressraum gebencht, was ja eher dem Alltag entspricht, denn wer nutzt schon nur 8GB von seiner SSD, dann bricht die Performance solcher DRAMless SSDs eben stark bis sehr stark ein.
Die Frage ist nicht wie viel von der SSD belegt wird sondern wie viel in einem Moment/bei einer Aufgabe tatsächlich genutzt wird. Und da wenige Leute wohl Programme nutzen, die >>8 GB Speicherplatz belegen, ist die Beschränkung des Adressraums auf diesen Bereich für Desktop-Szenarien durchaus eine angemessene Näherung.
 
Dies ist leider nicht korrekt, denn die SSD Controller halten ja vor allem die Mappingstabelle im DRAM Cache, dies sie brauchen um aus externen Adressen auf die interne NAND Adresse zu kommen. Bei dem DRAMless SSDs passt aber nur ein kleiner Teil davon in das interne SRAM des Controllers und dieser kleine Teil kann eben auch nur einen kleinen Adressraum beeinhalten. Wird nun also von eimem Benchmark nur über 1GB gebencht, wie bei AS-SSD oder CDM in der Defaulteinstellung oder auch über 8GB wie es bei IOMeter meist der Fall ist, so reicht das SRAM in aller Regel um den dafür nötigen Teil der Mappingtabelle aufzunehmen, die Performance ist dann so gut wie bei einer SSD mit DRAM Cache.

Nur wird in der Praxis die SSD voller sein, damit erfolgen die Zugriffe des Systems über einen weit größeren Adressraum, der dafür nötige Teil der Mappingtabelle muss dann oft aus dem NAND nachgeladen werden, bevor die eigentlichen Daten aus dem NAND gelesen werden können. Dabei spielt es keine Rolle wie viel Speicherplatz ein Programm belegt, sondern nur über welchen Adressraum (LBAs) hinweg die Zugriffe eben so erfolgen und Windows greift ja auch ständig auf bestimmten Systemdateien zu, was bei Systemlaufwerken dafür sorgt, dass der Teil der Mappingtabelle der dafür gebraucht wird, dann wohl ständig im SRAM bleibt und den Platz für den Rest weiter einschränkt.

Wäre es nur ein Problem wenn ein Programm beim Start mehr als 8GB einlesen würde, so müsste der Controller der SSD ja schon vorab von gewusst und den passenden Teil der Mappingtabelle in sein SRAM geladen haben, wie sollte dies aber möglich sein?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh