HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.945
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Das kommt noch oben drauf, aber der DRAM Cache einer SSD ist vor allem für die Verwaltungsdaten und da vor allem für die Mappingtabelle und deshalb i.d.R. auch proportional zu Kapazität, idealerweise 1GB RAM pro 1TB Kapazität. Die MX500 4TB hat nur ein Achtel davon und kann daher nicht die ganze Mappingtabelle in DRAM halten (sondern eben nur genug für einen Adressraum von rund einem Achtel) oder muss sie anderes organisieren, etwas mit einer gröberen Auflösung von nur 32k statt 4k, in beiden Fällen fällt die Performance bei den 4k IOPS ab, weil sie entweder oft Teile der Mappingtabelle aus dem NAND nachladen muss oder eben intern mit 32k arbeitet und bei 4k Lesend dann 32k aus dem NAND gelesen und davon nur 4k weitergereicht werden, wobei ich ersteres vermute, da SMI ja 1GB RAM pro 1TB Kapazität empfiehlt:Hier wird völlig ignoriert, dass die höhere Latenz nicht unbedingt am RAM liegt, sondern der Controller eventuell schlicht und einfach zu viele TB Speicher (bzw CEs) dran hat.
sondern eben nur genug für einen Adressraum von rund einem Achtel
Eine flache Tabelle ist aber nun einmal von der Performance her die optimale Organisation einer Mappingtabelle, liews mal dies hier und die folgende Seite. Dann sollte klar sein, wieso ein direkte Mappingtabelle für die Performance optimal ist, nur eben entsprechend viel DRAM braucht. Die andere Alternative ist die Auflösung der Mappingtabelle zu verringern, statt also alle 4k nur alle 32k einen Eintrag zu machen, wie es hier beschrieben ist, aber auch dies hat Performancenachteile, wie man dort auch nachlesen kann.1GB pro TB ist ja sozusagen nur das ganz stumpfe Ablegen der Mappingtabelle, ohne dass es auf Software- (=Firmware-)Seite besonders optimiert ist.
Nur gibt es eben bei SATA kein HMB, dies ist nur bei NVMe SSDs möglich und auch da ist der HMB relativ klein und erlaubt es nur einen Teil der Mappingtabelle zu cachen, was dann den Adressraum vergrößert über den zugegriffen werden kann, bevor Teile der Mappingtabelle aus dem NAND nachgeladen werden müssen, was entsprechend lange dauert und damit die Latenz massiv steigen lässt. Anandtech hat dies mal getestet:SSDs mit HMB verwenden im Vergleich zu 1GB pro TB auch nur ein paar popelige Megabytes RAM und haben damit trotzdem enorm gesteigerte Performance vs DRAMless.