Rekordjagd mit der WD_Black SN850 im RAID: An die Grenzen von PCIe4

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.149
wd_black_sn850_asus_hyper-card_teaser.jpg
Bei Hardwareluxx haben wir gerne ein Auge für ausgefallene und besonders leistungsstarke Hardware, die an die Grenzen aktueller Standards geht - oder darüber hinaus. Die Western Digital WD_Black SN850 konnte uns daher bereits im Einzeltest überzeugen, immerhin war das Limit von PCIe4 x4 greifbar. Was könnte also schneller sein als eine SN850? Richtig: vier!
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Irgendwie für den normalen Nutzer sinnlos.
Aber ich hatte ne raptor und ne velociraptor.
Und irgendwie juckt es mich in den Fingern:)

Ist das Teil mit allen 550/570-boards kompatibel oder gibt's da auch noch Einschränkungen?

Zusammen mit 3900x, 64gb RAM und ner 1050ti sollte man da ne tolle Datenbank für die ganz wichtigen Videos haben ;)
 
Normalerweise sollte die Karte auf allen Bifurcation fähigen Mainboards laufen. Denk aber dran, dass dir dann ja der X16 für die Grafikkarte flöten geht. Ich habe dieselbe Karte auf einem ASUS Strix X399-E Gaming, da läuft die Karte prinzipiell auch (natürlich nur Gen3).
Einen RAID über den Chipsatz habe ich aber noch nicht hinbekommen. Auch bei den ersten Ryzen/Threadrippern scheint es wie von Christopher im Artikel zu dem B550 beschrieben, die Einschränkung mit dem RAID nur für das Betriebsystem zu geben. D.h. einfach und entspannt wie bei Intel mal ein RAID aus zwei zusätzlcihen Laufwerken im BIOS erstellen und dann unter Windows als Laufwerk D:/ o.Ä. nutzen, ist bei AMD nicht.
Aktuell läuft bei mir die Karte als Windows-Software-RAID mit 2x BarraCuda 510 512GB SSDs bei ca. 6900/2000
Für ein Intel X299 System o.Ä. mit genug Lanes und X16 Steckplätzen ist die Karte aber ne tolle Sache denke ich.
 
Zuletzt bearbeitet:
So schön die Spitzenwerte auch sein mögen, so praxisirrelevant sind sie leider auch... zumindest für Otto-Normalos.
Das Problem ist eher, wie übliche Daten auf den Festplatten organisiert werden. Und das ist ja leider so, das man da kaum auf sequentielle Zugriffe kommt, aber nur bei diesen erreicht man diese Geschwindigkeiten überhaupt.

Das führt leider dazu, das ich in der Praxis so gut wie nix von meiner 3GB/s NVMe im Vergleich zu meiner 0,5GB/s SATA-SSD merke. Geschweige denn das sie auch nur annähernd um den Faktor 6 den sie ja eigentlich theoretisch schneller wäre, skalieren würde.
 
Wie kommt das denn das die Intel Optane bei den Anwendungsleistungen immer so krass performt? Ich hätte echt gedacht das so ein Raid NVME Verbund die Optane irgendwann mal schlagen müsste..
 
Wie kommt das denn das die Intel Optane bei den Anwendungsleistungen immer so krass performt? Ich hätte echt gedacht das so ein Raid NVME Verbund die Optane irgendwann mal schlagen müsste..
Ist doch in dem Test beschrieben, im Raid gehen die Latenzen nach oben weil eben 4 SSD gleichzeitig angesprochen werden müssen, deswegen ist eine einzelne SN850 auch schneller bei Anwendungen
u. die Optane sind auf niedrige Latenzen optimiert wodurch die da noch mal schneller ist.
 
Und das ist ja leider so, das man da kaum auf sequentielle Zugriffe kommt, aber nur bei diesen erreicht man diese Geschwindigkeiten überhaupt.
Wobei nur ein langer Zugriff auch schon gar nicht reicht, es müssen mehrere parallele Zugriffe sein! AS-SSD bencht mit einem lange 16MB Zugriff und kommt auf nicht einmal 14,6GB/s, während CDM in der 7er Version mit seinen 8 parallelen Zugriffen über je 1TB (SQE1M Q8T1) sogar sogar über 24,5GB/s kommt, also fast 10GB/s mehr, obwohl die 8 parallelen Zugriffe insgesamt nur über die Hälfte der 16MB des Zugriffs von AS-SSD gehen!
Wie kommt das denn das die Intel Optane bei den Anwendungsleistungen immer so krass performt?
Durch die geringe Latenz, die meisten normalen Anwendungen machen nur kurze Zugriffe und wenn es im Alltag eines Heimanwenders mal mehrere parallele Zugriffe gibt, sind 4 schon viel. Die maximalen IOPS die dann mit 64 oder noch mehr parallelen Zugriffen ermittelt werden, sind daher für Heimanwender auch total egal, die IOPS bei einem einzelnen Zugriff sind viel wichtiger, werden aber kaum irgendwo angegeben.

Außerdem kommt im Alltag dazu, dass die Daten halt auch verarbeitet werden müssen. Solche SSD Benchmarks lesen die Daten ja nur um zu messen wie schnell dies geht, im Alltag werden Daten aber gelesen um sie zu verarbeiten. Programmcode muss abgearbeitet werden und Daten müssen oft erst entpackt werden bevor man sie anzeigen oder sonstwie verarbeiten kann. Außer man schaufelt eben nur Dateien hin und her, aber selbst dann schaut da ggf. je nach Dateityp noch der Virenfinder drauf.

Ist doch in dem Test beschrieben, im Raid gehen die Latenzen nach oben weil eben 4 SSD gleichzeitig angesprochen werden müssen,
Die 4k (QD1) Lesend sind immer noch der besten Wert um die Latenz zu sehen, denn AS-SSD hat beim Ermitteln der Zugriffzeit Lesend zwei Bugs: Einmal wird nicht geschaut ob der gelesene LBA überhaupt gültige Daten enthält, also wirklich etwas aus den NANDs gelesen werden und und daher ist der Wert auch umso höher je voller eine SSD ist und zu anderen sind moderne SSDs auf 4k Zugriffe und nicht auf die verwendeten 512 Byte Zugriffe optimiert. Aber auch die 4k Lesend sind nicht bugfrei, so sind die Daten nicht komplett komprimiert, sondern nur zu etwa 70%, die übrigen 30% sind extrem komprimierbar, was den Phison SSDs mit Datenkompression, die können im Gegensatz zu den alten Sandforce Controllern nämlich auch bei nur 4k lange Zugriffen davon profitieren, einen Vorteil verschafft. Wenn AS-SSD also bei 4k Lesend bessere Werte als CDM ausspuckt, kann man eigentlich sicher sein, dass eine Datenkompression im Spiel ist, denn schon weil AS-SSD die Mittelwerte und nicht wie CDM die Bestwerte der einzelnen Durchläufe anzeigt, sollte es eigentlich immer andersrum sein. So wie hier, die SN850 haben ja keine Datenkompression.

Die 4k Schreibend sagen dagegen nichts über die Latenz aus, da hier die verschiedenen Puffer die Werte zu sehr verfälschen und um die Daten auf die einzelnen Laufwerke aufteilen zu können, haben RAIDs in aller Regel größere Puffer. Wie man sieht ist hier das RAID ja auch deutlich vorne, während es bei Lesen um 15% hinter dem Einzellaufwerk liegt. Dies hängt allerdings nicht damit zusammen das 4 Laufwerke angesprochen werden, bei 4k und QD1 ist dies ja auch gar nicht der Fall, die stehen ja immer nur auf einem der Laufwerke, aber damit das die globalen Adressen des RAIDs eben auf lokale Adressen der Laufwerke umgerechnet werden müssen, wobei dann auch ermittelt wird, welches Laufwerk überhaupt angesprochen werden muss.

die Optane sind auf niedrige Latenzen optimiert wodurch die da noch mal schneller ist.
Eben, die Latenz ist das worauf es bei den allermeisten Anwendungen von Heimanwendern ankommt, die meisten Leute schauen aber nur auf die maximalen Transferraten, auch wenn sie diese im Alltag praktisch nie auch nur ansatzweise erreichen werden, einfach weil die Anwendungen gar nicht so viele lange und parallele Zugriffe erzeugen damit schon eine schnellen NVMe SSD überhaupt ihre vollen Transferraten erreicht, geschweigen denn so ein RAID.

Übrigens ist der Ryzen 5 3600 im Testsystem als CPU mit 2 CCX für die Mesung von Werten mit einem Thread wahrscheinlich nicht optimal, außer der Thread ist wie bei AS-SSD fast an einen Kern gebunden, mit einem 3300X, 5600X oder 5800X könnte es da Verbesserungen geben. Es wäre mal interessant wie die AMD CPUs mit einem CCX und zwei (oder mehr, wie beim 3900 und 3950) CCX sich in den Anwendungsbenchmarks unterscheiden und wie dann Rocket Lake-S abschneiden wird. Traditionell waren die Intel CPUs ja besser um das letzte aus den SSDs zu quetschen, aber auf PCIe 4.0 muss man bei Intel halt noch etwas warten.
 
Hab ich da eigentlich einen Trend verpasst oder hat es einen triftigen Grund dass Erweiterungskarten neuerdings - teilweise deutlich - über die Höhe der Soltblende hinausgehen? In größeren Gehäusen mag das kein Problem sein, aber gerade bei Grafikkarten ist mir das unangenehm aufgefallen.
 
Zuletzt bearbeitet:
Eine ähnliche Konstellation ist bei mir in der Planung. Die Asus-Karte mit 2x 2TB NVMEs als Win-Stripeset. Die Karte werde ich im zweiten Slot einbauen als x8.
Meine 3070FE wird sich leider mit x8 statt x16 Lanes begnügen müssen (x8/x8). Keine Ahnung mit welchen Performanceeinbüßen ich bei der GPU rechnen muss, da ja nur die halbe Bandbreite zur Verfügung stehen wird.
 
Für die 2080Ti gab es x8-bedingte einbußen um 5% laut Benchmarks, hab etwas gegooglet. Mir wurde das irgendwann zu blöd mit 10G-Karte und der Aussicht auf M.2-Storage, daher wieder HEDT statt X570.
Wenn du die Karte auf einen x8-Slot packst, musst du mal schauen welche beiden M.2 Slots erkannt werden.

@Viper63 so groß ist die ASUS-Karte garnicht. Sie ragt zwar über, jedoch wirkt sie klein gegenüber der 2080Ti
 
5% könnte ich noch verschmerzen. Auf der Karte muss im x8 Modus der erste und dritte Slot belegt werden. Habe ich zumin. irgendwo auf einem Bild gesehen wo das beschrieben war. HEDT bzw TR kam leider aufgrund schwacher Single Core Performance nicht wirklich in Frage. Deshalb habe ich mich für X570 und 5950X entschieden. Aktuell habe ich alle beiden M2 Slots boardseitig verbaut. Leider viel zuwenig daher die Extentionkarte hier. Theoretisch hätte ich noch einen PCIe x4 Slot frei der über den Chipsatz läuft.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh