Western Digital WD_Black AN1500 im Test: gelungene PCIe4-Alternative

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.147
western_digital_wd_black_an1500_03.jpg
Als Spezialist für Massenspeicher kommt Western Digital mit der WD_Black SN850 bereits vergleichsweise spät zur PCIe4-Party. Doch neben der Ankündigung der SN850 überraschte WD vor allem mit der Ankündigung der WD_Black AN1500, einer SSC-Add-In-Karte, die mittels RAID und acht PCIe3-Lanes auch Nutzern abseits moderner AM4-Mainboards die größtmögliche Speicherbandbreite zur Verfügung stellen möchte. Wie gut das klappt und ob damit tatsächlich eine PCIe4-Alternative besteht, klären wir wir gewohnt in unserem Review.

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Problem dieses Teils: Wer hat schon PCIE-3x8 wirklich frei. Bei Mainstream Boards wird man da in der Regel die Lanes der GPU klauen müssen.
 
Ja, ein Einsatz ist sicherlich stark vom verwendeten Mainboard abhängig - war ja im Artikel ebenso, wobei hier immerhin x8 für zwei Slots möglich gewesen wäre.
 
X399, TRX4, 2066 "Mainstream" ist immer eine Ansichtssache.
 
Denke das Teil ist auch mehr für den Semi-Profi bereich wer eine GPU höchstens zum Rendern und der gleichen drin hat. Da machen die 8 lanes für die GPU nichtmal einen messbaren Unterschied.
 
Wäre es nicht besser einen simplen M.2 auf PCIe 4.0 Adapter rauszubringen? Da der abwärtskompatibel zu PCIe 3.0 wäre, bräuchte man auch hier nur einen x8 Slot oder kann man die x4 von der M.2 nicht auf x8 verteilen?
 
X399, TRX4, 2066 "Mainstream" ist immer eine Ansichtssache.
Auf TRX4 wäre ja PCIe4 ggf. sowieso die bessere Alternative - wenn man so will, bieten sich eher die HEDT-Intel-Plattformen an...
 
Danke, das ihr das mal testet. Ich habe mir gerade eine Samsung PM1735 MZPLJ6T4HALA (6,4tb/8gb/s lesend) bestellt. Die Informationen sind sehr spärlich hierüber. Es gibt keinerlei Tests. Vielleicht besteht ja hier Interesse. Ich kann die SSD ja mal durch den ein, oder anderen Benchmark jagen.
 
Ich aus dem Fazit nicht schließen weshalb du der ssd den Technik-Award verliehen hast.
Bis auf die sehr hohe sequenzielle Datenrate beim Lesen, befindet sich die ssd meist im Mittelffeld und kostet obendrein noch viel.

"Zwar ist der vermeintliche SLC-Cache denkbar klein, doch eine Dauerleistung in der Größenordnung jenseits der 3 GB/s messen wir sonst nur bei SSDs während der SLC-Phase und nicht danach."
Überlesen oder wo finde ich den Abschnitt im Test? Auf der Seite "Belastungstest" unter Transferrate in MB/s?
500 MB/s nachdem der slc-cache voll ist?
 
Ich verstehe nicht wo das Problem bei SSDs ist. Keine der SSDs genehmigt sich mehr als x4 PCIe und selten kommt Mal wer über die 3,5gb/s. Wo bleiben die x16 PCIe 4.0 SSDs? Kein Raid und so ein Schwachsinn, einfach eine Festplatte, 4TB und Datenraten jenseits von Gut und Böse.

Ist das technisch wirklich nicht machbar? Oder würde es die Hersteller zu viel kosten? Angeblich unterscheiden sich ja die Kosten für flashspeicher (SLC,MLC,TLC,etc.) Nicht sonderlich voneinander, lediglich die Preise für die Controller und das man mehr Chips für die gleiche Menge Speicher braucht.

Falls wir bei SSDs schon das Ende der Fahnenstange erreicht haben sollten, wäre das wirklich traurig.
 
Ich verstehe nicht wo das Problem bei SSDs ist. Keine der SSDs genehmigt sich mehr als x4 PCIe und selten kommt Mal wer über die 3,5gb/s. Wo bleiben die x16 PCIe 4.0 SSDs? Kein Raid und so ein Schwachsinn, einfach eine Festplatte, 4TB und Datenraten jenseits von Gut und Böse.

Ist das technisch wirklich nicht machbar? Oder würde es die Hersteller zu viel kosten? Angeblich unterscheiden sich ja die Kosten für flashspeicher (SLC,MLC,TLC,etc.) Nicht sonderlich voneinander, lediglich die Preise für die Controller und das man mehr Chips für die gleiche Menge Speicher braucht.
Technisch machbar ist vieles und sicherlich mehr als wir bei Consumer- oder gar Enterprise-SSDs sehen. Doch die Frage ist sicherlich, ob es denn einen Markt dazu gibt, denn die Preise würden sich dazu sicherlich exponentiell verhalten. Eine Diskussion dieser Art gab es vor einer Weile ebenfalls unter einem Review. Die Frage war, warum SATA(3) immer noch aktuell ist und keinen Nachfolger erhält. Meine Vermutung ist, dass es einfach keinen Grund gibt, die Schnittstelle abzulösen oder zu weiterentwickeln. Schauen wir uns die Benchmarks an, egal ob synthetisch oder eben alltagsnah - selten, dass ein Interface limitiert (und wenn, ist mit NVMe bereits die passende Lösung vorhanden, selbst mit Gen3 x2). Wann und in welchem Use-Case wäre denn eine SSD interessant, die PCIe4 x16 nutzt? Oder überhaupt x8 oder x4? Von wo sollen die Daten warum und wohin so schnell geschrieben oder gelesen werden?
Ein gutes Beispiel ist für mich immer das Laden von Spielen oder als krasses Gegenteil Datenbanken: im ersten Fall limitieren ganz andere Komponenten als dass es die SSD jemals sein könnte. Und bei Datenbanken lesen wir so extrem willkürliche kleine Anfragen, dass die Bandbreite wirklich Null Einfluss hat.
 
Ein Fiptehler....
 
Wo bleiben die x16 PCIe 4.0 SSDs?
Wenn es irgendwann einen Markt dafür gibt, wird es auch Hersteller dafür geben. Da 99,9 der derzeitigen Anwendungen keinen nennenswerten Vorteil aus der höheren Datenrate ziehen gibt es noch keinen Markt dafür.
Die Frage war, warum SATA(3) immer noch aktuell ist und keinen Nachfolger erhält. Meine Vermutung ist, dass es einfach keinen Grund gibt, die Schnittstelle abzulösen oder zu weiterentwickeln.
Ja richtig. Solange HDDs nicht an Grenzen der Übertragungsrate der SATA Schnittstelle anschlagen , gibt es keinen Grund etwas Neues für HDDs zu benutzen. Da die Übertragungsrate in erster Näherung mit der Quadratwurzel der Datendichte der Platte geht ist da die Grenze in etwa erreicht bei etwa 100TB Plattengröße ( mit 5 Plattern).
Eine Weiterentwicklung bezüglich Datenrate würde neue, teurere Stecker,Buchsen und Kabel erfordern (wie es auch bei SAS-12G der Fall war ). Da kann man als erprobte Ablösung auf PCIe/NVMe umschwenken.
 
Zuletzt bearbeitet:
Auf der Suche nach einer schnellen SSD für einen komplett neu aufzubauenden PC bin ich bei der WD AN1500 gelandet.
Geplant ist der Kauf eines X570s-Boards mit einer 5900x-CPU.
Privater Einsatzzweck ist Dual-Boot Windows10/Linux, kein Gaming-PC. Die Grafikkarte wird im PCIe-x4-Slot sitzen, sodass theoretisch zwei AN1500-Karten mit je PCIe-x8 genutzt werden könnten.
Der IO-intensivste Vorgang ist der build von Android/LineageOS-ROMs mit ca. 100 GB Schreibvolumen pro Durchlauf. Durch die vielen CPU-Cores (später kommt ein 5950x zum Einsatz) vermute ich, dass ein hoher iops-Wert beim Schreiben besser ist als hohe sequenzielle Transferraten und mir eine PCIe-4.0-SSD deshalb keinen großen Vorteil bringen wird.

Meine Frage nun ist, ob ich u.a. wegen der Testergebnisse hier in der grünen Linie dieser Grafik
V2AgaZ3FUEMaCDDMCNZ6Qi-970-80.png.webp


bei der WD AN1500 in der 2TB-Version richtig liege, denn auch dieser Test kommt zum Ergebnis:
Zwar ist der vermeintliche SLC-Cache denkbar klein, doch eine Dauerleistung in der Größenordnung jenseits der 3 GB/s messen wir sonst nur bei SSDs während der SLC-Phase und nicht danach.
 
Durch die vielen CPU-Cores (später kommt ein 5950x zum Einsatz) vermute ich, dass ein hoher iops-Wert beim Schreiben besser ist als hohe sequenzielle Transferraten
Zwar mag das Building Multi-Threading fähig sein, aber das Schreiben wird denke ich ganz normal sequentiell erfolgen. Davon abgesehen sprechen wir hier vermutlich nur von Sekunden, die du durch eine PCIe 4.0 einsparst, da in der Regel die CPU die Daten gar nicht so schnell berechnen kann wie die SSD sie verarbeiten könnte.

Wie gut skaliert das überhaupt auf die Kerne? Eventuell wäre der i9-10600 die bessere Wahl, weil du dann keine dGPU benötigst?!

Es gibt von Supermicro übrigens einen PCIe auf Dual M.2 Bifurcation Adapter. Das setzt aber voraus, dass dein Board diese Aufteilung (ein X16 Slot wird zu 2x X4) unterstützt. Dann könnte die GPU einen X8 Slot der CPU nutzen und müsste nicht den Umweg über den X4 vom Chipsatz machen.

Bleibt es eigentlich bei Dual Boot? Ich frage weil mit Proxmox/unRAID könntest du dir einen Server mit zig verschiedenen VMs voll machen.
 
Nutzern abseits moderner AM4-Mainboards
Absteits von AM4 bietet neben den TR3000ern auch Intels Rocket Lake PCIe 4.0 Lanes, sogar 4 für eine SSD zusätzlich zu den 16 für die Graka.
Wäre es nicht besser einen simplen M.2 auf PCIe 4.0 Adapter rauszubringen? Da der abwärtskompatibel zu PCIe 3.0 wäre, bräuchte man auch hier nur einen x8 Slot oder kann man die x4 von der M.2 nicht auf x8 verteilen?
Aber dann bräuchte man einen teuren PCIe Lane Switch (aka PLX Chip) für PCIe 4.0.

Wo bleiben die x16 PCIe 4.0 SSDs? Kein Raid und so ein Schwachsinn, einfach eine Festplatte, 4TB und Datenraten jenseits von Gut und Böse.
Erstens braucht man dann sehr viele lange und dazu einige solcher Zugriffe parallel um überhaupt hohe Transferraten zu erreichen oder eben ein schnelleres Medium als NAND Flash, wo derzeit nur 3D XPoint in Frage kommt und Micron hatte schon genau so eine SSD gebaut, Micron X100. Aber die wurde wieder eingestellt nachdem ein paar Partner sie schon erhalten hatten:
Es scheint keine Nachfrage danach gegeben zu haben, sonst hätte man es ja nicht eingestellt.

Angeblich unterscheiden sich ja die Kosten für flashspeicher (SLC,MLC,TLC,etc.) Nicht sonderlich voneinander
Wer behauptet denn den Blödsinn? Die Kosten für NAND hängen vor allem von der Chipfläche und mit 3D NAND auch der Anzahl der Layer ab, bei SLC speichert man dann nur ein Bit in einer Zelle und bei MLC 2, bekommt also die doppelte Kapazität aus dem gleichen Die und damit halbieren sich die Kosten pro Gb. Bei TLC speichert man 3 Bit in einer Zelle, hat also 50% mehr Kapazität bei der gleichen Anzahl an Zellen und damit spart man also gegeüber 2bpc ein Drittel der Kosten und bei QLC mit 4 Bit pro Zelle spart man gegenüber TLC immer noch 25% ein. Dies sind theoretische Werte, praktisch ist es wegen mehr Aufwand für zusätzliche ECC etwas weniger, aber wer behauptet die Kosten für SLC, MLC, TLC oder QLC würden sich nicht sonderlich unterscheiden, der hat etwas ganz grundlegendes über NAND nicht verstanden.
 
Wie gut skaliert das überhaupt auf die Kerne?
As of June 2021, Google is using 72-core machines with 64 GB of RAM internally, which take about 40 minutes for a full build [...].
By contrast, a 6-core machine with a similar amount of RAM takes 3 hours.
Mit einer Ryzen 3900X-CPU sind diese 40 Minuten auch zu erreichen: https://www.vulnano.com/2020/06/aosp-build-time-on-ryzen-9-3900x.html
Ich nutze derzeit einen i7-3770S (4c/8t) mit 32GB RAM und einer Intel S4610 SATA 6GB-SSD , der build dauert 2h 20m, wenn ich die Maschine ansonsten in Ruhe lasse...
Mit dem 5900x, und später dem 5950x, erhoffe ich mir, dass ich neben dem Android build die Maschine noch anderweitig vernünftig nutzen kann.
EDIT: Hier gibt es einen ähnlichen Vergleich zwischen dem 5950x und einer i7-3770 CPU: https://blogs.embarcadero.com/amd-r...a-million-lines-of-delphi-code-in-12-seconds/

Bleibt es eigentlich bei Dual Boot?
Ja, meinen Server habe ich vor Kurzem erneuert, hier geht es nur um die Workstation und die Frage nach einer geeigneten SSD, welche viele kleine Dateien schnell wegschreiben kann.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh