PCIe 4.0 für die Mittelklasse: Western Digital stellt die WD_BLACK SN770 vor

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
western-digital-logo.jpg

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
weil jemand der das 500dste selbe produkt raushaut anstatt mal was neues zu machen ein spinner ist.
 
weil jemand der das 500dste selbe produkt raushaut anstatt mal was neues zu machen ein spinner ist.

Die machen das schon richtig.
die 850er 1 TB liegt bei um die 140-150 Euro mit 7000 mb/s lesen 5000 mb/s schreiben.
die 770 1 tb wird ca 100 Kosten halt nur mit 5000 mb/s lesen 2000 mb/s schreiben.
 
die sollen lieber mal die zugriffszeiten™ senken ;)
Für 99% würde schon eine PCIe 3.0 / 4.0
mit 2000MB/s (schreiben und lesen) dicke
reichen.
Am besten eine, die nicht nach 200-500GB schreiben drosselt / in Flammen aufgeht :shot:
 
Für Normalo tut es die Zugriffszeit. Mit der Schreibleistung hat der null Probleme.
 
Für 99% würde schon eine PCIe 3.0 / 4.0
mit 2000MB/s (schreiben und lesen) dicke
reichen.
Stimme ich so zu ~80%. 2000 MB/s Schreiben reicht locker. 3000 MB/s Lesen vielleicht, aber auch nur als Richtwert, da sind tatsächlich eher die Latenzen und die 4K/Random-Leseleistung wichtiger. 4K so bei 60-70MB/s reicht meistens schon (in Wirklichkeit ist 16K/64K random für Zocker fast noch wichtiger, aber diese Werte sind meist ebenfalls hoch, wenn 4K-Leistung gut ist).
Am besten eine, die nicht nach 200-500GB schreiben drosselt / in Flammen aufgeht :shot:
In Flammen gehen sie nicht auf wenn man wenigstens halbwegs gute Kühlung hat. Mainboard-eigener oder ein billiger Flachkühler für 9 Euro reichen meistens dicke. Und nach 200-500GB Schreiben drosseln sie meist sowieso, das aber nicht wegen Überhitzung, sondern weil der pSLC-Cache ausgeht. Aber für die meisten sind ca. 100GB pSLC schon mehr als genug.
 
Am besten eine, die nicht nach 200-500GB schreiben drosselt / in Flammen aufgeht :shot:

Einfach auf die M.2 ein Wasserkühler. Meine neue Corsair NVMe wird keine 60c warm unter Last.

Zugrifsszeiten sind mir auch wichtig, gerade die 4K IOPS machen da was aus. Deswegen schaue ich eher auf hohe IOPS als auf serquenziele lese und schreibwerte.
 
Zuletzt bearbeitet:
die sollen lieber mal die zugriffszeiten™ senken ;)
Das ist aber nicht so einfach, dazu muss die Latenz des Mediums gesenkt werden und dies kostet. Samsung hat ja mit dem Z-NAND sowas gemacht, aber das ist SLC NAND mit kleinen Pagegrößen und entsprechend teuer, ebenso wie 3D X-Point teuer ist und am Ende ist das eben eine Nische, während die Masse der Käufer vor allem auf die Kapazität und den Preis schaut.

Stimme ich so zu ~80%. 2000 MB/s Schreiben reicht locker. 3000 MB/s Lesen vielleicht
Wie oft kommt die SSD denn wirklich auf 3000MB/s beim Lesen? Dazu muss man nämlich schon ein paar parallele und lange Zugriffe haben um diese aus einer SSD kitzeln zu können und die kommen eben längst nicht dauernd vor, sondern sind meist sogar die Ausnahme.

Zugrifsszeiten sind mir auch wichtig, gerade die 4K IOPS machen da was aus. Deswegen schaue ich eher auf hohe IOPS als auf serquenziele lese und schreibwerte.
Die Zugriffszeiten bei sieht man ja auch am Besten anhand der 4k QD1 Lesend, denn z.B. der Test der Zugriffszeit bei AS-SSD ist buggy, da einmal mit nur 512 Byte Zugriffen gearbeitet wird, während die allermeisten SSDs aber auf 4k Zugriffe optimiert sind und zum anderen wird bei dem Test nicht darauf geachtet ob dort gelesen wird, auch gültige Daten stehen, aber nur dann kann und muss der Controller Daten aus dem NAND lesen, was entsprechend lange dauert. Stehen da keine gültigen Daten, dann muss er nur auf die Mappingstabelle zugreifen, sieht dass da kein Eintrag für die Adresse drin steht und gibt einfach Nullen zurück. Daher hängt der Wert den AS-SSD ausgibt, stark davon ab wie voll die SSD ist und wird eben umso höher, je voller sie ist.

Vorsicht auch bzgl. der IOPS, denn bei den maximalen IOPS gilt wie bei den Leseraten, dass man diese nur mit sehr vielen, je mehr umso höher der Wert im Vergleich zu den 4k bei QD1 ist, parallelen Zugriffen aus der SSD kitzeln kann. Aber bei Heimanwendern sind schon 4 parallele Zugriffe eher die Ausnahme und selbst wenn sie bei 4k QD1 dann mit 80MB/s liest, was nur die Besten schaffen (oder die mit Phison Controller mit extrem komprimierbaren Daten), was 20.000 IOPS sind, ist alles ab 100.000 IOPS lesend mehr als ausreichend, ob maximal 200k, 500k oder 1 Mio IOPS gelesen werden können, macht Null Unterscheid. Daher ist eine SSD die zwar nur 100k IOPS hat aber bei 4k QD1 mit 100MB/s liest, wobei der letztere Wert aber leider in kaum einem Datenblatt stehen wird, viel besser als eine die vielleicht 1 Mio IOPS lesend schafft, aber bei QD1 nur 50MB/s erreicht, weil ihre Latenz viel höher ist.
 
Wie oft kommt die SSD denn wirklich auf 3000MB/s beim Lesen? Dazu muss man nämlich schon ein paar parallele und lange Zugriffe haben um diese aus einer SSD kitzeln zu können...
Warum braucht man dazu viele parallele Zugriffe? QD1 reicht doch auch? Und da haben meine SSDs locker auch 4000, sogar 5000 und mehr. Reicht doch einfach von A nach B was zu kopieren, oder nicht?🤔
 
QD1 reicht doch auch?
Schau Dir die sequentiellen Werte schneller SSDs bei AS-SSD mit nur einem 16MB langen und die von CDM mit 8 parallelen Zugriffen über ja 8GB (also insgesamt nur halb so viel) an, letzere sind immer höher und teils deutlich und dann vergleich das mit CDM und 32 parallelen Zugriffen über ja nur 128k an, zusammen also nur über 4MB und die sind oft sogar noch besser. Ok, Du hast auch eine Optane 905P, bei der dürfte der Unterschied gering sein, da die sehr gut aus den Puschen kommt und 4k QD1 (je nach System) auch mehr als 200MB/s erreicht, aber meisten gelingt es AS-SSD eben nicht solche Lesewerte aus der SSD zu kitzeln wie CDM es mit mehreren parallelen Zugriffen schafft.

Besonders deutlich sieht man dies im Review Rekordjagd mit der WD_Black SN850 im RAID: An die Grenzen von PCIe4:

WD_Black_SN850_ASUS_Hyper-Card_16_AS-SSD.jpg


WD_Black_SN850_ASUS_Hyper-Card_13_CDM.jpg


Während AS-SSD mit seinem 16MB langen Zugriff auf knapp 14,6GB/s kommt, schafft es CDM mit 8 parallelen Zugriffen über 1MB auf 24,5GB/s, während ein Zugriff über 1MB eben nur reicht um 10,8GB/s aus dem RAID 0 der 4 SSDs zu kitzeln.

Reicht doch einfach von A nach B was zu kopieren, oder nicht?🤔
Das hängt davon ab mit welchem Tool man kopiert, der Explorer macht meines Wissens nach keine parallelen Leszugriffe, aber es gibt auch 3rd Party Tools die dies machen. Schau halt am Besten mit HWInfo64 und dort Sensors nach, welche Lesen- und Schreibraten die Anwendungen dann tatsächlich aus den SSDs kitzeln und meist ist es weniger als man denkt, wobei die Optane da im Alltag in einer anderen Liga spielt und bei der gleichen Anwendung die FireCuda530 oft hinter sich lassen wird, obwohl letztere laut Datenblatt eine dreimal so hohe Lesegeschwindigkeit hat.
 
Das hängt davon ab mit welchem Tool man kopiert, der Explorer macht meines Wissens nach keine parallelen Leszugriffe, aber es gibt auch 3rd Party Tools die dies machen. Schau halt am Besten mit HWInfo64 und dort Sensors nach, welche Lesen- und Schreibraten die Anwendungen dann tatsächlich aus den SSDs kitzeln und meist ist es weniger als man denkt, wobei die Optane da im Alltag in einer anderen Liga spielt und bei der gleichen Anwendung die FireCuda530 oft hinter sich lassen wird, obwohl letztere laut Datenblatt eine dreimal so hohe Lesegeschwindigkeit hat.
OK, lassen wir mal Optane weg - habe wegen der Anschaulichkeit/Report am Ende nun mit FastCopy einen 200GB Videoordner von A nach B kopiert (ist bei mir per Shell-Extension im Explorer integriert). Ging dabei anfangs mit gut 6000 MB/s los und dann immer leicht langsamer, am Ende im Schnitt grob 5500 MB/s. Dann zurück von B nach A -> 5000 MB/s.
 
im Schnitt grob 5500 MB/s. Dann zurück von B nach A -> 5000 MB/s.
Ja FastCopy macht meines Wissens nach parallele Zugriffe und kann damit schneller Lesen und auch Kopieren als der normale Explorer von Windows und die 500MB/s können die SSDs natürlich auch nur im Pseudo-SLC Schreibcache schaffen. Aber es ist eine Sache dem Explorer mit der FastCopy Shell-Extension Beine zu machen, nutzt aber auf der anderen Seite bei anderen Anwendungen nichts, da die ja ihre Zugriffe selbst machen und die werden kaum so ausfallen, dass sie wirklich Höchstleistung aus so einer schnellen SSD kitzeln können und immer nur Dateien hin und her zu kopieren, dürfte für die wenigsten hier eine so häufig vorkommende Anwendung sein, dass es sich lohnt den Rechner darauf zu optimieren.
 
Ja FastCopy macht meines Wissens nach parallele Zugriffe und kann damit schneller Lesen und auch Kopieren als der normale Explorer von Windows ...
Ja, ebenfalls Explorer mit gleichem Kopiervorgang ausprobiert - ganz kurz 3,02 GB/s gesehen, dann eher 2,8-2,9GB/s und zum Schluss 2,6, dann 2,5 GB/s...
Also kommt bei FastCopy ca. die doppelte Geschwindigkeit raus... Spitze 6GB/s, Explorer 3GB/s, Durchschnitt bei großem Transfer (200GB) - 5-5,5GB/s, Explorer 2,5-2,75 GB/s.
Um 200GB im Explorer von A nach B zu kopieren braucht man ca. 80 Sekunden, mit FastCopy ca. 39 Sekunden (einmal 37 hin und zurück 41,5 Sek.).
 
Erstaunlich, dass einfache Tools den Explorer um das doppelte beim kopieren überholen.
das war mir gar nicht so bewusst!

warum schafft es Windows 11 nicht, den Speed beim kopieren zu beschleunigen durch parallele Zugriffe?

ich suche noch eine ssd für ein 11. habe ne einfache nvme 256gb. Dann noch eine 980 1tb da. Fühlt man da nen unterschiedbeim Austausch der ssd?
 
Ninja die kopieranzeige war noch nie genau.
gerade bei win11 hätte ich gedacht, dass sich das mal ändert. Gibt es alternativen mit einigermaßen ansprechendem ui?
 
wahrscheinlich hält das MS für unnötig...:rolleyes2:
Die legen bei Windows offenbar den Fokus lieber auf optische Features, also Dinge die cool aussehen als auf die Funktionalität und Performance.
Ninja die kopieranzeige war noch nie genau.
Die Kopieranzeige beruht auf dem gelesenen Datenvolumen und der Explorer nutzt sonst unbelegtes RAM als Puffer, weshalb die Geschwindigkeit am Anfang immer die Lesegeschwindigkeit ist und wenn das Ziel die Daten nicht so schnell schreiben kann wie die Quelle sie liefert, dann fällt die Anzeige auf die Schreibgeschwindigkeit ab, sobald der Puffer voll ist. Die angezeigte Geschwindigkeit kann dann aber fallen, sogar bis auf 0, wenn ein anderes (Hintergrund-)Programm mehr RAM braucht und der Explorer den Puffer verkleinern muss oder auch steigen, wenn mehr RAM frei geworden ist und er seinen Puffer vergrößert, obwohl in Wahrheit mit konstanter Geschwindigkeit geschrieben wird. Deshalb scheint der Kopiervorgang auch schon abgeschlossen zu sein, aber nicht enden zu wollen, wenn am Ende alles gelesen wurden und nur noch die Daten aus dem Puffer geschrieben werden.
 
Danke für die aufklärung.
Da ich demnächst einige tb con a nach b schieben muss, wäre ich dankbar über einen tipp als alternative zum explorer.
Möglichst wo die oberfläche nicht ganz so knochig aussieht.

Am besten ein programm, was mit win11 als auch macos funktioniert.

Hatte mal ne zeit lang totalcommander genutzt. Aber auch antiquitiert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh