[Kaufberatung] 2023-09 | Die beste PCIe Gen4 SSD

Nemetron

Experte
Thread Starter
Mitglied seit
31.12.2021
Beiträge
1.130
Hallo zusammen,

hier nun der Faden, welche SSD denn nun aktuell die beste PCIE4-SSD ist. Wichtig beim Test ist auch breit zu testen. Allgemein kann man sagen, dass der Anschluss der SSD an den Prozessor viel bringt und deutlich besser ist als am Chipsatz. Nimmt man die 4K-Werte zur Hand, dann verlierte man bei der WD Black SN850X stolze 15% wenn man diese an den Z690-Chipsatz von Intel-1700 steckt. Statt 90 MB/s gibt es nur 77 MB/s (Bilder einfügen). Genau um diesen Leistungsverlust am Chipsatz soll es gehen hier in diesem Faden, zusammen mit der Frage welcher PCIe Gen4 Festspeicher aktuell der beste ist.

Der eingesteckte Festspeicher muss gut sitzen und darf danach in keinster Weise mehr wackeln oder sich bewegen. Ist da was locker kann der Anschluss-Modus von PCIe4x4 auf x2 runtergeregelt werden mit entsprechend schwachen Leistungswerten. Den Anschluss sieht man am Besten in CrystalDiskInfo (CDI).

Als Kühler kommt, falls keiner vom Werk angebracht ist, immer der BeQuiet MC1 Pro zum Einsatz. Das war vor Jahren der beste SSD-Kühler, wenn einer einen aktuell besseren kennt bitte melden. Man kann bei dem Festspeicher große ~8°C runterkühlen in dem man einfach ein Seitenteil hat rechts neben der befestigten Hauptplatine hat, die dann mit drei 120mm Lüftern frische Luft anzieht. Leider haben das die meisten Gehäuse nicht, dort gibt es nur ein Vorderteil und der Abstand von den meist drei 140mm Lüftern zu der SSD auf der Hauptplatine ist zu groß um noch von davon gekühlt zu werden.
1694703629595.png

1. Das Testsystem

Zum Testen wurde immer das gleiche Testsystem verwendet:
KomponentenartKomponente
GehäusePhanteks Enthoo Pro 2 Server Edition, Closed Panel
NetzgerätSeasonic Focus GX 850W
HauptplatineASRock Z690 Extreme, UEFI 14.04
ProzessorIntel Core i7-13700K
ProzessorkühlerBeQuiet Dark Rock Pro 4
Arbeitsspeicher2 * Crucial DDR4-3200 CL22 32 GB = 64 GB

2. Welcher PCIe Gen4 Festspeicher ist der Beste?

1694708503382.png


Die Beste SSD ist aktuell die Corsair MP600 Pro XT 2 TB. Zumindest zu diesem Schluss bin ich gekommen und es ist ein knappes Rennen. Die neuste Samsung 990 Pro schafft einige neue Höchstwerte wie die ~110 MB/s im 4KRDN1-Q1T1-Lesen, gefällt aber nicht bei 4KRDN1-Q1T1-Schreiben und auch das Kleinstdateienverhalten gefällt nicht bei der Samsung 990 Pro und auch nicht bei der WD Black SN850X.

Gleichzeitig ist die Samsung 990 Pro 2 TB deutlich überteuert. Die MP600 Pro XT 2 TB gibt es aktuell für ~120 EUR und dort ist ein guter Kühler schon mit drin. Für die Samsung 990 Pro muss man etwa 135 EUR bezahlt und mit dem M.2-Kühler landet man bei ~150 EUR, also 25% überteuert.

Folgende Aussagen können zu den vier Spitzen-Festspeichern getroffen werden:

2.1 Leistungsvergleich
Die SSDs geben sich nicht viel. Sie erreichen alle 10500 Punkte im AS-SSD-Benchmark und die Samsung 990 Pro erreicht etwas mehr, 11270 bis 12100, je nachdem welchen Modus man im Samsung Magican einstellt.


2.2 Samsung Magican Software
Bei Samsung sollte man sich die Magician Software auf der Win-Installation runterladen und dort installieren. Man kann den Modus für die SSD einstellen. So wie es aussieht wird der Modus dann in der Firmware gespeichert. Für den Vollleistungsmodus muss der Rechner leider neugestartet werden und von ihm zurück in den Standard- und Stromsparmodus auch. Der Stromsparmodus kommt noch mit einem dann sogenannten Overprovisioning, was einem 10% nochmals an verfügbarem Speicher abzwackt. Angeblich soll dieses eben Strom sparen und der Haltbarkeit des Festspeichers dienen, auch wenn ich das natürlich nicht überprüfen kann. Es sollte möglich sein den Festspeicher auf eine Win-Installation zu stecken, dort dann auf den Vollleistungsmodus zu gehen und dort dann bspw. Ubuntu-Server oder weitere Linuxe zu installieren.

2.3 Verhalten bei Kleinstdateien
Die Samsung 990 Pro zeigt wie die WD Black SN850X bei den Kleinstdateien ein eher schwaches Verhalten in den Benchmarks. Im Windows NTFS wird die Clustergröße bis 16 TB standardmäßig bei 4K formatiert. Von 512 B bis etwa 1 MB sieht das Verhalten eher schwach aus, wie man es bei den Atto-Benchmarks auslesen kann. Die beiden praktisch baugleichen Seagate 530 und die Corsair MP600 Pro XT gefallen weitaus mehr bei Kleinstdateien. Vor allem die Schreibwerte sind bei der Samsung 990 Pro eher schwach und deutlich niedriger als die Lesewerte. Eigentlich sollten sich beide Werte, also Lesen und Schreiben ausgleichen aber das Schreiben fällt hier deutlich zurück. Bei der Corsair/Seagte ist es dann ziemlich ausgeglichen.

2.4 Benchmarks
Bei den Festspeichern gibt es eine Reihe von Benchmarks, mit Besonderheiten die man kennen muss. Folgende gibt es:
2.4.1 CrystalDiskMark (CDM)
2.4.2 CrystalDiskInfo (CDI)
2.4.3 ATTO-Disk Benchmark
2.4.4 AS SSD Benchmark
2.4.5 AJA System Test
2.4.6 HD Tune Pro
2.4.7 UL PCMark 10

Bei dem 1.4.4 AS SSD Benchmark gibt es bei der Standardgröße von 1 GB für die Seagate und die Corsair zu hohe Werte im 4K. Dort steht dann ~90 MB/s statt 72 MB/s und ergibt dann ein 12200 Punkteergebnis statt 10500:

Hier einmal mit der Standardgröße von 1 GB und danach mit 10 GB:

1694710414638.png
1694710495225.png


Das also nicht vergessen und am besten immer mit 10 GB im AS SSD testen.
Bei dem 1.4.7 UL PCMark 10 gibt es einen extra Storage-Bereich. Leider gibt es den nur in der Vollversion, die ihrererseits einige Tausenddolllars im Jahr an Lizenz kostet.

3. Leistungsverlust mit der Chipsatz- statt Prozessoranbindung:

1694883759225.png


Man verliert gewaltige ~10% am Chipsatz, in einer hohen Streung von 5% bis 15%, in einen Ausreißer 20%, an Lesen und an Schreiben.

4. Belege

Folgende CDM- und Atto-Werte gibt es für die folgenden SSDs:

Samsung 990 Pro 2 TB

Angebunden an Intel-1700-Prozessor:

Vollleistungsmodus:
1694709795465.png
1694709808088.png


1694709825434.png
1694710104570.png



Angebunden an Intel-1700-Z690-Chipsatz:

Seagate Firecuda 530 2 TB (Werte mit Screenshots einfügen)

Angebunden an Intel-1700-Prozessor:
1694710744502.png
1694710765792.png

1694710826275.png


Angebunden an Intel-1700-Z690-Chipsatz:

WD Black SN850X 2 TB

Angebunden an Intel-1700-Prozessor:

1694362550959.png
Atto_Benchmark_SN850X.png



PCMark10_SN850X.png


Angebunden an Intel-1700-Z690-Chipsatz:

1694345818268.png
1694346304187.png


Die WD Black SN850X hat sehr schwache Leistungswerte bei Kleinstdateien von 0,5 KB bis 2 KB. Selbst die ältere Gigabyte AORUS NVMe hat x3 höhere Werte. Das habe ich bei den Testberichten in Youtube noch nie gehört. Und ich kann diese Werte bei Anschluss am Prozessor und am Chipsatz bestätigen (Bilder einfügen). Die Kleinstdateienleistung ist auch wichtig, da doch so viele Systemdateien und auch Logging-Schreibungen wie im Server-Betrieb doch genau solche Dateien produzieren.

Gigabyte AORUS NVME 2 TB (Werte mit Screenshots einfügen)

Angebunden an Intel-1700-Prozessor:
1694345886032.png
1694346340864.png


Angebunden an Intel-1700-Z690-Chipsatz:

1694363024447.png
Atto_AORUS_NVMe.png

1694350118863.png
 

Anhänge

  • CDM_SN850X_Prozessor.png
    CDM_SN850X_Prozessor.png
    21,6 KB · Aufrufe: 78
  • CDM_AORUS_NVMe.png
    CDM_AORUS_NVMe.png
    22,5 KB · Aufrufe: 75
  • 1694373217043.png
    1694373217043.png
    57,2 KB · Aufrufe: 67
  • 1694443177158.png
    1694443177158.png
    27,1 KB · Aufrufe: 166
  • 1694534280521.png
    1694534280521.png
    803,3 KB · Aufrufe: 102
  • 1694540700063.png
    1694540700063.png
    35,2 KB · Aufrufe: 79
  • 1694709697682.png
    1694709697682.png
    543,3 KB · Aufrufe: 54
  • 1694709723182.png
    1694709723182.png
    509,9 KB · Aufrufe: 71
  • 1694709757544.png
    1694709757544.png
    550,2 KB · Aufrufe: 56
  • 1694709771199.png
    1694709771199.png
    583,6 KB · Aufrufe: 52
  • 1694710437920.png
    1694710437920.png
    51,4 KB · Aufrufe: 59
  • 1694710755669.png
    1694710755669.png
    17 KB · Aufrufe: 61
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Allgemein kann man sagen, dass der Anschluss der SSD an den Prozessor viel bringt und deutlich besser ist als am Chipsatz. Nimmt man die 4K-Werte zur Hand, dann verlierte man bei der WD Black SN850X stolze 15% wenn man diese an den Z690-Chipsatz von Intel-1700 steckt. Statt 90 gibt es nur 77 (Bilder einfügen).
Ist bei mir nicht so der Fall, egal ob CPU oder Chipset angebunden, 4k Werte sind fast identisch. Getestete SSDs:

- WD SN850X 2TB
- Lexar NM790 2TB
- Fanxiang S880 2TB
- Fanxiang S770 2TB
- Crucial P5Plus 1TB

..keine Ahnung wie andere das hin bekommen (wollen oder auch nicht), bei mir klappts so nicht! Man sollte auch beachten, gerade bei Mehrfach SSD Konfig. (gar nicht mal so selten), sind "geschönte" via CPU angebundene Tests eher Schall & Rauch, denn man kann eh nur eine dort verbauen, Rest läuft via Chipset.
 
Ist bei mir nicht so der Fall, egal ob CPU oder Chipset angebunden, 4k Werte sind fast identisch. Getestete SSDs:

- WD SN850X 2TB
- Lexar NM790 2TB
- Fanxiang S880 2TB
- Fanxiang S770 2TB
- Crucial P5Plus 1TB

..keine Ahnung wie andere das hin bekommen (wollen oder auch nicht), bei mir klappts so nicht! Man sollte auch beachten, gerade bei Mehrfach SSD Konfig. (gar nicht mal so selten), sind "geschönte" via CPU angebundene Tests eher Schall & Rauch, denn man kann eh nur eine dort verbauen, Rest läuft via Chipset.
Ich meine natürlich nur die letzte Zeile im CDM, also RND4K-Q1T1.

Die Diskussion ist an sich ja auch alt. Ich bringe hier einige SSDs mit dann immer zwei gestesten Konfigurationen und kann dann hoffentlich klare Aussagen treffen.
 
Zuletzt bearbeitet:
Wird der Festspeicher eingesteckt muss dieser gut sitzen und mit der Schraube festgestellt werden. Ist da was locker kann der Anschluss-Modus von PCIe4x4 auf x2 runtergeregelt werden mit entsprechend schwachen Leistungswerten. Den Anschluss sieht man am Besten in CrystalDiskInfo (CDI).
Meinste einige haben eine Schraube locker :lol:
und das man eine Schraube normal fest zieht ist doch klar das da nichts im Computer wackelt oh nein !

So ist das mit allen zum beispiel auch den CPU Kühler nach fest kommt ab ... .

klein
 
Wo sind die x-points und SLC-disks? Wo sind die U.3 Kandidaten?
 
Meinste einige haben eine Schraube locker :lol:
und das man eine Schraube normal fest zieht ist doch klar das da nichts im Computer wackelt oh nein !

So ist das mit allen zum beispiel auch den CPU Kühler nach fest kommt ab ... .

klein
Na gut, dann setze ich das mal voraus und beschreibe es anders um. Man sieht leider zuviele Builds die solche Fehler aufweisen und andere Dinge zum Haare raufen. Deswegen habe ich das hier reingeschrieben.
Beitrag automatisch zusammengeführt:

Wo sind die x-points und SLC-disks? Wo sind die U.3 Kandidaten?
Hast du konkrete U.3-Festspeicher im Blick? Kannst du mal Geizhals-Links hier einfügen?

Gibt noch spannende U.2-Enterprise-SSDs. Die 3D-XPoints sind leider maßlos überteuert auch wenn Sie von den Kleinstdateien, der Latenz und der TBW sehr gefallen.
 
Zuletzt bearbeitet:
Ich bringe hier einige SSDs mit dann immer zwei gestesten Konfigurationen und kann dann hoffentlich klare Aussagen treffen.
Ist für deine Konfig. ja auch absolut in Ordnung so. (y)

..ich gehe z.b. bei meiner Konfig. mittlerweile davon aus, dass dort ein/der schon im Netz zahlreich auch von anderen Usern berichtete MS SSD Performance-Bug seit einigen Wochen/Monaten vorhanden ist und irgendwie durch diese "Qualitäts-Updates" (..was Qualität bei MS bedeutet, naja..) mit aufgespielt bzw. verursacht wurde. Ich kannte das Thema jedenfalls zuvor noch nicht, scheint aber schon seit Monaten zu existieren.
Nach jetzt bestimmt schon an die sieben/acht getesteten Gen4 SSDs in allen verfügbaren Gen4 M2 Slots, die im Grunde dann doch das gleiche 4k Schreib/Lese-Szenario zeichnen, teils nagelneu und komplett leer bzw. Refresh anhand SE und TRIM, glaube ich nicht mehr an Zufälle. Nur, soll ich mir jetzt deswegen das OS neu aufsetzen, minimum 4-6 Stunden Arbeit in den ganzen Konfig- und Softwareinstallationseinstellungen investieren um dann zu hoffen, dass ich mir diesen Bug nicht wieder einfange? Nein, bestimmt nicht!
 
Zuletzt bearbeitet:
Bin gespannt, was dieser Test ergibt. Dass die 990 Pro im "Full Performance Mode" das derzeit schnellste Gen4-SSD ist, kann ich dir unabhängig von deinen Ergebnissen aber vorab schon flüstern. Leider testen viele Reviewer dieses SSD mit angezogener Handbremse, also ohne Full Performance Mode, und vermitteln bzgl. der Leistungsfähigkeit ein falsches Bild.
 
Habe die Tests nochmal um die Temperaturen aus HWINFO64 ergänzt. Die WD Black SN80X mit einer Maximaltemperatur von 55°C gefällt sehr, die Gigabyte AORUS NVMe ist mit 64°C deutlich schlechter, aber der Werkskühler davon ist auch deutlich schlechter als der BQ MC1 Pro. Leider lässt sich dieser nicht wechseln, ohne die Garantie zu verlieren.

Edit:

Die schwachen Leistungswerte bei den Kleinstdateien (512 B bis 2 KB) bestätigen sich. Man kann auch mit HD Tune testen und dort die Blockgröße auf 512 B stellen:

WD Black SN850X, Blockgröße 512 B:

1694370223547.png


Gigabyte AORUS NVMe, Blockgröße 512 B:

1694370704654.png


WD Black SN850X, Blockgröße 1 KB:

1694371803495.png


Gigabyte AORUS NVMe, Blockgröße 1 KB:

1694371853338.png


WD Black SN850X, Blockgröße 2 KB:

1694374305072.png

Gigabyte AORUS NVMe, Blockgröße 2 KB:

1694375744733.png


WD Black SN850X, Blockgröße 8 MB:

1694372397236.png


Gigabyte AORUS NVMe, Blockgröße 8 MB:

1694373043981.png
 

Anhänge

  • 1694371769014.png
    1694371769014.png
    52,8 KB · Aufrufe: 56
Zuletzt bearbeitet:
(...)

Gibt noch spannende U.2-Enterprise-SSDs. Die 3D-XPoints sind leider maßlos überteuert auch wenn Sie von den Kleinstdateien, der Latenz und der TBW sehr gefallen.

Die sollte man auch nicht auf Geizhals, sondern auf ebay beim Chinamann für einen gemachten Preisvorschlag kaufen. Damit spart man ordentlich Geld. Dann relativiert sich "teuer" zu "ist doch ein Hobby". Ich verfüge ebenfalls über die WD X850N, eine FireCuda 530 sowie eine 8TB MP600 Pro, allerdings geht halt wirklich nichts über 3DXPoint der Optanes.
 
Habe die Tests nochmal um die Temperaturen aus HWINFO64 ergänzt.
Die Temperaturen hängen vor allem von der Kühlung der SSD ab, also ob und was für ein Kühlkörper verbaut ist, wie warm die Umgebung ist, ob und wie stark ein kühlender Luftstrom über die SSD streicht etc., wogegen die Leistungsaufnahme der SSD selbst eine eher untergeordnete Rolle spielt.

Man kann auch mit HD Tune testen
Nein, kann man nicht. Dies ist ein Low-Levek Benchmark, wenn man muss man bei HD Tune schon den File Benchmark nehmen. Low-Level Benchmarks funktionieren bei HDDs, weil man da einfach eine Sektor auslesen kann, die HDDs wissen ja nicht ob der schon mal beschrieben wurden und damit gültige Daten enthält. SSDs haben eine Mappingtabelle und wissen daher genau wo gültige Daten stehen und nur wenn man eine logische Adresse ausliest wo gültige Daten stehen, kann und muss auch was aus dem NAND ausgelesen werden. Liest man aber eine Adresse wo keine gültigen Daten stehen, liefern die Controller in aller Regel einfach nur Nullen zurück, was natürlich schneller geht als Daten aus dem NAND auszulesen. Dies Bug hat auch AS-SSD bei der Ermittlung der Zugriffszeit Lesend und damit hängt auch da das Ergebnis stark davon ab wie voll die SSD ist.

Außerdem ist es reichlich egal wie gut oder schlecht die Performance bei Zugriffen kleiner als 4k ist, denn man wird ja meist eine Clustergröße von 4k oder mehr haben und damit auch nur Zugriffe über 4k oder mehr.

Bei Low-Level Benchmarks wie HD Tune gibt es übrigens noch ein Problem: Das Schattenfilesystem der SSDs. Die Controller verteilen die Daten ja über die NAND Dies um sie möglichst schnell lesen und schreiben zu können. Dies passiert natürlich für jeden Schreibzugriff, also jede Datei einzeln. Low-Level Benchmarks benchen aber aufeinanderfolgende LBAs unabhängig davon zu welchen Dateien diese gehören. Gehören sie zu einer großen Datei die am Stück und damit gut über die NAND Dies verteilt geschrieben wurde, so können sie schneller gelesen werden als wenn sie zu viele verschiedenen kleinen Dateien gehören die jeweils einzeln geschrieben wurden und deren Daten daher schlechtestenfalls alle auf dem gleichen NAND Die liegen und daher nur langsam gelesen werden können. Dazu kommt natürlich die Frage ob es da überhaupt Daten gibt die ausgelesen werden können und ich wette die Gigabyte ist nur mit so 600GB an Daten beschrieben.
 
Die Temperaturen hängen vor allem von der Kühlung der SSD ab, also ob und was für ein Kühlkörper verbaut ist, wie warm die Umgebung ist, ob und wie stark ein kühlender Luftstrom über die SSD streicht etc., wogegen die Leistungsaufnahme der SSD selbst eine eher untergeordnete Rolle spielt.
Der verbaute NAND spielt noch eine Rolle. Der neue BiCS5-Flash von der SN850X ist sicherlich von sich aus kühler als der relativ alte Micron-Flash der Gigabyte.

Nein, kann man nicht. Dies ist ein Low-Levek Benchmark, wenn man muss man bei HD Tune schon den File Benchmark nehmen. Low-Level Benchmarks funktionieren bei HDDs, weil man da einfach eine Sektor auslesen kann, die HDDs wissen ja nicht ob der schon mal beschrieben wurden und damit gültige Daten enthält. SSDs haben eine Mappingtabelle und wissen daher genau wo gültige Daten stehen und nur wenn man eine logische Adresse ausliest wo gültige Daten stehen, kann und muss auch was aus dem NAND ausgelesen werden. Liest man aber eine Adresse wo keine gültigen Daten stehen, liefern die Controller in aller Regel einfach nur Nullen zurück, was natürlich schneller geht als Daten aus dem NAND auszulesen. Dies Bug hat auch AS-SSD bei der Ermittlung der Zugriffszeit Lesend und damit hängt auch da das Ergebnis stark davon ab wie voll die SSD ist.
Ich finde die HD Tune Ergebnisse trotzdem wertvoll und sie decken sich vollkommen mit den ATTO-Werten.

Außerdem ist es reichlich egal wie gut oder schlecht die Performance bei Zugriffen kleiner als 4k ist, denn man wird ja meist eine Clustergröße von 4k oder mehr haben und damit auch nur Zugriffe über 4k oder mehr.

Meinst du die kleinen 512 B bis 2 KB Blöcke werden zu einem Clusterblock von 4 KB oder 4K zusammengefügt von der SSD und dann gelesen oder geschrieben?

Edit: 4K, oder 4KB oder 4096 Bytes sind wohl die Cluster der NTFS-Formatierung:

1694375352321.png


Aber wie genau werden dann kleinere Dateien als die 4K gespeichert, gelesen und geschrieben?
Bei Low-Level Benchmarks wie HD Tune gibt es übrigens noch ein Problem: Das Schattenfilesystem der SSDs. Die Controller verteilen die Daten ja über die NAND Dies um sie möglichst schnell lesen und schreiben zu können. Dies passiert natürlich für jeden Schreibzugriff, also jede Datei einzeln. Low-Level Benchmarks benchen aber aufeinanderfolgende LBAs unabhängig davon zu welchen Dateien diese gehören. Gehören sie zu einer großen Datei die am Stück und damit gut über die NAND Dies verteilt geschrieben wurde, so können sie schneller gelesen werden als wenn sie zu viele verschiedenen kleinen Dateien gehören die jeweils einzeln geschrieben wurden und deren Daten daher schlechtestenfalls alle auf dem gleichen NAND Die liegen und daher nur langsam gelesen werden können. Dazu kommt natürlich die Frage ob es da überhaupt Daten gibt die ausgelesen werden können und ich wette die Gigabyte ist nur mit so 600GB an Daten beschrieben.
1,3 TB hat die beschrieben. Hast du eine Anwendung parat mit der man große Dateien drauf schreiben kann? Wollte eigentlich auch den Einbrauch nach dem Ende des pSLC-Caches testen und sehen.

Edit: Kann bei HD Tune im File Benchmark den Benchmark pro SSD einmal durchführen und danach kommt immer I/O Error! Test aborted. Weiß einer wie man diese FM wieder weg bekommt?
 

Anhänge

  • 1694374759791.png
    1694374759791.png
    49,7 KB · Aufrufe: 56
Zuletzt bearbeitet:
Edit: Kann bei HD Tune im File Benchmark den Benchmark pro SSD einmal durchführen und danach kommt immer I/O Error! Test aborted. Weiß einer wie man diese FM wieder weg bekommt?
Leider nein, da ich mit HD-Tune Pro genau das gleiche Problem habe. Nur deinstallieren der Anwendung mit anschließender Deepscan Säuberung via Revo Uninstaller und anschließender Neuinstallation hilft manchmal. Aber dann auch wieder für nur genau einen Durchlauf, dann wieder I/O Error. Scheint irgendwo ein Bug mit dieser Software zu sein. Mit meinen Sata SSDs war das nie so der Fall, die konntest du so oft benchen wie du wolltest.

ps: außerdem ändert HD-Tune -ohne nachzufragen- den Windows Energieplan und setzt dir irgend welche Energiesparsettings aktiv (Monitor nach 20min aus, Storage und USB auch) die dann auch nach beendigung der Software aktiv bleiben. Kann man zwar wieder anpassen so wie es vorher war aber startest du HD-Tune erneut, hast du das gleiche Spiel von vorne. Sehr beknacktes Tool, mag ich nicht solche Software. :rolleyes:

edit: mit deinen HD-Tune Bench da stimmt aber was ganz und gar nicht. ;) ShortStroke musst du auf 5GB einstellen und in den settings "Benchmark" musst du Full Test und den Regler ganz auf runter auf Acurate stellen, dazu die Block Size auf 8MB stellen. Ob das die trial allerdings zu läßt, keine Ahnung.
Habe es gerade noch einmal installiert (und gleich danach wieder deinstalliert):

SN850_1.png

NM790_1.png


..und das ist der Bug den du meinst, wieder einmal bekommen, wie immer:
bug.png

Das Tool ist halt Kernschrott vorm Herrn. (y)
 
Zuletzt bearbeitet:
Habe mal einen 200 GB Container verschoben und dabei durchgehend eine hohe Übertragungsrate gehabt. Weiß einer wie das möglich ist? Dachte eigentlich es würde dann auf ~1500 einbrechen:

Von der Gigabyte AORUS NVMe zur WD Black SN850X:

1694382130590.png


Hier dann der Einbruch bei dem Schreiben auf die Gigabyte AORUS NVMe.

Von der WD Black SN850X zur Gigabyte AORUS NVMe:

1694382311901.png


Passiert bei dem 8/10 Teil also 80%, also nach 160 GB am Stück.
 
Zuletzt bearbeitet:
200GB bei einer leeren 2TB SSD ist doch nix! Selbst meine dram_less Fanxiang S880 packen minimum 800GB on_stock ohne das die großartig einbrechen.

Entweder ist deine AORUS schon einiges befüllt mit Daten oder die ist halt schreibseitig "sehr schlapp" auf der Brust.
 
Meinst du die kleinen 512 B bis 2 KB Blöcke werden zu einem Clusterblock von 4 KB oder 4K zusammengefügt von der SSD und dann gelesen oder geschrieben?
Nein, der Controller der SSD wird die Daten für Page sammeln, das sind je nach NAND z.B. 16k und dann schreiben, wenn er kann. Das ist eine Sache des Filesystems, wie Du ja schon gemerkt hast:

Edit: 4K, oder 4KB oder 4096 Bytes sind wohl die Cluster der NTFS-Formatierung
Richtig und dies bedeutet, wenn das Alignment der Partition stimmt, dann erfolgen alle Zugriffe an 4k Grenzen und meines Wissens sind sie auch immer vielfache von 4k groß.

Aber wie genau werden dann kleinere Dateien als die 4K gespeichert, gelesen und geschrieben?
Die belegen auch einen ganzen Cluster, wie man unter Eigenschaften "Größe auf Datenträger" ja auch sehen kann, nur ganz kleine Dateien speichert NTFS direkt bei ihren Metadaten ab, die belegen dann 0 Byte auf dem Datenträger, was so natürlich auch nicht stimmt, da sie ja Platz bei den Metadaten belegen. Die speichert NTFS in unichtbaren Dateien deren Namen mit $beginnen ab und die Spare angelegt werden, weshalb dann auch nach dem Formatiren immer weniger Platz verfügbar ist als die Partition wirklich hat, dies sind diese Dateien für die Metadaten, deren Größe man aber eben nicht angezeigt bekommt und die eben auch mit der Belegung der Partition größer werden. Deshalb geht z.B. h2testw beim Testen einer kompletten, frisch NTFS formatieren Partition am Ende auch immer der Platz aus.

1,3 TB hat die beschrieben. Hast du eine Anwendung parat mit der man große Dateien drauf schreiben kann? Wollte eigentlich auch den Einbrauch nach dem Ende des pSLC-Caches testen und sehen.
Hoffentlich nicht mit HDTune, denn deren Low-Level Benchmark bencht mit extrem komprimierbaren Daten, nur Nullen und ich vermute der Filebenchmark ebenfalls. Die Gigabyte Aorus Gen4 hat einen Phison Controller und damit Datenkompression und wenn eine Datei nur Nullen enthält, dann belegt sie kaum NAND und der kann diese entsprechend sehr schnell lesen.
Passiert bei dem 8/10 Teil also 80%, also nach 160 GB am Stück.
Wie voll war die SSD? Vergiss nicht, dass der Pseudo-SLC Cache dynamisch ist, also der sowieso freie Speicherbereich je nach SSD mehr oder weniger vollständig erstmal nur mit nur einem Bit Beschrieben wird, was eben schnell geht und kann es bei TLC SSDs nur etwa so ein Drittel der freien Kapazität betragen, wobei dies halt nicht alle SSD voll ausnutzen. Dann ist eine andere Frage wie weit der Pseudo-SLC Schreibcache wieder größer wird, wenn man Dateien gelöscht, also wieder freien Platz geschaffen hat, hier soll es wohl auch Unterschiede geben.

Zur eigentlichen Frage des Threads: Die Intel Optane DC P5800X/P5810X sind die schnellsten PCIe 4.0 SSDs, die sind bzgl. der Performance unschlagbar, gerade auch was die Latenz (also 4K Q1T1 Lesend bei CDM) angeht, aber eben teuer und selbst nachdem Intel alle Optane eingestellt hat, kaum und schon gar nicht günstig zu bekommen, jedenfalls nicht im Vergleich zu dem was normale Consumer SSDs wie eine 990Pro oder SN850X kosten. Nimmt man die Optane raus, dürfte die 990 PRO die schnellste PCIe 4.0 SSD sein. Aber es gibt nicht nur einen Wert für die Geschwindigkeit! Bei Autos würde man in Deutschland auf die Höchstgeschwindigkeit schauen um die Frage welches das schnellere ist zu beantworten, in vielen anderen Länder schaut man auf die Beschleunigung und wenn man in die Formel 1 schaut, so kann man auf die Höchstgeschwindigkeit auf der Gerade schauen, oder auf die schnellste Runder in der Qualifikation oder im Rennen oder wer gewinnt, dies können drei unterschiedliche Fahrer und Autos sein. Es gibt hall sehr viele unterschiedliche Situationen und da kann man die eine und mal die anderen schneller sein, die Auswahl und Gewichtung entscheidet dann meist über den Gesamtsieger, wobei es dann bei einigen noch unterschiedliche Betriebmodie gibt, die man genaugenommen dann einzeln durchtesten müssen, was aber die wenigsten machen. Natürlich hat das Testsystem und dessen Energiespareinstellungen auch einen Einfluss auf das Ergebnis und gerade auch auf die Latenz einer SSD.
 
nicht mit HDTune, denn deren Low-Level Benchmark bencht mit extrem komprimierbaren Daten, nur Nullen und ich vermute der Filebenchmark ebenfalls
Nein, beim "File Benchmark" kann man die "Data Pattern" von "Zero" auf "Mixed" oder eben "Random" umstellen, um mit Phison-SSDs realistische Messung zu bekommen. Das Programm hat aber allgemein oft Probleme wenn man größere Test-Kapazität einstellt. Deswegen nimmt man zum Testen von pSLC-Cache am besten Aida64 und nicht HDTune Pro.
 
Du schreibst "Die beste" und testest dann nur Consumer "billig" Ware - der Titel ist völlig falsch.
 
Ich habe noch eine Corsair MP600 Pro XT 2 TB bestellt. Irgendwie wurmt mich der hohe Stromverbrauch der WD Black's. Zumindest so hat es Computerbase getestet und heraus gefunden:


Es sind immerhin 4,5 W statt 7 W. Also ist die Corsair deutlich sparsamer.
Beitrag automatisch zusammengeführt:

Du schreibst "Die beste" und testest dann nur Consumer "billig" Ware - der Titel ist völlig falsch.
Wie gesagt sind die Optanes nun völlig unrealistisch und überhaupt nicht mehr zu berücksichten.

Es gäbe noch U.2-Festspeicher aber dort gibt es die PCIe-Adapter zu U.2 auch nicht mehr zu kaufen. Einfach eingestellt das Angebot von einem Tag auf den anderen ohne Ersatzangebot.

Gibt noch die Samsung PM983 und die PM9A3. Aber die gefallen nicht, da beide 22110 und damit passen sie nicht in den M1_1-Platz an dem Prozesssor. Dort gibt man wieder 12-20% Leistung an den Chipsatz ab. Gleichzeitig haben diese wie die U.2-Festspeicher keine Garantie sondern nur die zwei jährige Gewährleistung.

1694417467023.png
 
Zuletzt bearbeitet:
Wenn ich den AS SSD Benchmark bediene erhalte ich ganz andere Ergebnisse.

Beim CDM erhalte ich bei 4K 89 MB/s +-1 und beim AS SSD in der zweiten Zeile nur 73 MB/s? Wo sind die 16 MB/s hin?

ASSSD_WD_Black_SN850X.png


Und wenn ich die Größe von 1 GB auf 10 GB stelle verliere ich etwa 1.000 Punkte und es kommen nur ~9.500 Punkte heraus.

ASSSD_Gigabyte_AORUS_NVMe.png
 

Anhänge

  • Atto_AORUS_NVMe.png
    Atto_AORUS_NVMe.png
    17,9 KB · Aufrufe: 54
Andere Testmuster/Patterns/Komprimierung, programminterne Routinen usw. usf.

Manchmal kommt es mir so vor, als werden Datenträger, speziell SSD, heutzutage nur noch nach im Netz erlesenen AS-SSD/CDM Bestscore Werten gekauft. Alles andere ist egal. :unsure:

Vieleicht sollten die Hersteller mal ihre Strategie ändern und anstatt Datentransferraten dann doch lieber AS-SSD/CDM Highscore (ähnlich Nutriscore) Label auf ihre Verpackungen drucken um den Absatz anzukurbeln.
Ich hätte da sogar eine Idee die gerade bei den Nerds reißenden Absatz finden würde -> eine "Highest Score Ultrapeed StoragePool Black Edition", bestehend aus zwei angeblich vorselektierten (*zwinker*) WD SN850X in einer schwarz getönten Acrylbox (ähnlich der alten Samsung 470) mit einen Tool, dass dir dann per Mauseklick unter W10/W11 einen Windows Speicherpool ohne Resilienz und mit 4k Stripesize einrichtet, womit du dann jede derzeit erhältliche Gen5 SSD via AS-SSD/CDM gegen die Wand benchst. Das alles für unsagbar günstige 400€ aufwärts (4TB 2x2TB). (y)
 
Zuletzt bearbeitet:
Habe die Tests nochmal um die Temperaturen aus HWINFO64 ergänzt. Die WD Black SN80X mit einer Maximaltemperatur von 55°C gefällt sehr, die Gigabyte AORUS NVMe ist mit 64°C deutlich schlechter, aber der Werkskühler davon ist auch deutlich schlechter als der BQ MC1 Pro.
Vergleiche zwischen verschiedenen SSD anhand der SMART-Werte für die Temperatur sind mit erheblichen Fehlern behaftet. Diese SMART-Werte müssen zwar gemäß der NVMe-Spezifikation ermittelt werden, die Spezifikation ist aber so vage formuliert, dass je nach SSD- und/oder Controller-Hersteller unterschiedliche Berechnungsmodelle zum Ansatz kommen können. So ist im Modell des einen Herstellers die Temperatur des Controllers, welcher das Bauteil mit der höchsten Wärmefreisetzung ist, höher gewichtet als im Modell des anderen Herstellers. Das kann so weit führen, dass baugleiche SSD mit gleicher Wärmefreisetzung, die lediglich von verschiedenen 3rd-Party-Anbietern angeboten werden, bei Temperaturmessungen unter identischen Bedingungen voneinander deutlich abweichende SMART-Temperaturen ausgeben.

Ich habe noch eine Corsair MP600 Pro XT 2 TB bestellt. Irgendwie wurmt mich der hohe Stromverbrauch der WD Black's. Zumindest so hat es Computerbase getestet und heraus gefunden:
Es sind immerhin 4,5 W statt 7 W. Also ist die Corsair deutlich sparsamer.
Die Corsair ist bei Volllast sparsamer aber auch leistungsschwächer. Leistung und Verbrauch verhalten sich eben umgekehrt proportional zueinander. Entscheidend für die Sparsamkeit bei durchschnittlichen Consumer-Nutzungsprofilen ist jedoch nicht die Leistungsaufnahme bei Vollast sondern bei Minderlast bzw. Idle. Ob die SN850X bei derartiger Last auch mehr verbraucht, lässt sich anhand des CB-Review nicht beantworten. Auch in Bezug auf die maximale Leistungsaufnahme ist das CB-Review anzuzweifeln. In anderen Reviews, die mit besserer Messtechnik vorgenommen wurden, verbraucht die MP600 Pro XT bis zu 8 Watt, vgl. https://www.tomshardware.com/reviews/corsair-mp600-pro-xt-ssd-review-corsairs-best-just-leveled-up/2
 
Vieleicht sollten die Hersteller mal ihre Strategie ändern und anstatt Datentransferraten dann doch lieber AS-SSD/CDM Highscore (ähnlich Nutriscore) Label auf ihre Verpackungen drucken um den Absatz anzukurbeln
Eher friert die Hölle zu....
 
Habe den Faden um hoffentlich gefallende Tabellen ergänzt. Warte nun auf die beiden noch kommenden SSDs.
 
CDM zeigt die Höchstwerte der Wiederholungen an und AS-SSD die Mittelwerte
Nach dem Beobachten der zig AS-SSD-Durchläufe bei mir, habe ich sogar den Eindruck, dass korrekte Ausdruck dafür lautet:
"AS-SSD den Mittelwert der ca. 5 besten Ergebnisse", aber wie dem auch sei, die Ergebnisse von AS-SSD sind immer etwas "pessimistisch" und CDM eher "optimistisch" (im Bezug auf meine real-life Erfahrungen).
Außerdem werden die Ergebnisse bei AS-SSD in Mebibytes und bei CDM in Megabytes angegeben -> da entstehen zusätzlich noch locker ca. 5% Differenzen aufm Papier (zugunsten von CDM, worauf sich die Hersteller dann gerne in ihren Datenblättern beziehen).
 
Beide Festspeicher kommen wahrscheinlich heute. Die Temperatur der Rechnerkomponenten ist gewaltig abhängig von der Umwelttemperatur. Heute mit dem Donner und Regen nach den vielen 30°C-Tagen ist diese für fast alle Komponten um 5°C gesunken:

Die WD Black SN850X liegt im Leerlauf bei nur 35°C:

1694507161181.png
 
Dafür zeigt die Temperatur des Controllers nicht an, der deutlich Wichtiger ist als die Temps des Chips.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh