8 TB Datacenter SSDs: Samsung PM1733 vs. Intel D7 5510 - Qual der Wahl

Ich habe jetzt mal meine 7.68TB PM9A3 an den Threadripper Pro (M2_1 Slot des Asus WRX80 per Delock Adapter und CableDeconn Kabel) gehängt. Ergebnisse werden in diesem Posting fortlaufend eingepflegt. Irgendwelche besonderen Wünsche?

CrystalDiskMark 5x 1 GiB Default
crystaldiskmark-default-5-1gib.png

CrystalDiskMark 5x 64 GiB Default
crystaldiskmark-default-5-64gib.png


CrystalDiskMark 5x 1 GiB Nvme
crystaldiskmark-nvme-5-1gib.png



CrystalDiskMark 5x 64 GiB Nvme
crystaldiskmark-nvme-5-64gib.png



CrystalDiskMark 9x 64 GiB Nvme
crystaldiskmark-nvme-9-64gib.png



HDtune lesen
HDtune schreiben

Atto I/O Size 512 B to 64 MB - File Size 32 GB - Direct I/O off - QD 1

atto-test1-gb.png
atto-test1-io.png



Atto I/O Size 512 B to 64 MB - File Size 32 GB- Direct I/O off -QD 256

atto-test3-gb.png
atto-test3-io.png


Atto I/O Size 512 B to 64 MB - File Size 32 GB - Direct I/O on - QD 1

atto-test4-gb.png
atto-test4-io.png


Atto I/O Size 512 B to 64 MB - File Size 32 GB - Direct I/O on - QD 256
atto-test5-gb.png
atto-test5-io.png



File Copy 3 x 100 GB von Ramdisk auf SSD
1645485184884.png

filecopy-ram-to-ssd-2.png


File Copy 3 x 100 GB von SSD auf auf RAMDISK
filecopy-ssd-to-ram-1.png

filecopy-ssd-to-ram-2.png
 

Anhänge

  • 1645484832075.png
    1645484832075.png
    54,8 KB · Aufrufe: 83
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...Irgendwelche besonderen Wünsche?
5x 64 GiB Default? 5x 64 GiB NVMe? - Ich sehe da lauter 5x 1 GiB Durchläufe... schreib doch in das untere Feld vor dem Screenshot was rein um leichter zu zu ordnen...und mach bitte Dein tolles Watermark etwas dezenter/heller, kann mich echt kaum auf die Zahlen konzentriereno_O...Danke:sneaky:(y).

P.S.: ach, jetzt blick' ich durch...ok, 64er kommen noch, sowie HDTune, ja, das klingt schonmal gut, dazu noch AS-SSD 1/10GB wäre nice.:geek:

P.P.S.: Danke für viele Benches :) Die 64GB sind echt witzig - bei mehr Belastung werden die Werte sogar leicht besser, LoL...
Nun... die Real-Life Transfers im Explorer sind eher... ernüchternd... so 2GB/s im Schnitt ist nicht so toll... Ich sehe da oft 3GB/s, aber danach wenigstens 2,5-2,7...
Wäre toll wenn Du einen ordentlichen Kopierer benutzen würdest. Bei mir ist das kostenlose FastCopy per Shell-Extension im Explorer integriert... Dort kannst das in den Optionen anmachen...und self-close nach dem Kopiervorgang ausmachen, damit Du von dem Transfer-Report gemütlich einen Screenshot machen kannst. Bei mir werden dort locker knapp die doppelten Übertragungsraten (im Vgl. zu Explorer) erreicht, da schätz' ich mal Du wärst locker bei 3,5 bis 4 GB/s.
 
Zuletzt bearbeitet:
P.P.S.: Danke für viele Benches :) Die 64GB sind echt witzig - bei mehr Belastung werden die Werte sogar leicht besser, LoL...
Nun... die Real-Life Transfers im Explorer sind eher... ernüchternd... so 2GB/s im Schnitt ist nicht so toll... Ich sehe da oft 3GB/s, aber danach wenigstens 2,5-2,7...
Wäre toll wenn Du einen ordentlichen Kopierer benutzen würdest. Bei mir ist das kostenlose FastCopy per Shell-Extension im Explorer integriert... Dort kannst das in den Optionen anmachen...und self-close nach dem Kopiervorgang ausmachen, damit Du von dem Transfer-Report gemütlich einen Screenshot machen kannst. Bei mir werden dort locker knapp die doppelten Übertragungsraten (im Vgl. zu Explorer) erreicht, da schätz' ich mal Du wärst locker bei 3,5 bis 4 GB/s.
Datacenter SSDs halt... Dafür drosselt da nichts.

Ich guck mir das Tool mal an wenn ich Zeit habe.
 
Die 64GB sind echt witzig - bei mehr Belastung werden die Werte sogar leicht besser, LoL...
Enterprise SSDs sind auf hohe Last, also viele parallele Zugriffe optimiert und nicht wie die Consumer/Client SSDs auf die maximale Performance bei leichten Workloads, also vor allem einem Zugriff zur Zeit.
Dafür drosselt da nichts.
Außer sie werden zu warm, aber da sie in aller Regel keinen Pseudo-SLC Schreibcache haben, kann der auch nicht voll werden und die Schreibleistung mindern.
 
Habe die 8 TB PM9A3 jetzt als System SSD im Einsatz. Alter Schwede geht das Ding ab. Zugriffszeiten im Vergleich zur 2TB PM9A1 M.2 sind spürspar schneller. Browser öffnet schneller etc.
 
Die PM9A3 ist eine Enterprise SSD mit full-power-loss-proection durch Stützkondensatoren und kann daher sync-faking machen, also bei einem flush (fsync) einfach so tun, als wären die Daten ins NAND geschrieben, weil die dies eben auch bei einem unerwarteten Spannungsabfall dank ihrer Stützkondensatoren noch nachholen kann. Welchen Unterschied dies macht, sieht man wenn man mal in Windows den Schreibcache deaktiviert, also beide Haken entfernt (beim Systemlaufwerk ist ein Reboot nötig) und mit AS-SSD bencht. Zwar gibt es auch Client SSDs die sync-faking machen, die mit dem Sandforce Controller waren ein Beispiel dafür und die Phison machen dies scheinbar auch, dies macht ja gerade auf Twitter mit den Tests von Russ Bishop die Runde.

Dabei ist das Thema nicht neu (der Link geht zu einem Beitrag aus 2014), wie gesagt war es schon von den Sandforce Controllern bekannt und das Ganze gibt es seit der Zeit der HW RAID Controller mit BBU, die machen es nämlich auch, eben weil sie durch die BBU auch im Fall eines Datenverlusts die Daten in ihrem Schreibcache nicht verlieren. Die schicken dann auch immer ein fsync an die Platten und löschen die Daten erst aus ihrem eigenen Cache, nachdem die Platten diesen bestätigt haben. Daher sind Consumer SSDs an HW RAID Controllern, vor allem denen mit BBU, auch keine gute Idee, denn entweder sind sie dann beim Schreiben sehr lahm oder sie machen sync Faking und dann riskiert man doch Datenverlust im Fall eines unerwarteten Spannungsverlusts. Enterprise SSDs mit full-power-loss-protection haben alle sync Faking, aber wie gesagt ist es da auch kein Problem und wichtig für die Schreibperformance an solchen HW RAID Controllern. Aber es hilft der Performance auch in allen anderen Situationen in denen ein fsync kommt und genau deshalb machen ja auch manche Consumer SSDs dies sync Faking, eben um in Benchmarks die fsync enthalten und damit in Reviews besser abzuschneiden.
 
Zuletzt bearbeitet:
Update 08.02.2022: Hab die Dual-U.2 Adapterkarte (wo die SSDs aufgeschraubt werden) rausgeworfen und eine ordentliche, für PCIe 4.0 spezifizierte Bifurcation-Karte mit SlimSAS-Kabel eingebaut (Delock 90077, Kabel für vier U,2 sind dabei).
Hast du für den Adapter noch einen Tipp, wo man den günstig beziehen kann? 360€ für ein Stück Platine mit Kabel sind schon heftig. Mit würde auch eine x8 Karte für zwei SSD reichen.
 
Hast du für den Adapter noch einen Tipp, wo man den günstig beziehen kann? 360€ für ein Stück Platine mit Kabel sind schon heftig. Mit würde auch eine x8 Karte für zwei SSD reichen.
Hi, also vorweg ich habe keines der Technik selbst, welche ich hier gleich vorschlage. Deshalb ist mein Post jetzt mit Vorsicht zu genießen. Aber wenn ich Du wäre, würde ich wohl eine von 2 Optionen wählen:

1.Für den "kleinen" Geldbeutel: Die Dual M.2 Variante mit Kabeln . Da sind wir doch "schon" mit 145€ dabei (vielleicht kommen noch 2x SATA Stromverlängerungen hinzu, je nachdem wie du das verbaust).
2. Die SFF-8654 i8 Variante wie bei dem 360€ Delock, nur halt x8 anstatt x16. Hier müsste man aus USA importieren und zwar eine SFF 8654 i8 Karte mit dem Kabel . Trotz Import sind wir da immer noch unter 200€ (vielleicht kommt noch MwSt. drauf, aber selbst dann immer noch mehr als 100€ gegenüber dem 360€ Delock gespart).

Einziger Nachteil von 1. wäre später, ob man damit auch PCIe5 Geschwindigkeiten erzielen kann. Wetten würde ich nicht drauf. Bei SFF 8654 i8 lese ich halt, dass der 8 Kanäle mit jeweils 8 GT/s schafft. Das sollte locker für 2x PCIe5 SSDs reichen und sogar für 1x PCIe6 ?! Naja, bis dahin gibt es bestimmt wieder neue Kabel und Adapter, die das auf jeden Fall können.

Hätte liebend gerne Praxiserfahrung ins Spiel gebracht, aber leider kann ich mich nur auf das beziehen, was Google mir so ausspuckt 😅
 
Die Preise bei PCIe 4.0 zertifizierten Risern und Kabeln sind für Privatnutzer hoch, keine Frage. Aber die Ansprüche an die Signalqualitäten und -laufzeiten auch. Das kann man auch in diversen Videostreams z.B. mit Risern für 4.0 Grafikkarten sehen, das es oft genug mit gen3 Risern nicht klappt, bevor man im Bios z.B. auf gen3 limitiert. Auch hier im Forum gabs ja Erfahrungen mit Adapter-an-Adapter bzgl. 4er SSDs.

Andererseits sind die Preise im Verhältnis zu den SSDs zu sehen; und die sind bei Datacenter-SSDs nunmal auch sehr hoch, da muss man die Anschlusskabel ins Verhältnis setzen.
Ferner: Wer Datacenter und PCIe 4.0 will, muss das halt bezahlen. Was nützen mir tolle SSDs, wenn die Links instabil und unzuverlässig sind: rein goar nix.

Von M.2 auf U.2 PCIe 4.0 halte ich nicht mehr viel, dachte auch zuerst dass das evtl. geht. Den M.2 Adapter+Kabel von der Intel 900p hatte ich gestestet (ich hab ja eine 280GB Optane) : PM9A3 wurde damit nicht erkannt, weder im M.2 Slot der CPU noch bei der vom Chipsatz. Nada.
Mit dem 4,0-Adapter und SlimSAS gings sofort und problemfrei.

PCIe 5.0 sehe ich derzeit und auf Sicht noch für völlig uninteressant zuhause, ganz besonders in Bezug auf Storage. Da mach ich mir noch lange keinen Kopf drum,.

Btw: MwSt als Einfuhrumsatzsteuer kommt immer drauf aus dem Drittland. Egal ob Zölle bestehen oder nicht. Manchmal ist das halt in den Abwicklungsgebühren der Portale für die Abfertigung dann gelabelt.
 
Zuletzt bearbeitet:
1.Für den "kleinen" Geldbeutel: Die Dual M.2 Variante mit Kabeln . Da sind wir doch "schon" mit 145€ dabei (vielleicht kommen noch 2x SATA Stromverlängerungen hinzu, je nachdem wie du das verbaust).
2. Die SFF-8654 i8 Variante wie bei dem 360€ Delock, nur halt x8 anstatt x16. Hier müsste man aus USA importieren und zwar eine SFF 8654 i8 Karte mit dem Kabel . Trotz Import sind wir da immer noch unter 200€ (vielleicht kommt noch MwSt. drauf, aber selbst dann immer noch mehr als 100€ gegenüber dem 360€ Delock gespart).
Die Variante PCIe auf M.2 auf Adapter auf Adapterkabel halte ich für unglücklich. Das sind mir zu viele Übergänge, die der Signal Qualität sicherlich nicht guttun. Beim zweiten Vorschlag schrecken mich die DIP-Schalter ab. Aber trotzdem vielen Dank für deine Vorschläge.
Beitrag automatisch zusammengeführt:

Die Preise bei PCIe 4.0 zertifizierten Risern und Kabeln sind für Privatnutzer hoch, keine Frage. Aber die Ansprüche an die Signalqualitäten und -laufzeiten auch. Das kann man auch in diversen Videostreams z.B. mit Risern für 4.0 Grafikkarten sehen, das es oft genug mit gen3 Risern nicht klappt, bevor man im Bios z.B. auf gen3 limitiert. Auch hier im Forum gabs ja Erfahrungen mit Adapter-an-Adapter bzgl. 4er SSDs.

Andererseits sind die Preise im Verhältnis zu den SSDs zu sehen; und die sind bei Datacenter-SSDs nunmal auch sehr hoch, da muss man die Anschlusskabel ins Verhältnis setzen.
Ferner: Wer Datacenter und PCIe 4.0 will, muss das halt bezahlen. Was nützen mir tolle SSDs, wenn die Links instabil und unzuverlässig sind: rein goar nix.

Das Qualität ihren Preis hat sehe ein. Aber diese Preise sind lächerlich. Die U.2 SSDs habe ich nur gekauft da Sie sehr günstig waren. Wenn ich das so sehe, ist es günstiger, die SSDs wieder zu verkaufe und mir M.2 Modelle zu besorge. Habt ihr einen Modell Tipp für mich. Anforderung ist PLP, ab 960GB, PCIe 3 o. 4, TWB ab 800TB, kann Read Intensiv sein.
 
Die Variante PCIe auf M.2 auf Adapter auf Adapterkabel halte ich für unglücklich. Das sind mir zu viele Übergänge, die der Signal Qualität sicherlich nicht guttun
Findest du? In beiden Fällen hast du eine PCIe Karte und ein Kabel pro Slot. Aber ja, SFF 8654 ist der Aufgabe definitiv eher gewachsen, sonst hätte Delock diese Variante ja nicht für ihren Schickimicki Adapter eingesetzt.
Das Qualität ihren Preis hat sehe ein. Aber diese Preise sind lächerlich. Die U.2 SSDs habe ich nur gekauft da Sie sehr günstig waren. Wenn ich das so sehe, ist es günstiger, die SSDs wieder zu verkaufe und mir M.2 Modelle zu besorge. Habt ihr einen Modell Tipp für mich. Anforderung ist PLP, ab 960GB, PCIe 3 o. 4, TWB ab 800TB, kann Read Intensiv sein.
Da gibt's eigentlich nur die Samsung PM9A3 oder die Micron 7400 Pro. Die Samsung ist besonders bei 4TB sogar günstiger als Consumer, hat aber halt keine Garantie und Support. Auf Ebay und Kleinanzeigen gibt es die zum Teil zum SATA Preis, also echt wild. Die Micron hat 5 Jahre Garantie und vielleicht Support (weiß da aber keine Details), aber ist halt teurer. Die sind alle im 22110 Format außer die 960GB Micron 7400, welche anscheinend noch mit 2280 angeboten werden kann.
Ach ja, wenn du noch warten kannst, legt Micron demnächst die 7450 nach mit 176-Layer NAND statt 96-Layer.
 
Danke für die Vorschläge. Micron scheint bezüglich Garantie und Support genau so zu laufen wie Samsung. Mal sehen was die 7450er kosten werden. Bis dahin bestelle ich mir evtl. nochmal diesem Adapter U.2 Riser Karte 2-U2X8 SSD PCIE 4,0

Warum haben die Seagate und WD NAS NVMe SSDs eigentlich kein PLP? Wenn die als cache Laufwerk dienen würde das doch sinn machen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh