Nvme Raid bei günstigen (kleineren) SSDs ?!

Stefan 0815

Enthusiast
Thread Starter
Mitglied seit
18.02.2013
Beiträge
638
Hallo liebes Forum,
Ich bin relativ günstig an 4x NVME Samsung PM981 SSDs mit 256GB gekommen und habe mir für meinen Threadripper 1920 eine Adapterkarte für 4 dieser SSDs gekauft. Ich dachte mir, dass ich mal probieren könnte wofür die PCIe Lanes zu gebrauchen sind (Den Threadripper habe ich gekauft, als er relativ günstig war, der Preis meines Systems spielt deshalb durchaus eine Rolle!).

Code:
   Sequential Read (Q= 32,T= 1) :  5706.290 MB/s
  Sequential Write (Q= 32,T= 1) :  5574.631 MB/s
  Random Read 4KiB (Q=  8,T= 8) :  1159.760 MB/s [ 283144.5 IOPS]
Random Write 4KiB (Q=  8,T= 8) :  1319.761 MB/s [ 322207.3 IOPS]
  Random Read 4KiB (Q= 32,T= 1) :   359.157 MB/s [  87684.8 IOPS]
Random Write 4KiB (Q= 32,T= 1) :   333.709 MB/s [  81471.9 IOPS]
  Random Read 4KiB (Q=  1,T= 1) :    47.621 MB/s [  11626.2 IOPS]
Random Write 4KiB (Q=  1,T= 1) :   180.267 MB/s [  44010.5 IOPS]

Zum Vergleich meine Pro 950:
Code:
   Sequential Read (Q= 32,T= 1) :  2571.956 MB/s
  Sequential Write (Q= 32,T= 1) :  1495.488 MB/s
  Random Read 4KiB (Q=  8,T= 8) :  1211.032 MB/s [ 295662.1 IOPS]
Random Write 4KiB (Q=  8,T= 8) :   422.242 MB/s [ 103086.4 IOPS]
  Random Read 4KiB (Q= 32,T= 1) :   328.325 MB/s [  80157.5 IOPS]
Random Write 4KiB (Q= 32,T= 1) :   306.070 MB/s [  74724.1 IOPS]
  Random Read 4KiB (Q=  1,T= 1) :    49.932 MB/s [  12190.4 IOPS]
Random Write 4KiB (Q=  1,T= 1) :   146.554 MB/s [  35779.8 IOPS]

Jetzt bin ich mir etwas unschlüssig wie ich das Ganze in Anbetracht der 130€ bewerten soll?
Der Beitrag ist ein wenig Reddit Style, aber das darf auch mal sein 8-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja was will man da großartig bewerten.. Es arbeiten 4 Controller vs 1.
Die Ausfallrate ist 4x hoeher und du brauchst ne zusaetzliche Adapterkarte.
Aber skalieren tut dein System anscheinend ganz ordentlich :-)

Ich wuerde dennoch ne einzelne nvme bevorzugen.
 
Ich habe den Beitrag im Falschen Unterforum aufgemacht -> Würde mich über ein Verschieben freuen.

Für mich ist das mit der Ausfallrate weniger ein Argument. Natürlich habe ich jetzt eine 4x höhere Ausfallrate als mit einer einzelnen SSD. Aber wo liegt die errechnete Ausfallrate einer einzelnen SSD die unter Umständen nur 1/4 x der Belastung sieht 8-) .
Adapterkarte war bei dem Preis schon miteinberechnet.
 
SSDs verwenden intern auch ein Raid0 um auf die hohe Datenrate zu kommen. Sinnvoller ist ggf. die SSDs nicht als Raid0 zu verwenden sondern einzeln für z.B. verschiedene VMs oder andere Anwendungen. Welche Adapter-Karte hast du verwendet? Ich habe bisher nur die 3 Euro Adapter von 1x PCIe auf NVMe gefunden. Bei den PCIe Steckkarten Adaptern mit zwei Steckplätzen ist ja in der Regel nur einer für eine NVMe und der zweite für eine mit SATA.
 
Jetzt bin ich mir etwas unschlüssig wie ich das Ganze in Anbetracht der 130€ bewerten soll?
Wenn Du die 4 PM981 für 130€ bekommen hast, ist doch gut. Im Alltag wird das RAID nur selten mehr als die 950 Pro leisten, denn da kommen gar nicht so viele parallele und lange Zugriffe vor um überhaupt so hohe Transferraten aus dem RAID zu kitzeln. Solche RAIDs aus NVMe SSDs sind daher vor allem für Benchmarkfanatiker interessant.
 
Ich glaube eher 130 Euro pro Stück :unsure:
 
Ja ich hab 25€ inkl. Versand Pro SSD bezahlt. Diese OEM SSDs werden vermutlich massenweise aus Notebooks zwecks Upgrade ausgebaut. Den Asus Hyper Adapter gibt es für relativ wenig Gel (30€-40€), hier können die 4 SSDs eingebaut werden.

Für OEM SSDs scheinen mir die PM981 aber gar nicht so schlecht zu sein.

Momentan bin ich mir noch nicht ganz Schlüssig. Diese AMD Raid Treiber sind z.B. sehr eigenartig, weil die NVME SSDs gar nicht schlafen geschickt werden. Das führt dazu, dass sich die Controller im Idle ganz schön aufheizen (was ja im Notebook z.B. nicht passieren sollte).

Ich glaube das ist nur eine Spielerei, weshalb ich im Netz auch nicht so viel gefunden habe.
 

Anhänge

  • IMAG0001.jpg
    IMAG0001.jpg
    1 MB · Aufrufe: 137
Die HYPER M.2 X16 CARD V2 ist speziell für die Nutzung von Intel® VROC konzipiert und verfügt über vier M.2-Anschlüsse für bis zu 128 GBit/s Datendurchsatz. Mit Intel® Virtual RAID on CPU (VROC) können nicht verwendete CPU PCle-Lanes dem Speicher zugewiesen werden, sodass man ein bootfähiges RAID-Array mit mehreren M.2-SSDs erstellen kann. Im Gegensatz zum Motherboard-PCH-basierten RAID beschränkt sich VROC nicht auf den 32-GBit/s-DMI-Engpass, sodass mehrere Laufwerke miteinander kombiniert werden können, um einen hohen Durchsatz zu erzielen. Die HYPER M.2 X16 CARD V2 ist mit einem großen Kühlkörper und einem aktiven Lüfter ausgestattet, um sicherzustellen, dass die M.2-SSDs stets kühl gehalten werden. Eine große Anzahl von SSDs können so parallel über mehrere VROC-Karten laufen, um einen hohen Durchsatz und enorme Kapazität für Systemlaufwerke, Scratch-Disks und mehr zu gewährleisten.


TypController
EAN4718017104791
Hersteller-Nr.90MC06P0-M0EAY0
Controller ArtM.2
SteckplatzPCIe x16 Version 3.0
Datendurchsatz128 GBit/s
Anschlüsseintern4x M.2
HinweisUnterstützt ausschließlich PCIe-M.2-SSDs
Feature4 Zugriff-LEDs, Lüfter-Schalter
Weitere InformationenExterne Anschlüsse: 4x M.2 (M-Key) 2242/2260/2280/22110
AbmessungenBreite: 96 mm x Höhe: 130 mm x Tiefe/Länge: 202 mm
Wenn man über Intels VROC nachließt, war das eher für bestimmte Intel Xeon CPUs mit Raid 0/1/5/10, je nach Lizenz-Dongle auf dem Mainboard konzipiert (2017) und nicht für einen sparsamen Betrieb.
Der Lüfter und Kühlkörper sind nicht ohne Grund auf der Karte verbaut.
 
Natürlich habe ich jetzt eine 4x höhere Ausfallrate als mit einer einzelnen SSD.
Wenn man es genau nimmt ist es sogar der Faktor 16 das man Daten verliert.
Man hat nicht nur die 4 mal so hohe gefahr das eine SSD ausfällt, sondern bei einen Ausfall geht dann auch gleich die 4fach Datenmenge verloren.


Wirklich Sinn macht das ganze eh keinen im Privaten Umfeld.
Was willst du mit den Datenraten machen , vorallen was hast du für eine Quelle /ziel um die Datenraten auch je in der Praxis auszunutzen?
 
Mit 2x32Gbit oder 1x 64Gbit FC, 50/100Gbit Ethernet kann man das als kleines Storage schon weiter reichen, der Vorteil an vielen PCIe Lanes von AMDs aktuellen CPUs ist ja, dass man einiges an Daten darüber abwickeln/durchleiten kann.
 
Fallo, da gebe ich dir recht. Wenn ich es Ausfallsicherer haben wollte, müsste ich ein Raid 10 fahren. Ich verwende es allerdings nur als Systemdatenträger und dieser wird ab und an auf eine langsame HDD gesichert.

Diese Karte an für sich ist aber nichts weiter als ein weiterreichen der 16PCie Lanes an 4x M2 Slots. Obwohl Intel damit mal begonnen hat (der Erweiterungsschlüssel hat nicht wenig gekostet), hat sich AMD dann gedacht, die Raid Funktion umsonst anzubieten. Das Mainboard muss dann den einen Slot so aufteilen, dass es mit 4 unterschiedlichen Geräten sprechen kann. Das Funktioniert zumindest bei meinem Threadripper Board ohne Probleme. Außerdem sind noch relativ potente Spannungsregler für 3,3V integriert, denn für 4 SSDs würde vermutlich die Slot Versorgung nicht reichen.
 
Wenn man über Intels VROC nachließt, war das eher für bestimmte Intel Xeon CPUs
Da hast Du aber uralte Quellen gefunden, denn die X299 i7 und i9 CPUs (außer den Kaby Lake-X) unterstützen auch VROC und natürlich kann man die Karte auf für Threadripper nehmen, der erlaubt ja auch die PCIe Lane Bifurcation in x4+x4+x4+x4, um in alle 4 M.2 Slots je ein Geräte (also eine SSD) ansprechen zu können. Eine RAID Funktion hat die Karte nicht, daher muss man eine anderen RAID Lösung finden und Intels VROC ist nur eine der möglichen RAID Lösungen für NVMe SSDs, aber eben nicht die einzige.

Keine Ahnung was Du mit Deinem Beitrag aussagen willst, aber das die Karte "speziell für die Nutzung von Intel® VROC konzipiert" wurde, ist in diesem Zusammenhang komplett irrelevant.
 
Das ist Werbung von Asus.
Stand 1.08.2019
Welche Plattform wird Intel® VROC unterstützen?
Intel® VROC richtet sich in erster Linie an professionelle Workstations und Serverplattformen. Er erfordert das Intel® Volume Management Device (Intel® VMD), eine Hardware Funktion, die nur für die neue skalierbare Intel® Xeon® Prozessorreihe zur Verfügung steht. Da die Arten der RAID-Unterstützung für die OEM-Plattformkonfiguration sehr spezifisch sind, ist es von entscheidender Entscheidung, ob Sie Intel® VROC anbieten möchten. Informieren Sie sich bei Ihrem Server-oder Workstation-Provider. Es gibt auch begrenzte Unterstützung von X299-Systemen auf Highend-Desktop-PCs. Sehen Sie sich die nächste Frage/Antwort an.

Interessant, SATA und SAS werden schon als Legacy bezeichnet, von Intel:
Denn Intel® VROC kann SSDs, die direkt mit der CPU verbunden sind, über RAID-fähigen RAID-HBAs nicht mehr verwenden?
Hardware-RAID-HBAs sind seit Jahrzehnten der RAID-Industrie zur Unterstützung von Legacy-SATA-und SAS-HDDs und-SSDs bereit und entwickeln sich zur Erweiterung der NVMe-Funktionalität.
 
bzgl. Datenverlust wäre ja auch ein Raid5 eine Alternative. Gibt ja nicht nur Raid 0 oder 10.
 
bluesunset, die ASUS Werbung ist irrelevant, die Karte geht auch auf anderen Systemen wie eben dem TR des TE.

Mo3Jo3, wir wissen ja gar nicht, was der TE mit dem RAID überhaupt bezwecken will, dass es eigentlich eine Spielerei ist, scheint ihm ja schon klar geworden zu sein.
 
Hast recht Holt. Die NVMe Geschichte ist scheinbar allein vom Bios/UEFI abhängig, auch die Aufteilung der PCIe Lanes für mehrere Geräte in einem Slot.
NVMe boot support für ein AMD Mainboard aus 2011
Advanced PCIe Bifurcation options - coreboot
/* PCIe port bifurcation codes - matches setup option values */ +#define PCIE_BIF_CTRL_x2x2x2x2 0
Die schräg montierten SSDs bei dem Asrock Modell https://www.asrock.com/mb/photo/ULTRA%20QUAD%20M.2%20CARD(S3).png, sind vielleicht etwas besser gekühlt.
 
Ein Raid 5 bei NVME SSD's habe ich noch nicht gesehen. Vielleicht bei sehr teuren Hardware Controllern.
Mein Ziel war eigentlich eine alltagstaugliche SSD für "relativ" wenig Geld aufzubauen. Ich hatte ein wenig gehofft im Alltag auch etwas davon zu merken, dem ist aber nicht so.
Ich vermute das ganze kränkelt auch daran, dass ein 16x Slot quasi nur mit einem Numa Knoten der älteren Threadripper verbunden ist. Eigentlich sollten bei einer Durchsatzrate von 3GB/s ja mehr als 7GB/s mit 4 Karten möglich sein.

Diese Asrock Karte ist zur Zeit nur sehr teuer verfügbar und der PCIe Stromanschluss ist auch ziemlich daneben (wie kommt man bitte über 75W, die der 16x Anschluss zur Verfügung stellen sollte?).

Was ich mich frage ist, welche Stripesize am sinnvollsten wäre.

Eine ganz gute Zusammenfassung habe ich hier gefunden:
 
Zuletzt bearbeitet:
Die optimale Stripesize hängt von den verwendeten SSDs ab, was diese am besten schnell wegschreiben können. Wenns mit 4KiB je SSD ist, dann 4x4KiB = 16KiB.
Das mit Raid 0, 1 und 10 und optional Raid 5 ist durch die Wahl eines der beiden Dongles bei bestimmten Mainboards möglich. Hierfür sollte ein extra Steckplatz bei entsprechenden Mainboards für Intel CPUs vorhanden sein.
Intel®VROC6.2
im Oktober 2019 schrieb:
Intel® SSDsThird Party Vendor SSDs
All Intel® SSDs for Data Center with NVMe*(including but not limited to):
•Intel® SSD DC P3100
•Intel® SSD DC P3500
•Intel® SSD DC P3520
•Intel® SSD DC P3600
•Intel® SSD DC P3700
•Intel® SSD DC P4101
•Intel® SSD DC P4500
•Intel® SSD DC P4501
•Intel® SSD DC P4510
•Intel® SSD DC P4511
•Intel® SSD DC P4600
•Intel® SSD DC P4601
•Intel® SSD DC P4610
•Intel® SSD D5-P4320
•Intel® SSD D5-P4326
•Intel® SSD D5-P4420
•Intel® Optane™ SSD DC P4800X
•Intel® Optane™ SSD DC P4801X
All Intel® Professional NVMe SSDs:
•Intel® SSD Pro 7600p
•Intel® SSD Pro 6000p
Other select Intel® SSD Series:
•Intel® Optane™ SSD 900P
•Intel® Optane™ SSD 905PX8
Intel® NVMe SSDs (RAID0 Support only)
•Intel® SSD DC P3608
•Intel® SSD DC P4608
•Intel® SSD DC P4618
Huawei
•ES3500P*
•ES3600P*
Micron
•9100 Series*
•9200 Series*
Samsung
•SM951*
•SM961*
•PM953*
•PM961*
•PM963*
•PM983*
Toshiba
•XG3*
•XG5*
Lenovo
•Atsani*
Western Digital
•SN720*
•SN200*
UNIC
•P8160 E/M*

Linux:
Intel® VROC for Linux is mostly delivered through open source OS kernel and user space tool, with no additional software download required for specific Linux distribution releases. It is up to specific OSV’s to pull-in Intel® VROC features and patches. The distributions below have Intel® VROC support, with newer releases being more complete.
RedHat Enterprise* Linux: ...
SUSE Linux* Enterprise: ...

Windows:
Intel® VROC for Windows is delivered through separate software download(not in OS). Please reference platform provider download resources for access.
•Windows* 10 (RS3/RS4/RS5/19H1)
•Windows* 2012 R2
•Windows* 2016
•Windows* 2019

Maximum x4 PCIe SSD Totals Supported:
•4 Direct Attached SSDs per Intel® VMD domain
•24 SSDs per single Intel® VMD Controller when using switches
•24 SSDs per RAID 0/5 array
•4 SSDs per RAID10 array
•2 SSDs per RAID1 array
•48 SSDs per platform (may require switches)
Da Intel schon von einer Version 7 von VROC schreibt, werden wohl weiterhin noch einige SSDs offiziell unterstützt, in der Zukunft.
Das Thema bleibt auf jedenfall spannend. Ohne entsprechende NVMe SSDs wäre es auch etwas schwierig 100, 200 und 400Gbit Ethernet entsprechend auszulasten.

Aus China gibt es auch einen Low-Profile Adapter für 4xNVMe 2280, je zwei auf der Vorder- und Rückseite:
JEYI-iHyper-Pro-m-2-X16-TO-4X-NVME, die Pro Version ist mit Kühlkörper aktuell noch für 70 US-Dollar, ohne Kühlkörper für unter 25 Euro. Die Bechmarks auch mit den Optane 900P SSDs sind nett. 4kiB Q1T1 lesend 317MB/s, schreibend 292MB/s (jeweils aufgerundet).
10GB/s lesend und 8,2GB/s schreibend, sequenziell bei Q32T1.
 
Zuletzt bearbeitet:
Ich hatte ein wenig gehofft im Alltag auch etwas davon zu merken, dem ist aber nicht so.
Das hätte ich Dir vorher sagen können und haben es auch schon in genug Threads um schnelle NVMe SSDs hier geschrieben: Schon eine alleine braucht zu viele parallele und lange Zugriffe um auf die beworbenen Transferraten zu kommen und im RAID 0 sind es noch mehr, so viele kommen aber im Alltag bei Heimanwender gar nicht vor. Daher haben Heimanwender bei den meisten ihrer Alltagsanwendungen auch keinen spürbaren Vorteil von einer NVMe SSD gegenüber einer SATA SSD und hohe 4k QD1 Lesend Werte sind viel wichtiger als die maximalen Transferraten, auch wenn die meisten nur auf letztere schauen und die 4k QD1 Lesend meist gar nicht genannt werden, sondern nur die maximalen IOPS bei viele parallelen 4k Zugriffen. Aber die üblichen 50MB/s bis 60MB/s bei 4k QD1 entsprechen nur 12.500 bzw. 15.000 IOPS und da kann sich jeder selbst ausrechnen wie viele parallele Zugriffe nötig wären um die beworbenen oft vielen 100.000 IOPS zu erreichen, aber schon 4 parallele Zugriffe sind bei Heimanwendern viel.

Man sieht es beim Game Loading und bei PCMark der MP600 im Review von Tweaktown, wo nicht etwa die MP600 vorne ist die mit PCIe 4.0 x4 die höchsten Transferraten im Testfeld hat, sondern die Optane 905P, die bei 4k QD1 mit über 200MB/s deutlich schneller liest, obwohl sie mit maximal 2600MB/s eine nur etwa halb so hohe maximale Leserate wie die MP600 aufweist.

Die optimale Stripesize hängt von den verwendeten SSDs ab, was diese am besten schnell wegschreiben können. Wenns mit 4KiB je SSD ist, dann 4x4KiB = 16KiB.
Bei 4k Zugriffen sind SSDs sterbenden Langsam, lesend gibt es selten mehr als so 60MB/s, außer bei den Optane und Samsung Z-SSDs. Kein halbwegs vernünftiger Mensch wird Stripesize von 4 oder auch 16 wählen, du bist mal wieder, Du bist wie so oft in diesem Thread total neben der Spur.
Die Bechmarks auch mit den Optane 900P SSDs sind nett.
Die 900P gibt es nur im Formfaktor Add-In-Card, nur die 905P gibt es auch als M.2 22110, von daher kann der Benchmark mit der 900P allenfalls über Riserkarten gemacht worden sein.
 
Und was sieht man da: Vor allem die sequentiellen Leserate sind bei 4k Stripsize deutlich schlechter, bei 16k mittelmäßig und bei 128k am Besten, die übrigen Werte ändern sich kaum und durch den Write back Cache werden vor allem die 4k und 4k_64 schreibend besser. Der TE hat " Sequential Read (Q= 32,T= 1) : 5706.290 MB/s" erzielt, mit 4 SSDs im RIAD 0 die je 3000MB/s lesend schaffen sollten. Auch wenn die Performance im RAID 0 nie linear skaliert, ist dies viel zu wenig und sollte bei optimaler Einrichtung von einem RAID 0 mit zwei solcher SSDs erreicht werden können.

Die Frage nach dem optimalen Stripsize: Mindestens 128k, besser mehr, wenn dies möglich ist, auch 512k sind für solche SSDs besser als 128k. Nur lassen Lösungen die geistig noch bei HDDs hängengeblieben sind, so lange Stripsize oft nicht zu, da HDDs bei 64k fast schon ihre vollen Transferraten erzielen.
 
Samsung PM981 mit 512GB schafft max. 2,3GB/s, im Durchschnitt sogar nur 1,7GB/s
4x1,7GB/s = 6,8GB/s, theoretisch.
5,7GB/s vom TE sind da recht nahe dran. Wenn die 256GB Version von ihm nicht langsamer wäre wie die 512GB Version, was aber anzunehmen ist.
Die PM981 mit 256GB fehlt leider als Vergleich.

Wie der Münchner bestätigt, sind auch 256kiB an einem 3ware 9550SX(U) Controller von 2005 einstellbar.
Habe diesen SATA 2.5 PCI-X Controller damals auch für mein Dual P3-S 1.4GHz System gekauft.
Wenn der 64bit LBA Bug in der Firmware nicht erst mit den 9690er Controllern behoben worden wäre, würden alle aktuellen SATA Disks mit 512e noch daran tun.
Im übrigen, auch wenn es für manche vielleicht schlimm sein sollte, es hatte sich nur merklich die sequenzielle Leserate verbessert, von 4k über 16k hin zu 128k. Wir lesen ja tagtäglich Gbyteweise, am Stück, schön sequenziell... und haben auch nur ein einziges Dateisystem.
Bei aktuellen 16TB HDDs ist eine Spur inzwischen ca. 2MiB lang.
Zu Flash-Speicher habe ich leider keine aktuellen Infos, wie der interne Aufbau ist, wieviel MiB in einer Zelle normal sind.
Und ja, ich war beim Schreiben gedanklich wo anders. Da die Stripsize die Größe eines Streifens je Disk/SSD ist. Bei einer Stripesize von 16kiB und vier Disks/SSDs wäre ein kompletter Stripe-Set entsprechend 64kiB groß.
Bei empfohlenen 256kiB entsprechend 1MiB... schön um 2MiB bzw. 4MiB Speicherinhalte auszulagern, aber wie du auch schon sagtest, außer für Benchmarks eher uninteressant.
 
Zuletzt bearbeitet:
Bluesunset, ich finde es Klasse, dass du so rege mitschreibst.
Ich möchte aber anmerken, das auch ich das Gefühl habe deine Beiträge gehen manchmal über den eigentlichen Inhalt hinaus. Andererseits ist es natürlich toll, dass du so viele Zitate und Belege einfügst, manchmal wäre aber nur eine Verlinkung vielleicht besser!

Ich denke die Intel Lösung sollten wir aus dem Beitrag verbannen. Niemand wird sich einen teuren Key kaufen um mit billigen SSDs dann ein RAID zu bauen.

Den Beitrag mit den SATA SSD RAID habe ich hier im Forum gefunden gehabt. Es war mir nur nicht klar, ob es auch für nvme gilt.

Im letzten Benchmark bin ich sequentiell auf 6900MB/s gekommen, das ist nur 500MB/s schneller als das RAID 0 mit zwei dieser SSDs. Ich werde später nochmal ein Benchmark machen. Alle kleineren Zugriffe haben sich, nachdem die SSDs zu 75% gefüllt sind, nochmals verschlechtert. Die Benchmarks sind vermutlich vor allem aus Notebooks, die 1700mb/s glaube ich daher nicht ganz.

Unter Umständen sichere ich das System und setze es nochmal mit 128kbit zurück.
 
Zuletzt bearbeitet:
Ich habe keine Einstellungen getätigt. AMD wird sicher den Optimalen Wert als Default genommen haben ;)
 
Die 900p gibt es auch als U.2 , nicht nur als AIC. Und damit per Adapter in M.2 Slots (+ Sromversorgung) betreibbar.
Eine ist so in meinem Filer (als Slog+L2Arc)
 
Über eine Optane habe ich auch nachgedacht, zwei sehr günstige 16GB Module ließen sich ja noch auf dem Mainboard unterbringen, die sind aber beim Schreiben allerdings sehr langsam und die Integration auf der AMD Plattform durch die wohl nicht so gute Software fraglich?!

Die "JEYI iHyper m.2 X16" Karte wäre eigentlich meine erste Wahl gewesen (weil diese weniger Platz benötigt) ich hatte jedoch keine Zeit so lange auf die Lieferung zu warten.

RAID0.png


--> Das sieht doch ganz nach 256KB aus von der Stripsize. Müsste dann eigentlich besser performen.
 
Zuletzt bearbeitet:
Die Optane Memory sind ganz normale M.2 NVMe SSDs, allerdings wegen der geringen Kapazität nur beschränkt nutzbar und eben von Intel für Caching gedacht. Dies Caching über den RST ist dann an die entsprechenden Intel Plattformen gebunden, aber mit einer anderen Software und AMD bietet ja auch eine eigene Cachingsoftware, kann man sie natürlich auf jeder Plattform nutzen. Ich habe eine als Linux Systemlaufwerk in einem Heimrechner aus Basis eines Xeon-D 1541.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh