Raid 0 Verbund

Anonymous User

Neuling
Thread Starter
Mitglied seit
22.09.2019
Beiträge
3
Ort
Erding
Hallo zusammen,



ich bin neu im Forum und hoffe ihr könnt mir helfen. Bitte sagt mir nicht, wie sinnlos doch der Raid 0 Verbund zweier NVME SSD’s ist. Ich will einfach schauen, dass ich das irgendwie
zum Laufen kriege. Versucht habe ich schon sehr viel. Im UEFI ist es mir auch gelungen, ein RAID 0 Verbund zu machen, jedoch habe ich nur die Geschwindigkeit von einer. Anfangs
hatte ich beide 970er Evo Plus an der OnBoard PCIE x4 Schnittstelle. Da der DMI 3.0 der Bottleneck ist, habe ich versucht den RAID 0 auf einer Asus Hyper V.2
Erweiterungskarte über den PCIE x16 Anschluss zu realisieren. Im UEFI habe ich alle nötigen Einstellungen getroffen. RST Controller Enabled, Secure Boot disabled, Die
Erweiterungskarte Enabled, CSM disabled und natürlich das Raid 0 Volume mit dem Strip Size 128KB erstellt. Jedoch ist es immer noch die Geschwindigkeit einer einzelnen 970 EVO. Zur
Aktivierung der Erweiterungskarte steht im User Manuel:

If you are using Hyper M.2 Cards or PCIE SSD’s, go to Advanced -
CPU Storage Configuration, then set all the corresponding PCIE Slots to [Hyper M.2 X16] or [PCIE X4 SSD Card] accordingly.

Im UEFI finde ich aber nicht den Punkt "CPU Storage Configuration".
Ist es irgendwie möglich, dass ich den Raid direkt über die CPU laufen lasse, sodass der DMI 3.0 nicht drosselt? Ich habe gelesen, es soll möglich sein, die SSD’s über die PCIE x16
Schnittstelle laufen zu lassen. Da würde in meinem Fall die GPU nur noch 8 Lanes bekommen, was FPS technisch so gut wie keinen Unterschied macht. Siehe Benchmarks.



Mainboard: Asus rog maximus xi Formula
CPU: Intel i9 9900K R0




Grüße
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In welchem PCIe x16 Slot (1. 2. 3.) steckt denn die Grafikkarte, in welchem PCIe Slot die ASUS Hyper M.2 und wo sind die beiden 970 EVOs verbaut?

Gruß
 
Zuletzt bearbeitet:
Auch wenn du es nicht hören magst, was für ein Sinn macht es 2x NVME in Raid 0 laufen zu lassen ?
 
Es geht wohl um die technische Umsetzbarkeit, lass ihn doch machen. Nicht alles auf dieser Welt hat logische Gründe.

Was Sinn und Unsinn ist muss jeder für sich entscheiden, Hauptsache man hat Spaß :^)

Aber wenn es ums technische geht - mit einem solchen RAID 0 kann man selbst mit einem Z390 System Geschwindigkeiten erreichen für die man eine PCIe 4.0 SSD bräuchte
 
Zuletzt bearbeitet:
Nea du gewinnst SSD Speed hinzu, verlierst aber ein haufen CPU Power, hatte das ja früher genau so und du hast durch das Raid alein wenn ich was gespielt habe 20 bis 40% mehr CPU Auslastung was man natürlich auch an den FPS merkt.
 
- - - Updated - - -

In welchem PCIe x16 Slot (1. 2. 3.) steckt denn die Grafikkarte, in welchem PCIe Slot die ASUS Hyper M.2 und wo sind die beiden 970 EVOs verbaut?

Gruß

Die GPU steckt im 1. Slot. Soweit ich weiß, sind alle Slots auf meinem MB PCIE x16 und einmal ein PCIE x1 Slot. Jedoch wird natürlich, sofern die GPU 16 Lanes nutzt, der 2. Slot weniger Bandbreite haben. Ich glaube demnach nur noch 4 Lanes, da meines Wissens nach die CPU maximal 20 Lanes unterstützt. Eine NVME SSD ist auf der Asus Hyper Erweiterungskarte, welche wiederum im 3. Slot steckt. Die andere ist an der OnBoard PCIE x4 Schnittstelle. (Komischerweise, als ich beide SSD’s auf der Asus Hyper hatte, wurde mir nur eine SSD als RST Controlled angezeigt) Da dieser Slot anscheinend der einzige ist, welcher RST controlled ist. Habe alle Slots probiert, bei den ersten beiden ist der Reiter [RST controlled] nicht im UEFI erschienen.

- - - Updated - - -

Was Sinn und Unsinn ist muss jeder für sich entscheiden, Hauptsache man hat Spaß :^)

Aber wenn es ums technische geht - mit einem solchen RAID 0 kann man selbst mit einem Z390 System Geschwindigkeiten erreichen für die man eine PCIe 4.0 SSD bräuchte

Ja, dass das viel Sinn macht, habe ich nie behauptet ;)
Es geht einfach um die theoretische Geschwindigkeit einer PCIe 4.0 SSD und um reine Benchmarkwerte.
Mir ist klar, dass ich im Alltag vielleicht wenig von der Geschwindigkeit mitbekomme. Was Spielladezeiten angeht, erst recht.

- - - Updated - - -

Nea du gewinnst SSD Speed hinzu, verlierst aber ein haufen CPU Power, hatte das ja früher genau so und du hast durch das Raid alein wenn ich was gespielt habe 20 bis 40% mehr CPU Auslastung was man natürlich auch an den FPS merkt.

- - - Updated - - -
Naja ich denke, dass das bei einem 8 Kerner kaum ein Problem sein dürfe. Dieser ist sowieso absolut überdimensioniert, was Gaming angeht. Wenn man im Hintergrund nicht unbedingt ein 4K Video rendert. Mit meinem i7 4770, den ich zuvor hatte, habe ich beim Zocken nie 100% ausgelastet bekommen.
 
Zuletzt bearbeitet:
Da du das selbe MB hast wie ich und ich ebenfalls 2 Samsung SSDs in Raid 0, gehe ich mal davon aus du hast das Setup System verwendet. Du hast aber folgendes Problem. Der eine x4 Slot ist immer mit x4 angebunden, der andere normalerweise mit x2. Ich hab jetzt keine Ahnung ob es auch eine andere Möglichkeit gibt, aber ich musste meine GPU, die im ersten x16 slot sitzt mit PCI-E gen2 anbinden (was daraus dann also eigentlich einen x8 slot macht) um mehr Lans für die SSDs frei zu haben (hab noch eine 3. im x8 mit x4). Deine CPU hat halt nur 16 Lanes und 4 fürs Chipset, die auf USB und eben einen x4 aufgeteilt werden. Du musst dich entscheiden wo du sie anlegst. Eine GPU mit nur x8 anzubinden, kann zwar an den Frames ziehen, aber in der Regel ist der unterschied nicht deutlich spürbar, da heutige Grafikkarten x16 eh nicht voll nutzen.

Edit: Ich hab nochmal nachgeschaut. du kannst nicht auf den einzelnen Slot zugreifen, da du im RAID bist. Aber wenn du bei Advanced ganz nach unten scrollst, müsste da unter HDD Intel Rapid Storage Technologie stehen, darunter ist das RAID Volumen und da kannst du die PCIe Gen einstellen. Ich hab da aber nur 1.0 und 2.0 zur Auswahl, daher gehe ich davon aus das 2.0 das Maximum ist. Da 2.0 die Hälfte von 3.0 ist, würde das erklären warum du nur die halbe Bandbreite hast.

Was die Karte betrifft weiß ich nichts, aber unter Advanced -> Onboard Devices Configuration müsstest du etwas weiter unten was dafür zur Auswahl haben. Deine PCIe Gen kannst du unter Advanced -> PCH Configuration ändern. Da du eine x16 hast dürften ja x8 durchkommen wenn die GPU auch gen 2.0 hat, was sie auch im Auto haben müsste. Es ist aber wichtig das du GPU und SSDs in den ersten beiden Slots hast. der 3. x16 ist nur x2 und kann zusätlich x2 vom Chipset bekommen um als x4 betrieben zu werden. Der ist denkbar ungeeignet für dein Vorhaben.

Bei deinem Board müsste Folgendes gelten: Deine CPU hat 20 Lanes, 4 davon gehen zum Chipset und 16 direkt zu ersten x16. Von dem aus kannst du x8 zum 2. x16 abzweigen und hättest 2x x8 von diesem kannst du x2 zum 3. abzweigen die anderen x2 können auch für ein SSD slot (ich glaube es ist der linke) genutzt werden. Dein Chipset hat zwar nur 4 Lanes, kann aber zwischen einzelnen Anbindungen switchen und so mehr Geräte anbinden, obwohl die max. Bandbreite von x4 immer noch da ist. Der x1 und der rechte x4 werden somit direkt vom Chipset angebunden. Du kannst desweiteren einen x2 vom 2. x8 auf einen M.2 x4 leiten. So zumindest die Theorie. Ich habe leider keine Schematik zu neueren Asus MBs finden können die die Aufteilung näher erläutert, aber Der8auer hat mal in einem Video eine gezeigt zum Hero IX oder so. Da sich die CPUs nicht wirklich verändert haben gehe ich davon aus, die haben die Aufteilung auch nicht verändert.

Ich meine AMD CPUs haben 20 (24) Lanes, wodurch du da 2 SSDs und eine GPU mit voller Anbindung betreiben kannst, Intel ist mit PCIe etwas knauserig, genauso wie Nvidia mit dem GRAM. Aber ich bezweifel das du gleich zu Cascade Lake X oder so switchen möchtest, nur um deine SSDs voll auszuschöpfen zu können.
 
Zuletzt bearbeitet:
Ins passende Unterforum verschoben :wink:
 
der PCIe 16-3 4x hängt mit an der DMI 3.0, sonnst könnte der sich nicht die Bandbreite mit dem SATA6G_56 Controller teilen, also bleibt wenn man den PCI 16-3 nutzt der DMI 3.0 das Bottleneck,

das einzige was sinnvoll gehen würde ist die beiden SSDs in der Asus Hyper V.2 im PCIe-2 zu betreiben.
 
Aber wenn es ums technische geht - mit einem solchen RAID 0 kann man selbst mit einem Z390 System Geschwindigkeiten erreichen für die man eine PCIe 4.0 SSD bräuchte
Nein, kann man nicht immer. Nur wenn er im Fall von Z390 die beiden 970 Evo im Raid0 mit der Asus Hyper Karte im zweiten PCIe Slot angebunden über 8 CPU Lanes laufen lässt, dann verdoppeln sich auch die Werte in Benchmarks.

Nea du gewinnst SSD Speed hinzu, verlierst aber ein haufen CPU Power, hatte das ja früher genau so und du hast durch das Raid alein wenn ich was gespielt habe 20 bis 40% mehr CPU Auslastung was man natürlich auch an den FPS merkt.

Auch das hat man heute nicht mehr, die Last liegt hier mit Z390 und RST Premium Treiber nicht viel höher als bei einer einzelnen.
 
Zuletzt bearbeitet:
Auch das hat man heute nicht mehr, die Last liegt hier mit Z390 und RST Premium Treiber nicht viel höher als bei einer einzelnen.

Was ist am RST bei Z390 anders als beim Z370 ? Sind doch die selben Treiber. Ist das wirklich so ? Also ich hatte mit dem RST Treiber je nach Game oder Anwendung, 20 bis 40% mehr Auslastung, beim Gaming merkst du das an FPS in Anwendung wie Encoden das es trotz schneller SSD alles viel länger dauert. Die hohe Bandbreite belastet scheinbar den RST Treiber wie sau. Ohne Raid war alles ok, 1 bis 5% Auslastung, also nicht der rede Wert. Ich finde ein Raid 0 aus 2 NVME eh für totalen Schwachsinn. Weil du bekommst in normalen Anwendungen nicht mal eine NVME Ausgelastet, warscheinlich nicht mal zur hälfte. Wie ich schon mal geschrieben habe, ist das eigentlich nur für ein was gut, richtig lange Benchmark Balken. Oder wer kopiert den ganzen Tag von NVME auf NVME oder von NVME auf Ram Disk's ? :)
 
Zuletzt bearbeitet:
Also ich hatte zumindest keine so hohe Last, wenn ich mich richtig erinnere so um die 10 Prozent, wenn auf das Raid geschrieben wurde. Wie gesagt, Raid0 mit zwei 970 Evo am Chipsatz ist einfach quatsch, weil nichts groß schneller wird, noch nicht mal die Benchmarkbalken und wenn dann nur schreibend, aber auch nur dann, wenn man größer bencht, als der SLC Cache ist und eben abhängig davon, wie groß die 970 Evo sind.

Das ist ja auch das, was den Threadstarter wundert, er schrieb ja "Im UEFI ist es mir auch gelungen, ein RAID 0 Verbund zu machen, jedoch habe ich nur die Geschwindigkeit von einer. " Er erwartet hier aber eben wohl das so ca. 7100MB/s bei Crystal Disk Mark lesend auftauchen, eben das doppelte einer einzelnen 970 Evo, was ja aber, wenn beide über den Chipsatz angebunden sind, nicht passieren kann, es bleibt mehr oder weniger bei den Werten einer einzelnen. Nur wenn er die beiden 970 Evo im Raid0 mit der Asus Hyper Karte im zweiten PCIe Slot angebunden über die 8 CPU Lanes betreibt, dann verdoppeln sich auch die Werte, also wenn ich mich nicht ganz irre. ;)
 
Zuletzt bearbeitet:
Abend, :d

vielen Dank für die ganzen Antworten! Mal wieder was dazugelernt. Besonders Maurises Beitrag, einfach klasse. Da sieht man eindeutig investierte Mühe! Danke dir. Ich werde eure Ratschläge mal versuchen umzusetzen. Sollte meine GPU allzu stark darunter leiden, löse ich den Raid 0 Verbund und besorge mir eine Einzige SSD. Neulich habe ich etwas über separate RST Controller gelesen, die man in Form von einer Erweiterungskarte kaufen kann. Wäre denn so eine sinnvoll?


Grüße
 
Zuletzt bearbeitet:
Hier weiß ich ja gar nicht wo ich anfangen soll, so viele Irrtümer wie hier vorliegen. Diese ASUS Karte kann wohl nur im zweiten Slot mit mehr als einer M.2 PCIe SSDs funktionieren, dem zweiten x16:
Im dritten wo sie jetzt wohl steckt, gibt es nur 4 Lanes und im ersten dürfte die Graka stecken, aber nur beim 2. steht x4+x4 was anzeigt, dass dieser Slot PCIe Lane Bifurkation unterstützt. Die Graka hat dann aber nur noch 8 Lanes und das RAID funktioniert natürlich nicht über den RST, der ist nur für RAIDs an den Lanes des Chipsatzes. VROC, also das RAID von NVMe SSDs an den PCIe Lanes der CPU wird aber nur von den Skylake-X und Xeons für die großen Sockel unterstützt, aber nicht auf dem S.1151(v2). Daher muss die Karte in den korrekten Slot, die beiden M.2 SSDs müssen ebenfalls in die richtigen M.2. Slots auf der Karte, im UEFI muss ggf. die Lane Bifuraction aktiviert werden und es muss dann ein SW RAID angelegt werden.

PS: Sehe gerade, dass es auch ein "Intel Rapid Storage Technology for CPU-attached Intel PCIe Storage" für den S.1151(v2) gibt:
Hinter dem Link dem Zitat ist auch eine Anleitung wie man dies aufsetzt.
 
Zuletzt bearbeitet:
Das stimmt nicht @Holt

*In Z390 / Z370 series, RAID on CPU function is supported with IRST 16 and later versions.

Siehe hier, der Link sollte auch dem Threadstarter weiter helfen:
[Motherboard] Installation method for compatibility between the Hyper M.2 X16 Card and Add-On Graphic Cards | Official Support | ASUS

Schöner Nachtrag @Holt - erst schreiben geht nicht, dann so tun als wenn du meinen Beitrag nicht lesen würdest - aber schön, dass auch du noch was lernen kannst - jedoch, ausgrechnet bei dir so eine Wissenslücke, ich wundere mich doch sehr!
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh