Ist es ein Problem wenn sich 8x 4x Lance Geräte die gesamt 16 teilen ? 8x Nvme Raid Bay soll 8x 4.0x4 betreiben in 2x Raid 10 Formation

Aragonion

Profi
Thread Starter
Mitglied seit
14.02.2024
Beiträge
82

So nun sind endlich die passenden 5.0x16 Pcie Karten draußen um zumindest 8x Pcie Gen 4.0 auf der maximalen Speed zu betreiben wie folgt


Nun stellt sich die Frage bei 2x geplanten Raid 10 da hier dafon die Rede ist das nur 4 Geräte maximal supported werden (Bitfurcation ist klar hat das Motherboard) ob es ein Problem ist wenn man je Eingang 1x4 anschließt und das halt doppelt gemoppelt am Ende.

Eigentlich müsten Sie sich dann doch die Gesammtbandbreite teilen oder ??? Ich will keine 2 Controller verwenden da diese nicht notwendig sind solang man bei Pcie 4.0 x4 Nvme"s bleibt.

Der Raid soll per Software abgebildet werden, Karte ist nur für Verbindung der Lances da !!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die Frage bei 2x geplanten Raid 10 da hier dafon die Rede ist das nur 4 Geräte maximal supported werden
Hast Du nicht schon vor ziemlich genau einem Jahr davon geredet? - Nur keiner hat wirklich genau verstanden, was Du erreichen willst und warum 2x Raid10.
Dachte eigentlich Du hättest ein AMD AM5-System mit einer RTX4090, oder bin ich nicht auf dem neuesten Stand? In einem AM5-Sys, je nach Mainboard, natürlich, kannst Du gerne die Graka auf 8xLanes beschneiden (nicht wirklich schlimm, meine 4090 läuft aktuell auch mit 8x) und die anderen 8x Lanes im zweiten Slot auf 2x 5.0x4 bifurzieren ... Welches MoBo hast Du denn genau?
Eigentlich müsten Sie sich dann doch die Gesammtbandbreite teilen oder ???
So einfach ist das nicht - wenn Du eine 4x4.0-Lanes-SSD an ZWEI 5.0 Lanes anschließt, dann läuft sie einfach mit 2x4.0 Lanes (es sei denn Du hast 5.0-SSDs, die dann mit 5.0x2 laufen - gibt es günstig in Form von 990Evo Plus). Aber zuerst müssen natürlich 16xLanes in 8x 2 bufurziert werden - k.P. welches Brett das können soll... Am besten benutzt man ein HEDT-System oder zumindest einen entsprechenden HBA-Controller.
Der Raid soll per Software abgebildet werden, Karte ist nur für Verbindung der Lances da !!
Ein MegaRaid-Controller von Broadcom kostet natürlich teurer als HBA, ob und wo ein Software-Raid10 (und das gleich 2 Mal!) Sinn macht - das musst Du schon selbst wissen.
Ich will keine 2 Controller verwenden da diese nicht notwendig sind solang man bei Pcie 4.0 x4 Nvme"s bleibt.
Egal ob PCIe4.0 oder 5.0, es sind schließlich 4 Lanes und das mal 8 SSDs - also 32 Lanes... Das könnte man noch einigermaßen günstig mit 24-Lanes-Controller PLUS Paar M.2-zu-Oculink Adapter lösen, oder natürlich gleich einen teureren Controller, der 32 Lanes kann kaufen: https://www.broadcom.com/products/storage/nvme-switch-adapter/pcie-gen-4-switch-adapter/p411w-32p
nun sind endlich die passenden 5.0x16 Pcie Karten draußen um zumindest 8x Pcie Gen 4.0 auf der maximalen Speed zu betreiben wie folgt
Was meinst Du damit? Ist zwar eine tolle Karte für HEDT, hat aber mit Deinem Fall wenig zu tun. Die Karte steckt man in einen 5.0x16 Slot und an jedem der beiden MCIO 8i Slots kann man 2x Gen5-SSDs betreiben. Wenn Du diese Karte in einen 5.0x8-Slot steckst (weil Du z.B. auf Deine Garka nicht verzichten willst) - dann funktioniert natürlich nur ein MCIO-Port, was dann für 2x Gen5-SSDs reicht. Dort schließt man natürlich idealerweise modernste Gen5-Enterprise-SSDs im U.2/U.3-Formfaktor an - dafür ist es in erster Linie gedacht.
Beitrag automatisch zusammengeführt:

P.S.: ach ja, falls ein Wechselrahmen (bei einem Raid10-Verbund wohl nicht essenziell) kein Muss ist, dann wäre wohl direkt eine 8x M.2-Karte viel einfacher und sinnvoller.
Hier von Highpoint: https://www.alternate.de/HighPoint/...eizhals&campaign=Controller/HighPoint/1677753
Und hier ein Test samt Raid10: https://www.servethehome.com/highpoint-ssd7540-8x-m-2-nvme-ssd-card-review-sabrent

P.P.S.: außerdem war die Apex Storage x21 von ApexStroge von Linus &Co letztes Jahr omnipräsent - die haben die teure Variante für 21xM.2-SSDs sogar releast und es gibt viele Tests...danach sollte eine x16-Variante kommen und neulich sogar eine Variante mit 16x PCIe5.0-Slots angekündigt und auf Computex gezeigt worden. Danach hat man nichts mehr von Apex gehört und bereits releaste Karten sind kaum kaufbar.
 
Zuletzt bearbeitet:
Vorsicht vor dem Tri-Mode Geraffel, so einfach ist das alles nicht, mal begonnen beim benötigten proprietären Kabelwerk dafür, meine Posts sind ein paar Threads weiter zu finden.
Ich tu seit ner Zeit immer wieder mit einem 9400-16i herum, das ist alles not that easy, wie es klingt... und wenn ich den Themen-Start lese, bin ich mir sicher, dass so ein Tri-Mode-Controller ein teurer Bauchfleck wird.

Da muss man verdammt aufpassen, auch wenn was von "supports Tri-Mode" steht...
Da brauchst du fix die richtigen Breakout-Kabel von Broadcom, die du erstens so schnell nicht finden wirst ohne irgend nem Vertrieb, der weiss, was er dir anbietet und du sie zweitens nicht wirst bezahlen wollen, da bin ich mir auch recht sicher.

Imho wird der einfachste/zuverlässigste weg sein eine HEDT Plattform zu nehmen, also einen "kleinen" Xeon/Threadripper/Epyc mitsamt simplen Adapterkarten (Asus Hyper oder so).
Mainboard selber (TRX50) ist "billig" (~700€).
CPU Preise sind leider bissl fies (1350€ fürn kleinen 24 Core Zen 4....).
RAM ist so lala, ~800€ für 128gb, ist aber immerhin schneller ECC...


Funktioniert auf jeden Fall nicht, du kannst die Lanes nicht beliebig aufteilen, wenn Mainboard/CPU nur x4 x4 x4 x4 können (bei Intel Desktop noch nicht mal das) kannst du keine 8 Geräte dran hängen.

Du bräuchtest wenn so ne M.2 Raid Card mit einem "Switch" drin:
Ist zwar nur PCIe 4.0, aber du siehst hier zumindest Benchmarks und so Kram.
Wirklich ohnen tut das ja alles selten, die Random 4k sind genau so toll wie bei einem einzelnen Drive, die Latenz wird davon nicht besser.
Ob die M.2 jetzt direkt auf der Karte sind oder du per OcuLink irgendwas drehst ist nicht so das Thema, es geht ja um den teuren "PCIe-Switch".


Imho isn HEDT/WS Board/CPU der beste (und trotz allem ws. billigste) Weg "dort hin", wenn man denn wirklich "dort hin" will.
 
Vorsicht vor dem Tri-Mode Geraffel, so einfach ist das alles nicht, mal begonnen beim benötigten proprietären Kabelwerk dafür, meine Posts sind ein paar Threads weiter zu finden.
Ich tu seit ner Zeit immer wieder mit einem 9400-16i herum, das ist alles not that easy, wie es klingt... und wenn ich den Themen-Start lese, bin ich mir sicher, dass so ein Tri-Mode-Controller ein teurer Bauchfleck wird.

Da muss man verdammt aufpassen, auch wenn was von "supports Tri-Mode" steht...
Da brauchst du fix die richtigen Breakout-Kabel von Broadcom, die du erstens so schnell nicht finden wirst ohne irgend nem Vertrieb, der weiss, was er dir anbietet und du sie zweitens nicht wirst bezahlen wollen, da bin ich mir auch recht sicher.
Ich habe auch anfangs gedacht - kann für meinen Broadcom 9600-24i billo-Kabel @ AliE kaufen - nicht mal die Hälfte hat funktioniert. Wird aber kein Problem sein, wenn er sich an die Anleitung von dem Hersteller hält:
 
Haja, ziemlich teures "Jugend Forscht" Projekt...

Mit dem Wechselrahmen (weiss halt nicht, ob der ein "Muss" ist...), dem ganzen Kabelgeraffel und einem entsprechenden HBA ist man in etwa bei dem, was das TRX System Aufpreis kostet (ca. 1500€... 800 CPU, 300 Board, 400 RAM, so roundabout)...

Bin mir eh nicht sicher, wo man hier hin will... Alternativ vielleicht sowas, wenns ein NAS sein soll.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh