PCIe4.0 x8 NVMe M2 Controllerkarte

Spieluhr

Banned
Thread Starter
Mitglied seit
17.03.2006
Beiträge
11.890
Ort
Dortmund
Hallo zusammen,

für mein Board (MSI Z690 ACE) und meinen Storage das hauptsächlich aus einigen NVMe Gen4 SSDs besteht, suche ich eine PCIe4.0(5.0) x8 2fach NVMe Adapterkarte mit eigenen Controller.
Gefunden habe ich so etwas von Axagon -> PCEM2-ND PCIe 2x NVMe M.2 Adapter allerdings bietet der nur max. PCIe3.0 Support aktiv.
Für PCIe4.0 (event. mit 5.0 Option) habe ich so etwas nicht entdeckt. Gibt es das überhaupt für einen überschaubaren Preis ähnlich dem des Axagon Controllers?

Da das Board Bifurcation unterstützt (siehe Screen) und sowohl PCI_E1 (x16) als auch PCI_E2 (x16) CPU angebunden sind hatte ich gedacht, dass ein Bifurcation "x8/x8" Lane-Splitting optimal ist.
So kann ich im obersten PCI_E1 immer noch eine Pixelschleuder Gen4 x8 bzw später mal Gen5 x8 nutzen (dass die Gen5 mit höherer Beschaltung in absehbarer Zukunft erscheinen glaube ich eh nicht) und im PCI_E2 via dieser Controllerkarte Lane verlustfrei 2x Gen4 (Gen5) NVMe SSD.

MSI_SnapShot_00.png

Kennt wer so eine Controllerkarte für PCIe x16 (beschaltet x8) Gen4/5 mit Controller zum überschaubaren Preis?

Danke für eure Tipps!

Spieluhr
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leider nicht, da sitzt kein Controller für das Signalsplitting PCIe4.0 drauf der die x8 Lanes in x4/x4 für zwei SSDs splittet. Die Karten setzen alle x4/x4 bzw. x4/x4/x4/x4 Bifurcation des Boards für diesen Slot voraus. Bifurcation Lane Splitting unterstützt Intel aber nur in x8/x8, heißt, da PCI_E1 und PCI_E2 via CPU angebunden sind, dass beide Slots je 8 Lanes @ PCIe4.0 bzw. PCIe5.0 erhalten. Ein weiteres Splitting in zb. x8/x4/x4 unterstützt Intel leider nicht. Daher muss in den Slot zwingend eine Adapterkarte herein mit eigenen "Lane" Controller, der diese x8 dann "on_card" in x4/x4 für zwei SSDs aufteilt.

edit: auf der oben im Startpost genannten PCIe3.0 x8 Karte da sitzt so ein ASM2824 Controller oder ähnlich der das kann, so eine Karte für PCIe4.0 x8 wäre ideal. (y) ASM hat da aber leider nur max. PCIe Gen3 Controller im Angebot. Damit würde ich zwar keine Lanes mehr verschenken, meine beiden Lexar (oder Fanxiang, bin da noch am überlegen welche) sind aber alles PCIe4.0 SSDs und die würde ich damit nur unnötig drosseln. (n)
 
Zuletzt bearbeitet:
Oje, ja da scheinst du wohl einen PCIe Splitter zu benötigen, aber die sind schweine teuer...
Da ist es vermutlich fast günstiger ein neues Mainboard, bzw. falls das alle Intel Mainboards nicht können, dann AMD Mainboard + CPU zu kaufen 😅
 
Na, dass Problem ist ja eher, dass du die Dinger für PCIe3.0 ja schon relativ günstig bekommst, für PCIe4.0 aber eher spärlich gesät sind und so eine 500€ QNAP muss es nicht wirklich sein.

Notfalls muss ich dann halt doch 4 Lanes abschreiben und eine 15€ IcyBox PCIe4.0/5.0 M2 Adapterkarte sockeln.
 
Is wohl zu schnell, als dass es billige Splitterchips gäbe.
Hab mir das schon angesehen mit Bifurication-Riser-Adapter-Karten, also dass du den x16 Slot praktisch aufteilen kannst. Gibt da auch schon kaum was.
Fazit war, PCIe 3 gibts diverses Zeug, das man kaufen kann, PCIe 4 kann gehn, muss nicht, gibt nicht viel, ist problematisch vom Signalweg her.

Irgendwann wirst du verstehen, was ich immer meine. Warten wir noch ein paar Monate (und ein paar Fehlschläge/Enttäuschungen deinerseits), dann stehst hinter mir.
 
Also für ein x4/x4/x4/x4 Setup gibt es durchaus ein paar, die kein Vermögen kosten.
Ich nutze zwar bisher nur die ersten 8 Lanes, aber es läuft ohne Probleme.
Diese hier habe ich auf einem Asrock AM4 Mainboard

Und die Version für 4xM.2 gibt es für 80€ bei Delock, oder 60€ bei Asus.
 
Alles schön und gut aber für zb. die DeLOCK aus deinen Beispiel müsste Intel ein Bifurcation Splitting x8/x4/x4 bieten.
Heißt, PCI_E1 würde PCIe4.0 x8 beschaltet und PCI_E2 PCIe4.0 x4/x4 beschaltet sein. DANN würde diese Karte Sinn machen.
..oder halt die Karte "splittet" via Controller die x8 des Slots selbst in x4/x4 für die SSDs. Intel jedenfalls bietets nicht.
 
Alles schön und gut aber für zb. die DeLOCK aus deinen Beispiel müsste Intel ein Bifurcation Splitting x8/x4/x4 bieten.
Deswegen habe ich ja direkt am Anfang folgendes geschrieben :)

Also für ein x4/x4/x4/x4 Setup gibt es durchaus ein paar, die kein Vermögen kosten.


Edit:

Das hier habe ich gerade noch gefunden, scheinbar gibt es auch einige Intel Mainboards, die von der Asus Hyper M.2 unterstüzt werden.

Und die hier habe ich noch gefunden, dort ist angegeben, dass diese auch x8/x8 unterstüzt

Edit2:

Oder auch dieses no name Teil hier:

Dort ist angegeben, dass die folgenden Chipsätze für Intel unterstützt werden
Intel-Plattform X299, C422, C621, Z390, Z370, Z490, Z590, Z690, X99
 
Zuletzt bearbeitet:
Ja.. ..aber auch damit bleibts wie es ist -> funktioniert nicht x8/x4/x4 @ Intel.

bifurcation1.png
 
Zuletzt bearbeitet:
So wie ich das verstehe, sucht Spieluhr eine Adapterkarte mit PLX Chip. Die Firma wurde von Broadcom auf gekauft, was ich den Preisen bemerkbar macht.
Dieser Chip übernimmt die Bifurication, wenn es das Mainboard nicht kann.
Im Prinzip so eine Karte nur ohne RAID. Oder diese Karte aber als PCIe Gen4.

So etwas ist sehr schwierig zu finden und sehr teuer. Dies liegt zum einen an Broadcom (VMware Kunden lernen das gerade). Zum anderen wird so etwas, in der Regel, im Serverbereich/WS genutzt. Und dort können mittlerweile die Mainboards alle Bifurication.
 
Für PCIe3.0 gibts die allerdings auch schon in günstiger, siehe Startpost, von zb. Axagon mit dann halt ASM Switch.
So etwas in günstig für PCIe4.0 und zwei weitere SSDs (Fanxiang S770) würden Platz im Haupt-PC finden. Scheint aber derzeit nicht preiswert möglich so wie es ausschaut.
Alternativ bliebe dann halt nur, auf 4 Lanes verzichten und eine 15€ IcyBox PCIe4.0/5.0 Adapterkarte sockeln (PCI_E2), darüber dann die 4TB NM790 oder 4TB S880 sockeln.

ps: Ich hätte vieleicht doch mal ein Z790 Board wählen sollen. Aber das Z690 ACE wollte ich schon immer einmal haben. Naja, egal.
 
Weil es Reste bzw. Refurbisht Sachen sind.
Ich glaube nicht das es so etwas für PCIe 4 gibt, da wie schon gesagt der Hauptmarkt dafür Server sind und die können Bifurication. Und im WS Bereich haben Dell und Co. ihre eigenen Lösungen, die sie Anfertigen lassen bzw. nur die PLX Chips dazu kaufen.
 
@tonythebuilder : Mal naiv gefragt, weil du hast ja laut deiner Sig. entsprechende Hardware bzw. eventuell selbst Erfahrungen damit gesammelt? Wäre diese Karte von QNAP (QM2-4P-384) theoretisch im PCI_E2 (siehe Grafik Post #10) auf meinen Board unter W11 normal einsetzbar und darauf gesockelte NVMe SSDs (S880, NM790), dann halt im PCIe3.0 Mode ohne zusätzliche Herstellersoftware ansprech- und konfigurierbar?

Für NVMe SSD hatte ich solche Multiplexerkarten noch nie im Einsatz, nur früher mal für mein 16 Storage Sata SSD/HDD (2x LSI SaS9211-8i @ PCIe3.0 x4, siehe Foto) und damit sehr gute Erfahrungen gemacht.

sas-megaraid6skm4.png


ps: Weil darüber könnte ich dann u.U. folgende Konfig. realisieren:
M2_1: WD-SN850X 2TB @ PCIe4.0 (OS)
M2_2: SK_hynix Platinum P41 2TB @ PCIe4.0
M2_3: (bleibt erst einmal frei da PCIe3.0)
M2_4: SK_hynix Platinum P41 2TB @ PCIe4.0
M2_5: FikWot FN955 4TB @ PCIe4.0
PCI_E1: Grafikkarte PCIe4.0 x8 (Bifurcation Mode)
PCI_E2: QNAP Karte PCIe3.0 x8 (Bifurcation Mode) *
PCI_E3: bleibt frei, da shared mit M2_4
*auf QNAP Karte gesockelt: 2x 2TB Fanxiang S880 | 2x 4TB Lexar NM790 (eine wird noch dazu erworben)

Hintergrund: Mein Zweit-PC dient eigentlich nur als reines Datengrab (Storage: P5Plus, S770, S880, NM790 im Switch) und ich wollte diesen abschaffen, alles zentral in meinen Hauptrechner unterbringen.
Da wäre eine PCIe4.0 Multiplexer Karte zwar der Idealfall, daher ja der Thread - aber wenn es so etwas nicht in einem preislich akzeptablen Rahmen gibt, dann halt @ PCIe3.0.
 
Zuletzt bearbeitet:
@Spieluhr

Erfahrungen habe ich mit solchen PLX Karten keine. Mein Board kann Bifurication. Von daher habe ich Asus Hyper M.2 Gen4 und Gen5. Mein NAS Mainboard ist zu Merkwürdig für solche spielerein. Auch wenn ich eine Zeit lang and der QM2-2P10G1TB interessiert war. Leider ist die PCIe x8 und Mainboard hat nur noch x4 in einen x16 Slot.

Ich würde mal sagen, ohne es zu Wissen, das es funktioniert. Denn QNAP selbst schreibt ja:
Hinweis:
Das System BIOS und das Betriebssystem (OS) müssen in der Lage sein, eine PCIe NVMe SSD zu unterstützen. Bitte beachten Sie das technische Handbuch Ihres Systems oder wenden Sie sich an den Hersteller.

Von daher sollte es Plug and Play sein.

Das war bei meiner Hyper M.2 genauso, egal ob mit einer oder zwei M.2 NVME SSD drin. Selbst die Geschwindigkeiten spielen keine Rolle.

Falls du ganz sicher gehen möchtest, frage mal im (Home-) Server/Workstation Forum nach. Dort weiß man eventuell mehr.
Ansonsten Risiko eingehen, 155 Euro bezahlen, Erfahrung sammeln und einen Bericht hier im Forum darüber schreiben. :-)
 
Ich habe mir mal gerade so ein Review Vid dazu angeschaut. Ist ganz normal in PCIe4.0 x8 @ PCIe3.0 x8 unter Windows als Einzelstorages konfigurierbar. Die SSDs sollen auch bootfähig sein, für mich aber uninteressant.

Für PCIe4.0 müsste die Karte dann wohl die Bezeichnung "QM2-4P-484" tragen -> "xP" Anzahl des Storage (2P oder 4P) | "x84" PCIe-Gen (geht ab 284 für PCIe2.0 los).
Ich gehe mal aufgrund des Preises davon aus, dass dort als Bridge-Controller ein ASM2824 Switch verbaut sein wird. Für PLX x4 Storage wäre die viel zu günstig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh