M.2 to Pcie 4 NVMe SSD Adapter

Volrath87

Neuling
Thread Starter
Mitglied seit
14.10.2023
Beiträge
7
Hallo Zusammen,

Und zwar suche ich eine Leistungsstarke NVMe m.2 to Pcie 4 16x Erweiterungskarte. Der Adapter muss für den Dauerbetrieb in einem Datacenter geeignet sein und bis zu 4 NVMes aufnehmen können.

Zwar habe ich einige vermeintlich gute von Asus und Gigabyte gefunden, allerdings bin ich mir nicht sicher ob sie für den Servereinsatz geeignet sind.

Was würdet ihr Empfehlen?

Vg
Volrath
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, was heisst "leistungsstark"... Die Asus Hyper Karte sollte den x16 Slot einfach auf die vier M.2 Slots (also 4x 4 Lanes) aufteilen, komplett passiv ohne Controller dazwischen. Damit ist es im Prinzip nur ein Platinenadapter, mehr nicht. Natürlich bedeutet das auch, dass das Mainboard bzw. UEFI Bifurcation beherrschen muss - also mehrere Geräte pro Slot. Sonst klappt das nicht.

Es gibt bestimmt auch Adapterkarten welche einen PCIe Switch auf der Platine haben, spontan fällt mir aber keine ein.
 
Mit performant meine ich dass die AdapterKarte nicht zum BottleNeck werden sollte und für den Dauerbetrieb geeignet ist. An sich ist die Asus von den Ubertragungswerten richtig gut, bin mir aber wie gesagt nicht sicher ob sie für den Dauerbetrieb in einem Datacenter geeignet ist.
 
Mit performant meine ich dass die AdapterKarte nicht zum BottleNeck werden sollte und für den Dauerbetrieb geeignet ist. An sich ist die Asus von den Ubertragungswerten richtig gut, bin mir aber wie gesagt nicht sicher ob sie für den Dauerbetrieb in einem Datacenter geeignet ist.
Adapterkarten sind alles passive Komponenten und beeinflussen nicht die Performance. Sofern PCIe Bifurcation genutzt wird.
 
okay, d.h. ich kann auch eine aus dem vermeintlichen "ConsumerMarkt" für den Dauerbetrieb einsetzen?

z.b. habe ich folgende gefunden

Gigabyte AORUS Gen4 AIC Adaptor - https://www.gigabyte.com/de/SSD/AORUS-Gen4-AIC-Adaptor#kf

ASRock Hyper Quad M.2 Card - https://www.asrock.com/mb/spec/product.asp?Model=HYPER QUAD M.2 CARD

ASUS Hyper M.2 x16 Gen 4 Card - https://www.asus.com/motherboards-components/motherboards/accessories/hyper-m-2-x16-gen-4-card/

Beim Gigabyte stört mich dass es wohl eine Limitierung von 15.000MB/s gibt. PCIe 4 auf 16 Lanes sollte eigentlich mehr packen.
Die anderen beiden von AsRock und Asus benutzen beide bifurcation und haben eine deutlich höhere Performance

VG
Volrath
 
Beim Gigabyte stört mich dass es wohl eine Limitierung von 15.000MB/s gibt.
Wie kommst Du da drauf das dies eine Limitierung wäre? Da steht doch auch auf deren Seite als fußnote dazu: "* Performance is based on internal testing results. It may vary with different configurations." Diese einfachen Adapterkarten, übrigens sind es "Pcie to NVMe m.2" und nicht "NVMe m.2 to Pcie" Adapter, man fängt immer mit dem an was man hat, also hier dem PCIe Slot und adaptiert zu dem was man will, also M.2 Slots und damit ist es ein PCie to M.2 Adapter, machen nichts weiter als die PCIe Lanes von den Pins des PCIe Slots an die Pins der M.2 Slots weiterzureichen. Da gibt es keine Limitierungen, außer eben maximal was die Geschwindigkeit der Lanes angeht, weil die Leiterbahnen ggf. zu lang sind, oder das Material der Platine keine ausreichende Qualität der Signale sicherstellen kann oder vielleicht auch weil eben ein Redriver verbaut wurde. Dazu haben die Adapter für mehrere M.2 SSDs auch noch eine eigene 12V auf 3,3V Spannungswandlung, da ein PCIe Slot laut Spezifikation nur 3A auf 3,3V bietet und dann eben auch eine Kühlung, bei denen für 4 SSDs eben gerne eine aktiven, also mit eigenem Lüfter.

Die anderen beiden von AsRock und Asus benutzen beide bifurcation und haben eine deutlich höhere Performance
Erstmal benutzten sie eine Bifircation, sie brauchen einen PCIe Slot mit 16 Lanes der eine Aufteilung diese Lanes des Slot auf mehrere Geräte unterstützt, genau dies meinst PCIe Lane Bifurkation nämlich, um überhaupt mehr als eine M.2 SSDs in ihnen nutzen zu können und um alle 4 M.2 Slot nutzen zu können, muss der Slot eine Aufteilung in x4+x4+x4+x4 bieten. Dies ist bei der Gigabyte Karte nicht anderes, die sind alle von der Funktion her identisch und Karten die mehrere M.2 Slot auch in Ports ohne passende PCIe Lane Bifurkation erlauben, haben immer einen PCIe Lanes Switch oder Broadcom Trimode Controller verbaut, also aktive Bauelemente die für den PCIe Host Controller, also normalerweise die CPU, dann nur ein Gerät sind und die dann eben ggf. auch die Performance limitieren, eben weil sie ja vielleicht je nach Typ selbst z.B. nur PCIe 3.0 oder nur 8 Lanes für den PCIe Slot haben. Aber solche Chips sind teuer, solche Karten kosten für 4 M.2 SSDs dann einige Hundert Euro und sie sind groß und brauchen viel Strom, also auch eine entsprechende Kühlung / Kühlkörper und auf dem Bild der Gigabyte Karte sehe ich da nichts was da in Frage käme.
 
@Volrath87
in was für ein System (CPU / Board) soll die Karte denn rein ?
Davon hängt ab, was überhaupt bzgl. Slotaufteilung/Bifurcation ginge.

Bei Intel geht x4x4x4x4 z.B gar nix auf Desktopsockeln ohne aktive Adapter . Sockel 1700 kann nur x8x8 aufteilen .
 
In den Gigabyte R282-Z97. Die Hauptplatine sollte bifurcation unterstützen.


Mit diesem Barebone würde ich dann aber gerne auf U.2 / U.3 setzen wollen, statt M.2
 

Anhänge

  • Bild_2023-10-19_135448419.png
    Bild_2023-10-19_135448419.png
    76,5 KB · Aufrufe: 61
  • Bild_2023-10-19_135524272.png
    Bild_2023-10-19_135524272.png
    47,2 KB · Aufrufe: 59

Anhänge

  • Bild_2023-10-19_140658556.png
    Bild_2023-10-19_140658556.png
    71,6 KB · Aufrufe: 55
  • Bild_2023-10-19_140707468.png
    Bild_2023-10-19_140707468.png
    76,5 KB · Aufrufe: 56
Aktuell habe ich diesen Adapter sowie dem folgendem Kabel im Sinn
Davon würde ich abstand nehmen.
Ohne redriver wird das in einem solchen Case mit solchen Kabel nichts werden.
Das scheitert schon allein daran, dass du mit den 50cm gar nicht nach vorne kommst. Das müssen also locker 75cm werden, ggf sogar 100cm. Für die geforderte Strecke wird das nichts mit passiver Technik.
Des Weiteren die Frage, hast du die NVMe Backplane eingebaut? Welchen Anschluss hat die?
Normal sollte die für U.2 auch SFF-8654 haben und damit wäre das Kabel, ungeachtet der Länge, eh schon inkompatibel.
Die SFF-8643 Kabel sind für die SAS-Funktion der Backplane.
Weiterhin kann man da auch nur U.2 SSD betreiben, weil es eine U.2 Backplane ist. U.3 Laufwerke werden, wenn überhaupt, nur mit halber Geschwindigkeit laufen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh