U.2 SSD an LSI3008 - Anschluss möglich?

eehm

Enthusiast
Thread Starter
Mitglied seit
13.09.2011
Beiträge
596
Hallo,
ich suche aktuell nach Enterprise SSDs für mein ZFS-System-Volume. SSDs mit U.2 Anschluss sind teilweise billiger als SATA.
Leider hat mein Board keinen U.2 Anschluss.
Bekomme ich die U.2 SSD z.B. irgendwie an den Mini-SAS.Port? Der hätte ja bis zu 12GB/s.
Oder wäre nur ein U.2 zu PCIe-Adapter möglich?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein, am 3008 wird nix laufen.
u.2 != SAS.

Das sind 2 voellig unterschiedliche Protokolle.

PCI-E Adapter wird wohl gehen, je nach Board etc..
 
Yup, das geht mit dem 3008er nicht.
An die 9400er und 9500er ("Tri-Mode") kann man auch NVME hängen, wenn man die sog. U.2 Enabler Kabel von Broadcom hängt (die Controller haben andere Kabelbelegung, Billigkabel gehen da nicht).

Mit PCIe-Adapter aber Achtung bei PCIe Gen 4; da wirds sehr kritisch mit den Signalqualitäten und -laufzeiten. Nicht auf die Idee kommen, von M.2 auf SFF-8643 und von SFF-8643 auf U.2 gehen. Klappt meist nicht.
Für U.2 mit PCIE4 willst Du Slim-SAS 8654 oder ggf. Oculink. . Kabelverfügbarkeit derzeit "meeehhhh".
 
SFF-8639 führt immer wieder zu Verwirrung, denn es ist ein Stecker der für Mini-SAS und für U.2 verwendet wird, aber um U.2 genannt zu werden, muss er PCIe Lanes bieten:
Nur die schon genannten 9400er und 9500er "Tri-Mode" SAS Controller bieten SAS und U.2, viele Mainboards bieten SATA und U.2 über SFF-8639, weil man eben bei vielen Chipsätzen oder auch CPU I/O Pins zwischen PCIe und SATA umschalten kann.
 
Delock hat ein Set, PCIe 4.0 taugliche Adapterkarte mit Kabel, herausgebracht: #90077 .
Ist aber noch nicht in der Breite verfügbar. Preisrange: derzeit ~ 350 Euro inkl. Mwst.

Interessant könnten auch Carrier-Karten sein, wo 2x U.2 auf einer x8 Steckkarte (oder 4x U.2 auf einer x16 Karte) montiert werden, hatte mich mal bei Level1techs gesehen. Aber das scheint mir derzeit alles "Bastelware" zu sein.

Die andere Frage ist: braucht man daheim wirklich PCIe 4.0 U.2 SSDs. Ich liebäugle ja selber seit geraumer Zeit mit zwei PM9A3 a 7.68TB, aber da ich fürchte das da die Augen+Basteltrieb größer als der echte Bedarf ist, versuch ich das zu verdrängen.
 
Zuletzt bearbeitet:
braucht man daheim wirklich PCIe 4.0 U.2 SSDs. Ich liebäugle ja selber seit geraumer Zeit mit zwei PM9A3 a 7.68TB, aber da ich fürchte das da die Augen+Basteltrieb größer als der echte Bedarf ist, versuch ich das zu verdrängen.
Nein braucht man denke ich daheim sichern nicht.
Ich dachte eigentlich nur, ob man nicht vielleicht die 12 GB/s von SAS noch ausnutzen könnte. Das würde mir ja leicht reichen. SATA 6 GB/s finde ich zwar auch noch OK, aber nicht mehr so den Hammer bei einer VM-Storage SSD!
 
Interessant könnten auch Carrier-Karten sein, wo 2x U.2 auf einer x8 Steckkarte (oder 4x U.2 auf einer x16 Karte) montiert werden
Nur muss es entweder eine mit einem PCIe Lane Switch sein (aka PLX Chips und die sind sauteuer, einige Hundert Euro) oder der PCIe Slot in dem sie steckt muss PCIe Lane Bifurkation unterstützen, damit mehr als eine SSD in einem solchen Adapter funktioniert.
ob man nicht vielleicht die 12 GB/s von SAS noch ausnutzen könnte.
Dazu braucht man dann eine SAS 12Gb/s SSD.
 
Ich nutze PCIe Adapterkarten auf die man die U.2 SSDs direkt aufschraubt. Klappt astrein, aber man verbraucht halt je SSD min. einen x4 Slot.
 
Dazu braucht man dann eine SAS 12Gb/s SSD.
Die sind komischerweise viel teurer als die U.2 ... verstehe mal wer will!

Ich nutze PCIe Adapterkarten auf die man die U.2 SSDs direkt aufschraubt. Klappt astrein, aber man verbraucht halt je SSD min. einen x4 Slot.
Mal die Slots außen vor .... kann man die Adapterkarten der PCI-Passthrough dann an VMs durchreichen oder geht das nicht?
 
Die SAS-12G-SSDs sind Enterprise-Ware und haben meißt noch eine hohe TBW und gute Power-loss-Features.

Ich hatte mir mal für meinen Blog einen DeLock M.2->U.2 Adapter sammt passendem U.2 Kabel von DeLock gekauft. War zwar mit zusammen 100 Euro nicht sehr günstig, aber die Anschaffung lohnte sich. mit dem Test der Intel DC P4510, 8 TB, hatte ich keine Probleme. Es ist aber richtig, dass man sehr viel schlechtes über solche Adapter+Kabel ließt, sodass ich vielleicht einfach ein gutes Exemplar erwischt habe.

Normalerweise solltest du alle Arten von PCIe-Karten durchreichen können je nach Hypervisor, dass ist ja der Sinn der Sache.
 
Mal die Slots außen vor .... kann man die Adapterkarten der PCI-Passthrough dann an VMs durchreichen oder geht das nicht?
Das System sieht ja nicht den Adapter sondern nur die SSD. Afaik kann jedes PCIe Gerät durchgereicht werden.
Achtung bei 2x U.2 Karten die Chips drauf haben, da sieht das wieder ganz anders aus.
 
Die sind komischerweise viel teurer als die U.2 ... verstehe mal wer will!
SAS dürfte auf dem absteigenden Ast sein, der Trend geht bei Enterprise Storage (außer wenn es nur auf hohe Kapazität zu günstigen Preisen ankommt) von SAS zu U.2 oder anderen Formfaktoren für NVMe SSDs.

Die SAS-12G-SSDs sind Enterprise-Ware und haben meißt noch eine hohe TBW und gute Power-loss-Features.
Das gilt für U.2 aber ebenso, nur von Intel gab es die 750 und die Optane 900P/905P als Consumer SSDs in U.2 Formfaktor, aber dies waren ja auch Ableger von Enterprise SSDs.
 
Das System sieht ja nicht den Adapter sondern nur die SSD. Afaik kann jedes PCIe Gerät durchgereicht werden.
Merkt man eigentlich mit U.2 eine deutliche Geschwindigkeitssteigerung (IOPS) gegenüber SATA 6GB/s?
Also die Lese- und Schreibperformance ist natürlich um ein vielfaches höher. Aber wird auch die Performance der IOPS deutlich gesteigert?
Die IOPS interessieren mich jetzt besonders, weil diese ja beim Einsatz als VM-Systemplatte mit mehreren VMs besonders wichtig ist!
 
Merkt man eigentlich mit U.2 eine deutliche Geschwindigkeitssteigerung (IOPS) gegenüber SATA 6GB/s?
Wie die Vorposter schon deutlich gemacht haben : ob U.2 mit PCIe, M.2 mit PCIe oder direkt im PCIe-Slot - im Endeffekt betreibst Du eine SSD über NVMe-Protokoll mit den entsprechenden Performance-Steigerungen. Direkt im PCIe-Slot ist halt evtl. mehr mit 8 oder 16 Lanes möglich, die anderen Arten nutzen halt 4. Rest hängt dann von der konkreten SSD ab. Was die IOPs angeht, so hast meist eine deutliche Steigerung beim Lesen. Weil die Enterprise Modelle meist auf solche Tricks wie pseudo-SLC-Cache verzichten, sind die IOPs beim Schreiben oft viel niedriger, dafür hat man stets eine konstante Leistung.
So viel zur Theorie, genaueres kann man erst sagen, wenn Du Dein Brett nennst bzw. konkrete SSD, mit der Du liebäugelst.
 
So viel zur Theorie, genaueres kann man erst sagen, wenn Du Dein Brett nennst bzw. konkrete SSD, mit der Du liebäugelst.
Board ist ein ASUS P10S-E/4L https://www.asus.com/de/Commercial-Servers-Workstations/P10S-E-4L/.

Ich überlege im Detail was am sinnvollsten bzw. besten für mein VM-Storage ist:
  1. 1 x SSD (1TB) M.2 (PCIe): Kingston DC1000B
  2. 1 x SSD (1TB) U.2 mit Adapter: Samsung OEM Datacenter SSD PM9A3
  3. 2 x SSD (0,5TB) SATA an HBA SAS3008 im ZFS-Mirror: Samsung OEM Datacenter SSD PM893 480GB
 
Merkt man eigentlich mit U.2 eine deutliche Geschwindigkeitssteigerung (IOPS) gegenüber SATA 6GB/s?
Die meisten Heimanwender werden keinen Unterschied merken, da bei ihnen selten überhaupt mal 4 parallele Zugriffe vorkommen. Viel wichtiger ist die Latenz die man am Besten anhand der Lesrate bei 4k QD1 sehen kann und nimmt man die einfach mal 4, so erkennt man, dass auch eine SATA SSD dies noch packen kann. Um die maximalen IOPS Lesend aus so einer schnellen NVMe SSD zu kitzeln, braucht CDM ja schon 16 Threads die jeweils 32 parallele Anfragen stellen, die 64 parallelen Anfragen die AS-SSD stellt, reichen dazu schon gar nicht mehr aus.

Also die Lese- und Schreibperformance ist natürlich um ein vielfaches höher.
Aber auch nur wenn entsprechend viele lange und vor allem parallele Zugriffe erfolgen, denn bei nur einem 4k Zugriff, sind die Unterschiede nicht besonders groß und gute SATA SSDs teils besser als schlechte NVMe SSDs. Auch hier sieht man, dass AS-SSD mit nur einem 16MB Zugriff bei weitem nicht so hohe Leseraten aus einer NVMe SSD kitzeln kann wie CDM mit 8 parallelen 1MB Zugriffen und bei 32 parallelen Zugriffen über je 128k erreicht es meist sogar noch ein paar MB/s mehr. Aber auch hier gilt, dass es im Alltag, zumindest bei Heimanwendern, kaum mal so viele parallele und lange Zugriffe gibt, weshalb die meisten dann auch enttäuscht sind, weil die Mehrleistung die im Alltag ankommt, eben bei weitem nicht dem Vielfachen entspricht was der Vergleich der Werte im Datenblatt zu versprechen scheint.

Meine Empfehlung ist immer, mal mit HWInfo64 und dort Sensors zu schauen welche Lese- und Schreibraten denn wirklich erreicht werden, also bei den Zugriffen wie man sie wirklich hat.
Die IOPS interessieren mich jetzt besonders, weil diese ja beim Einsatz als VM-Systemplatte mit mehreren VMs besonders wichtig ist!
Das hängt davon ab was auf den VMs gemacht wird.

im Endeffekt betreibst Du eine SSD über NVMe-Protokoll
Nein, richtig wären: "im Endeffekt betreibst Du eine SSD die das NVMe Protokoll nutzen über PCIe Lanes"! NVMe ist ein Softwareprotokoll genau wie AHCI bei SATA, da sagt ja auch keiner, er betreibe seine SSD über das AHCI Protokoll und das NVMe Protokoll setzt eine Anbindung der SSD über PCIe Lanes voraus.

Weil die Enterprise Modelle meist auf solche Tricks wie pseudo-SLC-Cache verzichten, sind die IOPs beim Schreiben oft viel niedriger, dafür hat man stets eine konstante Leistung.
Jein, der eigentliche Grund warum die IOPS bei Enterprise SSDs geringer angegeben werden ist, dass sie bei denen die Angaben auf den Worst Case bezieht, also auf den Steady State, also eine volle SSD mit Schreibzugriffen über den ganzen Adressraum oder alternative mit JESD219 workload. Dies sollte irgendwo im Datenblatt angegeben sein, so z.B.:
Bei Client SSDs wird dagegen der Best Case Wert angegeben, also z.B. mit CDM über nur 1GB Adressraum auf einer leeren SSD gebencht und würde man bei denen die Werte genauso ermitteln und angeben wie bei Enterprise SSDs, was Anandtech früher auch gemacht hat, dann sind die Werte meist sehr viel schlechter als die von Enterprise SSDs und umgekehrt bekommt man bei Enterprise SSDs in aller Regel viel bessere Werte als im Datenblatt, wenn man sie einfach mal leer mit CDM bencht.
 
Um die maximalen IOPS Lesend aus so einer schnellen NVMe SSD zu kitzeln, braucht CDM ja schon 16 Threads die jeweils 32 parallele Anfragen stellen, die 64 parallelen Anfragen die AS-SSD stellt, reichen dazu schon gar nicht mehr aus.
Danke für deine ausführliche Ausführung. Das habe ich jetzt verstanden.
Also ist du U.2 SDD jetzt eigentlich raus. Das macht nur Mehrkosten und eine Fehlerquelle mehr durch den zusätzlichen Adapter.
Jetzt muss ich mich nur noch zwischen M.2 oder einem ZFS-Mirror am SAS3008 entscheiden .... :)
Hat irgendwie beides seine Vorteile, wobei ich eigentlich zum ZFS-Mirror tendiere, weil ich den dann schön per NFS an die VMs verteilen könnte und in TrueNAS managen könnte!(y)
 
Jetzt hätte ich nochmal einmal eine Frage.
Wenn ich PCIe-Adapter für U.2 oder M.2 SSDs einsetzte, kann ich diese dann z.B. in ESXi oder Proxmox direkt an eine VM durchreichen oder ist das nicht so einfach möglich wie bei einem HBA?
Oder muss ich in diesem Fall dann alles was "onboard" vorhanden ist an die VM durchreichen?
 
Wenn ich PCIe-Adapter für U.2 oder M.2 SSDs einsetzte, kann ich diese dann z.B. in ESXi oder Proxmox direkt an eine VM durchreichen
Das hängt vom Mainboard bzw. eben der Plattform ab, wenn die PCIe Lanes an denen die SSD hängt an eine VM durchgereicht werden können, dann sollte es kein Problem sein.
 
Das hängt vom Mainboard bzw. eben der Plattform ab
Kann ich das irgendwie ohne der HW herausfinden?
Aktuell zeigt mir ESXi keinen möglichen PCIe -assthrough an außer den HBA und den Raid-Controller, aber wahrscheinlich wird auch nur etwas angezeigt, wenn ein weiteres Gerät eigesteckt ist?
 
aber wahrscheinlich wird auch nur etwas angezeigt, wenn ein weiteres Gerät eigesteckt ist?

Korrekt. Wie soll ESXI auch ein Gerät für passthrough anzeigen/anbieten können, wenn es nicht in einem Slot steckt? Dazu muss es ja Gerätekennung, PCI-Busnummer, etc. kennen.

Ob Passthrough dann auch für ein bestimmtes Gerät oder Gerätekombination funktioniert, hängen dann von Mainboard, Bios und dem Gerät und auch der ESXI-Version ab. Manchmal verhindert auch ein Gerätetreiber das Funktionieren in einer VM, weil der Hersteller diese Betriebsart verhindern will (Stichwort Error 43 bei manchen Grafikkarten z.B.). Manchmal muss man auch für bestimmte Geräte manuell Konfigurationsdateien in ESXI manuell bearbeiten, um Passthrough für diese Devices zu ermöglichen.

Samsung PM9A1 + 960+970 Evo z.B. funktionieren bei mir im ESXI 7.02 auf einem X570D4U-2L2T, die 960+970 hat auch auf einem X11SSH-CTF funktioniert. Eine Optane 900P war dagegen lange picky.
Aber eine vollständige Liste oder Garantien wirst Du nirgendsfinden, nur versprenkelte Informationen und Erfahrungsaustausch in Foren, dass User dies und das gemacht haben und Dinge hier funktioniert oder nicht haben.
 
Zuletzt bearbeitet:
Die SSDs, ja. Aber teilw. auch per Adapter in Slots gehabt. Spielt letztlich ja keine rolle, ist ja beides PCIe.
 
Klauen die M2.PCIe dann auch die Lanes oder sind die separat angebunden?
Das hängt immer vom jeweiligen Mainboard und dem jeweiligen Slot ab bzw. teils auch der Bestückung anderen Slots. Dies sollte man aber alles dem Handbuch des jeweiligen Mainboards entnehmen können und ich kann nur empfehlen immer das Handbuch schon vor dem Kauf des Mainboards zu lesen, vor allem wenn es eben um solche speziellen Frage geht und diese für die Kaufentscheidung wichtig sind.

Bei Deinem steht auf der Produktseite:
 
Meh, könnt ihr mir mal helfen?

Ich hab hier einen 9400-16i, ne U.2/M.2 Adapterkarte und entsprechende SFF Kabel, wird aber nix erkannt...

Ich fürchte, ich hab die falschen Kabel und brauch solche U.2 Enable Kabel?

So hätte ich das:

1732981521431.jpeg
Beitrag automatisch zusammengeführt:

Nachtrag:
Der Adapter ist es, der Beschreibungstext ist für mich nicht 100% schlüssig, lässt mich aber erahnen, dass es wohl Unterschiede in der Schnittstellenbeschaltung gibt...
 
Zuletzt bearbeitet:
SAS Kabel haben in der Regel eine Impedanz von 100Ohm.
PCIe Kabel hingegen eine von 85Ohm.

Demnach wäre das vom großen Fluss ungeeinget.
Alternative:

Tipp am Rande.
Bei solchen Jungend forscht Sachen, würde ich mir immer Kontrollmöglichkeiten schaffen.
z.B.
usw.
Die SSDs selber wirst du ja schon getestet haben.
 
Mh, danke.
Das mit der Impedanz ist ja schon mal was, wobei...bin mir nicht sicher, obs diese ~15% ausmachen (kann natürlich sein), ich tippe da eher auf die Belegung.

Was ist denn der Unterschied zwischen sff-8673 vs sff-8643 ?

Was du verlinkt hast, sollte wohl funktionieren, also der M.2 Adapter von DeLock und das Gegenstück, weils ja PCIe ist.
Der SFF Stecker des HBA dürfte aber irgendwie ne andere Belegung haben, wo es spezielle Kabel geben sollte, die man nicht kaufen will (wenn man sie nicht im Schlacht-Fundus hat... als beruflicher 19"er...).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh