besterino
Legende
Thread Starter
- Mitglied seit
- 31.05.2010
- Beiträge
- 7.570
- Desktop System
- Rechenknecht
- Laptop
- Lenovo Legion 7 Pro (5900HX, 3080, 32GB)
- Prozessor
- Intel i9-13900KS@6300
- Mainboard
- ASUS Maximus Z790 Hero
- Kühler
- Kryo Next S1700, 2xMora 420, Tube 200, D5+3xDDC, Aquaero 6 Pro, DFS High Flow USB, Farbwerk360
- Speicher
- 32GB (2x16GB @7600)
- Grafikprozessor
- Inno3D RTX 4090 Frostbite
- Display
- 55" OLED (Dell AW5520QF)
- SSD
- 1x1TB NVME (OS), 1x4TB NVME, Rest (~12TB NVME) über iSCSI-/SMB-Storage
- HDD
- Näh. Technik von gestern.
- Opt. Laufwerk
- Näh. Technik von gestern.
- Soundkarte
- Cambridge Audio DacMagic 200M
- Gehäuse
- Lian-Li DK-05F
- Netzteil
- be Quiet Dark Power 13 1000W
- Keyboard
- Keychron Q6 Pro, Maxkeyboard Custom Caps, Black Lotus / Dolphin Frankenswitch, Everest Pads
- Mouse
- Swiftpoint Z
- Betriebssystem
- Windows 11 Pro for Workstations (SMB Direct - yeah baby)
- Sonstiges
- Mellanox ConnectX-4 (Dual 100Gbit Netzwerk + WaKü), Rode NT-USB, Nubert ampX uvm. ...
So liebe Geschwindigkeitsfanatiker, die ganze Geschichte begann mit einem verlockenden Angebot bei Ebay, zu einem sehr günstigen Preis Dell-gebrandete Mellanox Connectx-4 Dual Port 100gbit NICs schießen zu können: Dell Plus QSF MLX L CX4 100G HWTYK | eBay
Wie wir im Laufe dieses Threads herausfinden bzw. bestätigen konnten, lassen sich diese Karten in echte Mellanox ConnectX-4 VIB (kombiniert IB/Eth) crossflashen.
Anleitung für den Crossflash von Danielmayer hier im Thread.
Für den uneingeschränkten Umgang mit den NICs empfehle ich Download und Installation folgender Komponenten bzw. folgende Links:
Linux-Treiber (Stichwort: MLNX_OFED), unten auf Download clicken und OS wählen: http://www.mellanox.com/page/products_dyn?product_family=26
ESXi-Treiber (Link zu vmware): http://www.mellanox.com/page/products_dyn?product_family=29
Windows-Treiber, für die ConnectX-4 auf WinOF-2 clicken und OS wählen: http://www.mellanox.com/page/products_dyn?product_family=32&mtag=windows_sw_drivers
Firmware-Tools, MFT (glaub, eventuell auch bei den OFED-Driverpaketen dabei, aber schaden kann's ja nicht): http://www.mellanox.com/page/management_tools
Firmware für die MCX456A-ECAT: http://www.mellanox.com/page/firmware_table_ConnectX4IB
Handbuch: Manual Mellanox ConnectX-4/5 + ESXi
Handbuch: Manual Mellanox UEFI/Legacy Bios
HowTo: HowTo Install Mellanox Firmware Tools for ESX VMWare
Die wesentlichen Informationen zu der Karte und den Einstellungen kann man mit dem Tool mlxconfig abfragen und ändern: Unter Linux geht das z.B. mit "mlxconfig -d /dev/mst/mt4115_pciconf0 q".
Da der Crossflash auch das UEFI-Bios der NICs disabled, kann man damit zum Beispiel diese Funktionalität für beide Ports wieder einschalten:
Ich dürfte die letzten Tage einer der eher intensiveren Besucher auf den Mellanox-Seiten gewesen sein. Kann ich aber nur empfehlen, die Docu bei Mellanox ist m.E. echt vorbildlich, z.B. wie diese RDMA-Test Anleitung. Meine Lernkurve war steil und vielen Dank an alle (vor allem Danielmayer), die mir beim Einstieg geholfen haben bzw. hier dabei waren und sind! Macht schon echt Laune hier in diesem ganz speziellen Unterforum!
Als kleine Anmerkung am Rande: Um wirklich 100gbit rauszubekommen, wo 100gbit draufstehen, muss vieles passen und die Technik ist - sage ich mal als Laie - momentan schon noch die Krönung um Leistungshimmel des gepflegten Heimnetzes. Ohne einen echten elektrischen x16 PCIe3.0 Slot wird's nichts und auch die CPU wird ordentlich gefordert. Schon PCIe3.0 x8 limitiert auf ca. 60gbit (plusminus) und mein i3-7100 kommt trotz x16 auch nicht viel höher als 70-75gbit (wenn er denn bei den Standard-Tests als Server fungiert). Auch bei den Tests heißt es "Obacht!": Parallelität sowohl bei den Netzwerk-Streams als auch bei den CPU-Kernen ist gefragt. Single-wasauchimmer bringt die PS nicht auf die Strasse bzw. die gbit nicht durchs Kabel.
Mir ist es daher auch nur gelungen, die 100gbit aufzurufen, wenn ich die CPU dank RDMA außen vor lassen konnte.
Mein vorläufiges Fazit: Wahnsinnig spannende Welt - aber wohl am Ende vielleicht doch (noch) nicht unbedingt was für Daheim. Aber ich geb' das Zeug nicht mehr her...
Zum Abschluss noch eine kleine Kabel-Kunde (geklaut aus einem anderen Thread hier):
Hier noch der ursprüngliche Startpost im Spoiler.
Erfolgreich getestete Hardware zu den Karten:
100Gbit Transceiver: Generic QSFP28 Modul | 100G QSFP28 100GBASE-SR4 Transceiver | FS.COM
Kabel: MPO Trunkkabel, 10m (33ft) MPO Buchse auf Buchse, 12 Fasern OM4 (OM3) 50/125 Multimode, Polarität B, Elite, LSZH
Standard-Blende: MTM010154
Adapter QSFP+ auf SFP+: MAM1Q00A-QSA
10Gbit Transceiver (im MAM1Q00A-QSA):
- Avago AFBR-709SMZ-ELX
- Fibrestore SFP-10GSR-85
- IBM 78P0624
- Finisar FTLX8571D3BCL
Dieses Kabel sollte auch funktionieren (wird von FS.COM zu ihren 100Gbit-Receivern empfohlen): MTP Trunkkabel, 10m (33ft) MTP Buchse auf MTP Buchse, 12 Fasern OM4 (OM3) 50/125 Multimode, Polarität B, Elite, Plenum (OFNP)
Wie wir im Laufe dieses Threads herausfinden bzw. bestätigen konnten, lassen sich diese Karten in echte Mellanox ConnectX-4 VIB (kombiniert IB/Eth) crossflashen.
Anleitung für den Crossflash von Danielmayer hier im Thread.
Für den uneingeschränkten Umgang mit den NICs empfehle ich Download und Installation folgender Komponenten bzw. folgende Links:
Linux-Treiber (Stichwort: MLNX_OFED), unten auf Download clicken und OS wählen: http://www.mellanox.com/page/products_dyn?product_family=26
ESXi-Treiber (Link zu vmware): http://www.mellanox.com/page/products_dyn?product_family=29
Windows-Treiber, für die ConnectX-4 auf WinOF-2 clicken und OS wählen: http://www.mellanox.com/page/products_dyn?product_family=32&mtag=windows_sw_drivers
Firmware-Tools, MFT (glaub, eventuell auch bei den OFED-Driverpaketen dabei, aber schaden kann's ja nicht): http://www.mellanox.com/page/management_tools
Firmware für die MCX456A-ECAT: http://www.mellanox.com/page/firmware_table_ConnectX4IB
Handbuch: Manual Mellanox ConnectX-4/5 + ESXi
Handbuch: Manual Mellanox UEFI/Legacy Bios
HowTo: HowTo Install Mellanox Firmware Tools for ESX VMWare
Die wesentlichen Informationen zu der Karte und den Einstellungen kann man mit dem Tool mlxconfig abfragen und ändern: Unter Linux geht das z.B. mit "mlxconfig -d /dev/mst/mt4115_pciconf0 q".
Da der Crossflash auch das UEFI-Bios der NICs disabled, kann man damit zum Beispiel diese Funktionalität für beide Ports wieder einschalten:
Code:
mlxconfig -d /dev/mst/mt4115_pciconf0 set EXP_ROM_UEFI_x86_ENABLE=1
mlxconfig -d /dev/mst/mt4115_pciconf0.1 set EXP_ROM_UEFI_x86_ENABLE=1
Ich dürfte die letzten Tage einer der eher intensiveren Besucher auf den Mellanox-Seiten gewesen sein. Kann ich aber nur empfehlen, die Docu bei Mellanox ist m.E. echt vorbildlich, z.B. wie diese RDMA-Test Anleitung. Meine Lernkurve war steil und vielen Dank an alle (vor allem Danielmayer), die mir beim Einstieg geholfen haben bzw. hier dabei waren und sind! Macht schon echt Laune hier in diesem ganz speziellen Unterforum!
Als kleine Anmerkung am Rande: Um wirklich 100gbit rauszubekommen, wo 100gbit draufstehen, muss vieles passen und die Technik ist - sage ich mal als Laie - momentan schon noch die Krönung um Leistungshimmel des gepflegten Heimnetzes. Ohne einen echten elektrischen x16 PCIe3.0 Slot wird's nichts und auch die CPU wird ordentlich gefordert. Schon PCIe3.0 x8 limitiert auf ca. 60gbit (plusminus) und mein i3-7100 kommt trotz x16 auch nicht viel höher als 70-75gbit (wenn er denn bei den Standard-Tests als Server fungiert). Auch bei den Tests heißt es "Obacht!": Parallelität sowohl bei den Netzwerk-Streams als auch bei den CPU-Kernen ist gefragt. Single-wasauchimmer bringt die PS nicht auf die Strasse bzw. die gbit nicht durchs Kabel.
Mir ist es daher auch nur gelungen, die 100gbit aufzurufen, wenn ich die CPU dank RDMA außen vor lassen konnte.
Mein vorläufiges Fazit: Wahnsinnig spannende Welt - aber wohl am Ende vielleicht doch (noch) nicht unbedingt was für Daheim. Aber ich geb' das Zeug nicht mehr her...
Zum Abschluss noch eine kleine Kabel-Kunde (geklaut aus einem anderen Thread hier):
"MM" = Multimode = 50/125, Kabel = "OM1"-"OM5"
"SM" = Singlemode = 9/125, Kabel = "OS1"-"OS2"
NICs ist das egal. Wichtig ist eine (!) Technik zwischen zwei Punkten: MM-Transceiver + MM-Kabel + MM-Kupplung + MM-Kabel + MM-Transceiver. Oder eben SM. Aber nur eines davon.
Je höher die Zahl in der Kabel-Klassifikation, desto besser das Kabel. In der Regel äußert sich das durch die erzielbare Reichweite. Stand der Dinge ist OM4 bzw. OS2 und bei den Preisen bei z.B. fs.com gibt es keinen Grund etwas schlechteres zu kaufen. OM4/OS2 sind auch locker 100G-kompatibel, nicht "nur" 10G.
sch4kal hatte OS2 empfohlen, nicht OM2. Also die Singlemode-Kette. Macht m.E. im Haus kein Sinn, da in der Gesamtinvestition deutlich teurer und kaum ein Haus 100m (100G) oder 300m (10G) Punkt-zu-Punkt-Leitungslänge reißen wird.
Hier noch der ursprüngliche Startpost im Spoiler.
Aus gegebenem Anlass:
Dank Pumuckel, Underclocker2k4 und Danielmayer war ich mal wieder schwachsinnig und habe mir zwei 100Gbit NICs geschossen.
Dazu habe ich mir für den Start (100gbit-punkt-zu-punkt) ausgesucht:
2x 100Gbit Transceiver: Generic QSFP28 Modul | 100G QSFP28 100GBASE-SR4 Transceiver | FS.COM
1x Kabel: MTP Trunkkabel 10m, 12F MTP OM4 Buchse, Polarität B, Magenta | FS.COM
Dummerweise heute die Nachricht bekommen, dass das Kabel nicht sofort lieferbar ist... muss also Ersatz suchen.
Den Danielmayer muss ich auch noch überreden, dass er mir weiteres Testequipment stellt...
Ich werde berichten...
Dank Pumuckel, Underclocker2k4 und Danielmayer war ich mal wieder schwachsinnig und habe mir zwei 100Gbit NICs geschossen.
Dazu habe ich mir für den Start (100gbit-punkt-zu-punkt) ausgesucht:
2x 100Gbit Transceiver: Generic QSFP28 Modul | 100G QSFP28 100GBASE-SR4 Transceiver | FS.COM
1x Kabel: MTP Trunkkabel 10m, 12F MTP OM4 Buchse, Polarität B, Magenta | FS.COM
Dummerweise heute die Nachricht bekommen, dass das Kabel nicht sofort lieferbar ist... muss also Ersatz suchen.
Den Danielmayer muss ich auch noch überreden, dass er mir weiteres Testequipment stellt...
Ich werde berichten...
Zuletzt bearbeitet: