[Sammelthread] Der 100Gbit Netzwerk Thread, ein bisschen 40gbit und „beyond“ ;)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich wollte mir jetzt für mein NAS evtl. eine neue Intel XXV710-DA2 kaufen, da das alte NIC nicht mehr richtig funktioniert.

Jetzt wird die XXV710-DA2 sehr oft als Bulk Version verkauft. Weiß jemand, ob die Bulk Version bei Intel auch „Lebenslange“ Garantie hat? Oder ist das dann wie eine OEM Version komplett ohne Garantie?

Ich konnte leider nirgendwo eine genau Aussage finden. Wäre echt super wenn da jemand etwas Ahnung von hätte und mir helfen könnte.
 
ich wollte mir jetzt für mein NAS evtl. eine neue Intel XXV710-DA2 kaufen, da das alte NIC nicht mehr richtig funktioniert.

Jetzt wird die XXV710-DA2 sehr oft als Bulk Version verkauft. Weiß jemand, ob die Bulk Version bei Intel auch „Lebenslange“ Garantie hat? Oder ist das dann wie eine OEM Version komplett ohne Garantie?

Ich konnte leider nirgendwo eine genau Aussage finden. Wäre echt super wenn da jemand etwas Ahnung von hätte und mir helfen könnte.
Gibts dazu gerade keine Gebrauchten ? Gebraute NICs sind eig. nie das Problem, außer es sind Fälschungen.
 
Brocade ICX 6610 bekommt man mittlerweile recht günstig, wenn einem optische Mängel egal sind. Da hast du dann QSFP+, als auch SFP+ und normale RJ45 Kupferports.
Der steht jetzt neben mir. Allerdings drängt sich gerade eine Frage auf. Kann man die zwei Stacking-Ports auch als normale QSFP+ Ports mit 40Gbit verwenden? Das wäre für mich interessanter.
 
Wenn nicht seltsame Management-Optionen seltsame Einschränkungen vornehmen ist jeder Port ein Port.
 
Der steht jetzt neben mir. Allerdings drängt sich gerade eine Frage auf. Kann man die zwei Stacking-Ports auch als normale QSFP+ Ports mit 40Gbit verwenden? Das wäre für mich interessanter.
Sind normale Ports. Du kannst nur die beiden rechten Ports ausschließlich via Breakout auf 4x10G nutzen. Meinen Stack daheim hab ich mit einem 40G Port und einem Breakout Port konfiguriert, das lüppt mit vollen 80 Gbits Stacking Bandwidth.
 
Vielen Dank für die Antworten. Ich glaub ich hab es nicht drauf mit den Fachwörtern oder so ^^. Mein Wunsch ist, vier PCs mit vier DAC an die Ports anzuschließen und jeweils 40gbit als Link zu haben. Soweit ich es jetzt verstanden habe, kann ich an allen zwar die 40Gbit nutzen, aber bei zwei Ports nur jeweils 4x10gbit an 4 unterschiedliche "Empfänger" und nicht eine 40Gbit Verbindung an einen PC. Ist das richtig?
 
Vielen Dank für die Antworten. Ich glaub ich hab es nicht drauf mit den Fachwörtern oder so ^^. Mein Wunsch ist, vier PCs mit vier DAC an die Ports anzuschließen und jeweils 40gbit als Link zu haben. Soweit ich es jetzt verstanden habe, kann ich an allen zwar die 40Gbit nutzen, aber bei zwei Ports nur jeweils 4x10gbit an 4 unterschiedliche "Empfänger" und nicht eine 40Gbit Verbindung an einen PC. Ist das richtig?
Du kannst 2 Ports normal via 40G DAC nutzen, bei den beiden anderen Ports bräuchtest du ein Breakout DAC von QSFP+ auf 4x SFP+ und in den Rechnern dann 4 SFP+ Ports. Dann könntest darauf ein LAG mit LACP einrichten. Singlestream Anwendungen profitieren davon natürlich nicht.
Wenn dir das nicht ausreicht, schau dir mal das Arista dcs-7050qx-32s an, 32 Port 40G Switch. Hat halt einen höheren Stromverbrauch (und Lautstärke), aber auf W/Gbps gerechnet kommst damit trotzdem besser weg.
 
Sach mal, @besterino, wann steigst Du hier ein und berichtest?
To meet the demand for high-bandwidth data transmission while maintaining the lower cost, power consumption and size of data centers, Silicon Photonic technology came into being.
Following this technological change, FS launched the newest SiPh 400G DR4 500m transceiver module QDD-DR4-400G-Si.
SiPh-based high density chip design, integrating Driver/TIA/PD/MZM onto a single Silicon Photonic chip, it significantly reduces the physical size.
Compared with the traditional EML laser InP 400G DR4, it is a cost-effective and lower power short-distance link alternative.
1.299$ p.P.
 
Wenn dir das nicht ausreicht, schau dir mal das Arista dcs-7050qx-32s an, 32 Port 40G Switch. Hat halt einen höheren Stromverbrauch (und Lautstärke), aber auf W/Gbps gerechnet kommst damit trotzdem besser weg.
Dann doch lieber direkt einen SX6036. Günstiger und kann sogar 56G Ethernet mit geflashten CX354A und 56G / 100G Kabeln.
 
@danielmayer Pfffff... ich tüftele aktuell mal wieder an / mit meinem 100ern... siehe hier: https://www.hardwareluxx.de/community/threads/microsoft-hyper-v-stammtisch.1114189/post-28378231

Diese Baustelle/Spielwiese reicht mir ehrlich gesagt aktuell und immer noch völlig. Und am Ende ist das für meine Zwecke sowieso alles recht sinnlos, da man ja keine vernünftigen Clients (Consumer-Plattformen) wirklich schnell ins Netz bekommt: nach Einbau einer Graka sind ja (fast) alle CPU-Lanes weg, wenn man nicht mit x8/x8 Settings fahren will. Klar, kann man schon machen, aber dann isses halt auch irgendwie kacke...

Bleibt nur HEDT für den Client und das ist nicht nur teuer, sondern meist auch gar nicht die Performance-Krone für Single- bzw. Wenig-Thread Anwendungen. Und da haste dann gleich auch so viele Lanes Lokal, dass du da auch nen NVME-Software-RAID0 (oder welche Geschmacksrichtung auch immer) fahren kannst, was vom Setup und Administration doch deutlich entspannter und auch noch performanter daher kommt als irgendwas übers Netz.

Aber ich würfele tatsächlich aktuell wieder ein paar Gedanken hin und her. Brauch allerdings zunächst mal neuen Storage dafür, um bei den nächsten Spielereien nicht meine „produktiven“ Systeme zu gefährden. Ist bereits bestellt. :d Wobei „produktiv“ ist relativ, die müssten bei mir eher „unproduktiv“ genannt werden, idlen ja auch nur zu 99,8% vor sich hin... Werde berichten! Egal wie’s ausgeht... ;)
 
War auch nicht ernst gemeint ;)
Ich habe mittlerweile wohl auch eine meiner beiden 100G-NICs tot bekommen und wegen aktiven Hausbaus ohnehin null Zeit.
Deine 100G-Erfolge im Esxi dienen aber als Motivator :)
 
Schon klar mit dem Ernst - der wurde ja aus Spaß und ist jetzt 11 Jahre alt oder so... :d

Hab aber Dein Posting trotzdem gelesen und bisserl gegoogled... ;)

Hausbau hat was. Bei uns steht irgendwann Umbau an, da gehts aber mehr um Wohnlichkeit und bissi Akkustik - das einzige was da vielleicht ein wenig an EDV erinnert ist die Diskussion rund um die Verlegung der Boxenkabel...

Aber zurück zum Thema: ich war positiv überrascht, wie easy SR-IOV auf dem alten ESXi (6.7 ohne U) mit dem Server 2019 lief. Und SMB-Direct: Hut ab, das geht ja gut ab, einfach out of the Box.

Mal abgesehen von den blöden CPUs auf der Client-Seite hemmt mich aber auf der Serverseite auch noch ein spezifisches Solarish-Problem: für mein Wunsch-OS mit bester ZFS-Basis und überhaupt, Original Solaris 11.4, komme ich nicht an die nötigen Treiber. Und mit den Freien Solaris-Derivaten wie OmniOS Illumos & Co. muss ich mich überhaupt erstmal wieder auseinandersetzen und wären - selbst wenn alles Netzwerk-mäßig ginge - trotzdem irgendwie nur zweitbeste Lösung. :( Oder doch noch anders mit XigmaNAS oder wie auch immer das jetzt heißt.

Ist halt doof, wenn man bei Software und Hardware wieder wechselseitige Abhängigkeiten beachten muss, zwischen den Welten wie Windows, ESXi und Solaris tanzen will und dann auch noch einen bezahlbaren Kompromiss braucht. Wenn man für Solaris nicht JEDES Jahr ca. 1000 Euro berappen müsste, hätte ich da vielleicht sogar schon in den sauren Apfel gebissen...
 
OmniOS ist doch ohnehin geas erste Wahl für napp-it als Solarish. Ich hatte das kurz mal getestet - da war die Treiberunterstützung um Längen besser als beim Original.
 
Ich finde die Lizenzen für den Heimgebrauch bei Solaris auch einfach viel zu teuer. Wenn man wenigstens den Zugriff auf die SRU Repos gegen ein kleines Endgelt erhalten würde...
 
Tjo. Quasi notgedrungen bin ich gerade dabei, mir mit dem freien Server 2019 Hyper-V Core einen billo-Fileserver zu bauen. Als ESXi-VM. Yeah, von hinten durch's Knie. Die Hypervisor-Funktion werd ich halt nicht nutzen. Naja, „if it’s stupid, but it works, it ain‘t stupid“ oder? :d Am Ende ist das ja auch nichts anderes als das durchaus beliebte ESXi-ZFS/Nappit-AIO-Konzept.

Jedenfalls läuft RDMA mit SMB Direct total unkompliziert quasi „out-of-the-box“.

Wen‘s interessiert, weils ja sehr OS-spezifisch ist, hab ich das mal hier etwas detaillierter festgehalten (wie immer vor allem als Merkposten/Doku für mich selbst)... ;)

 
Direkt mal zwei bestellt:
Und ein generisches QSFP28 Kabel von FS.
Intel Omni-Path ist zwar mittlerweile tot seitens Intel, aber Adapter sehr günstig.

100gbps für 119€. Fast 1gbps/€ :ROFLMAO:

Ich bin gespannt, ob das läuft. Ich werde berichten.
Geplant ist NVMe SAN für ESXi um Kosten für einen Hardware RAID Controller zu sparen.
 
Aus reiner Neugier: Womit willst du denn die SAN aufbauen?
 
Ich habe mir vor längerer Zeit mal die x16 Bifurcation Karte für 4 SSDs angeschafft. Das zusammen mit Software RAID ist schon erheblich günstiger als ein LSI 9440, 9460 oder 9560.

wahrscheinlich wird es napp-it.

Das habe ich mal testweise als VM auf dem selben ESX laufen lassen. Beim All-In-One hat mich aber die Performance nicht überzeugt.
Daher der Versuch über einen zweiten Server und einen RDMA Adapter.
 
Hallo,

spiele gerade mit dem Gedanken auf 40GBit aufzurüsten - hier meine Geräte:

40GBit
2 Server (Windows Server 2019)
Keller

10 oder 40Gbit
3 Clients Windows 10 Pro
alle im OG

Gigabit
ca 10 Geräte
EG & OG

PoE Kameras
6 Stück
EG

für die Windows PCs würde ich diese Karten nehmen:
HP Infiniband NIC 544QSFP
und umflashen auf MCX354A-FCBT

Bei den Kabeln hab ich an OM4 gedacht was meint ihr? Bekommt man fertige Kabel einfach in ein 16er Wellenrohr?
Würde wohl pro Stockwerk einen Switch hinstellen und mit 40GBit verbinden? Welche Switches würdet Ihr vorschlagen (im EG brauche ich min 6x PoE)
Welche QSFP+ Tranceiver würdet Ihr empfeglen und hab ich was vergessen?

Brauchen tut man das natürlich nicht aber denke statt in 10G kann ich auch gleich in 40G investieren :)

DANKE
lg
AL
 
Brauchen tut man das natürlich nicht aber denke statt in 10G kann ich auch gleich in 40G investieren :)
Dann solltest du dir mal anschauen, was 40G Transceiver und passende Kabel kosten.
10m Kabel kosten 100EUR.
Im Bereich Server macht das noch Sinn, wobei auch da ein Kabel schon 50EUR kostet, im Haus dann eher 10GBE.
MT hat einen Switch mit 2x 40GBE und einen Haufen 10GBE.

Aktuell ist der Preisunterschied zwischen 40GBE und 10GBE schon enorm, gerade bei Infrastrukturverkabelung. 10GBE Kabel kostet 1/10 von dem, was ein 40GBE Kabel kostet. Geht man auf Singlemode um beim Kabel zu sparen, so bezahlt man das dann beim Transceiver wieder drauf.
 
Hallo,

spiele gerade mit dem Gedanken auf 40GBit aufzurüsten - hier meine Geräte:

40GBit
2 Server (Windows Server 2019)
Keller

10 oder 40Gbit
3 Clients Windows 10 Pro
alle im OG

Gigabit
ca 10 Geräte
EG & OG

PoE Kameras
6 Stück
EG

für die Windows PCs würde ich diese Karten nehmen:
HP Infiniband NIC 544QSFP
und umflashen auf MCX354A-FCBT

Bei den Kabeln hab ich an OM4 gedacht was meint ihr? Bekommt man fertige Kabel einfach in ein 16er Wellenrohr?
Würde wohl pro Stockwerk einen Switch hinstellen und mit 40GBit verbinden? Welche Switches würdet Ihr vorschlagen (im EG brauche ich min 6x PoE)
Welche QSFP+ Tranceiver würdet Ihr empfeglen und hab ich was vergessen?

Brauchen tut man das natürlich nicht aber denke statt in 10G kann ich auch gleich in 40G investieren :)

DANKE
lg
AL
Wenn der Stromverbrauch egal ist: Brocade ICX6610-24/48(P). 2x 40G, 16x 10G, 24 oder 48 Ports mit oder ohne PoE(+).
Ansonsten, wie underclocker sagte, 40G ist noch ein großes Stück teurer als 10G, daher am Besten nur zur direkten Verkabelung mittels DAC oä. nutzen.
Wäre hilfreich zu wissen, ob du daheim eine Sternverkabelung hast oder du wirklich zwischen Keller und OG separate Switche brauchst.
 
Hallo,

habe leider keine Sternverkabelung und auch keine Leerrohre - die aktuelle cat5e liegt zusammen mit Koax von daher hab ich wenig Möglichkeiten. Würde gerne zumindest bei den Kabeln schon was zukunftssicheres nehmen da spielt der preis (solange es im Rahmen liegt) gar nicht so ne Rolle. Was würdet ihr da am besten nehmen (muss zusammen mit nem Koax in ein 16er Wellenrohr passen (würde alles ausziehen und gemeinsam einziehen)?

DANKE
lg
AL
 
Ein 16er ist extrem problematisch bei vorkonfektionierten LWL-Kabeln. Im ungünstigsten Fall kommst du mit denen durch keine Kurve.
Die Angaben sind dazu etwas dürftig (Anzahl Zimmer? Meter? Etc), aber evtl geht ein MTP Kabel zuerst und danach noch Koax. Gleichzeitig... K.a. 16er hat sicher der Elektriker gelegt? Ich weiß nicht, warum die immer an der unteren Kante verlegen...
Im blödsten Fall kannst Du über gespleißte LWL nachdenken, also Stecker erst nach durchziehen "anlöten". Kann nur Profi-Firma und kostet entsprechend.
 
Hab ich mir fast schon gedacht - red mal mit meinem Elektrofachmann ob der auch spleißt - welches Kabel würdet ihr da nehmen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh