[Sammelthread] 10Gbit Homenetzwerk

Ne, einfach Karte rein und die wurde sofort in ipconfig gelistet. mlnx4-en war schon mit der Installation dabei in Debian
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gibt es eigentlich eine Möglichkeit um herauszufinden welcher Prozess, oder welche Komponente meines Kaspersky den Traffic limitiert? Der Windows Task Manager bringt mich da leider nicht weiter.
Will mal schauen ob ich das so modifizieren kann damit es so läuft wie ich es will, und es den Traffik im Lokalen Netzwerk nicht mehr überwacht.
 
@MisterY Auf meiner NAS läuft seit diesem Jahr Ubuntu 18.04 mit Kernel 4.15 und Conectx-2 ohne Probleme.


Noch ne Kleine Frage meinerseits:
Jumbo Frames:
Es ist bei 10 Gbit/s SEHR vorteilhaft mit Jumboframes zu arbeiten.
Grund: 10 Gbit/s bei 1500 Byte pro Paket macht gigantisch viele Pakete in der Sekunde!
Diese verursachen beim Eintreffen Interrupts, die können aber nicht auf mehrere Kerne verteilt werden und daher flooden sie einen Kern bis er "voll" ist. Dann ist die maximale Datenrate für 1500er Frames erreicht.
Bei meinen Benches ist das irgendwann bei 300-400 MByte/s der Fall.
Mit 9000 Byte Jumboframes wird die Interruptrate deutlich reduziert, weil die
Anzahl der Pakete um den Faktor 6 zurückgegangen ist.
Ist das Thema noch aktuell? Ich bekomme zwischen 2 RamDisks auch nur ca 300-400 MByte/s... Ich dachte Jumboframes braucht man nicht mehr, erst recht weil sie ja nicht richtig standardisiert sind. Oder ist eher die CPU Athlon 5350 der Flaschenhals?

MfG Basti
 
Zuletzt bearbeitet:
Jumboframes muss man nicht zwingend nutzen... ich bekomm hier auch 1GB/sec über den Unifi XG Switch ohne Jumbos... probiert zwischen Windoof-Unraid, Unraid-Freenas, Windoof-Freenas, ...klappt irgendwie überall. Der Windowsrechner hat die Asus 10Gbe Karte drin, die anderen beiden (Server) haben jeweils eine Connect X3 drin.
Ich hab ehrlichgesagt noch gar nie probiert Jumboframes zu aktivieren weils auch so klappt wie ich das will.
 
Hey,

ich habe es eben mal schnell ausprobiert, es scheint noch aktuell zu sein.
Vorher ca 300-400MByte/s nun ca 400-500MByte/s, ich gebe mich mal wieder zufrieden, ca 35% fixer der Spaß.
Zwischenablage02.jpgZwischenablage03.jpg
Die Laufwerke schaffen es eh nicht und für max 7GB große Dateien für die Ramdisks hat man dann die ~15 Sekunden ;)
Außerdem scheint der kleine Athlon 5350 nicht mehr zu schaffen, ein Kern hängt beim Kopiervorgang direkt bei 100%, aber als Heim-NAS vollkommen ausreichend...

MfG Basti
 
Zuletzt bearbeitet:
Moin,

Habe mal eine Frage, kann ich die Intel X550-T2 die ja 2 Ports hat "kommt an meinen Nas im Keller" einen Port mit meinem PC, der denn natürlich auch eine 10G Karte bekommt.
Und den anderen Port vom Nas an meinen 1G Switch der denn mit IP Cam, Fritzbox usw verbunden ist?
 
Jo klar geht das. Nimm unterschiedliche IP Netze und achte darauf, die Verbindung nicht zu überbrücken. Sonst blockiert dir Spanning-Tree deine Verbindung zum Switch oder die NAS-Verbindung zum Switch.
 
Zuletzt bearbeitet:
Wer soll denn in dem Aufbau spanning tree machen?
Wenn er die NIC brückt und beide Ports im selben L2-Netz hängen, hat er nen Loop und es geht Garnichts mehr im gesamten Netzwerk. Nen spanning tree wird da garnicht aufgebaut. (ich gehe mal davon aus, dass sein Switch nicht über die Funktionalität verfügt)

Aber so wie er den Aufbau plant, kann er die NIC auch brücken, da sich kein Loop ausbildet. Es gibt 2 separate Netze, wobei der PC und das NAS in beiden Netzen hängen. Da die aber (L2-)getrennt sind, bildet sich auch kein Loop aus, wenn er die NIC im NAS brückt. Lediglich, wenn er zusätzlich im PC noch ne Brücke macht, dann hat er nen Loop. Aber auch da bildet sich kein spanning tree aus, da seine FB(von mehr ist bisher nicht die Rede) sicherlich kein spanning tree unterstützt und damit den Port nicht aufmacht. Die Folge ist, wie beschrieben, nen komplett totes Netz.

PS: Es ist aber auf jeden Fall sinnvoll nen separates Netz zu machen, mit unterschiedlichen IPs und dann nur mit der zusätzlichen IP das NAS anzusprechen. Sonst wird der PC immer über das 1GBE Netz auf das NAS zugreifen und der 10GBE Link liegt tot da.
 
Zuletzt bearbeitet:
Ich hab das mal aufgemalt, was ich aus dem Text vom Wofi entnommen hab:
grafik.png

Wenn der PC direkt per 1G (grün) mit dem Switch verbunden ist, an dem auch die FP, AP, CAM,... hängen, ist das vermutlich über den DHCP von der FB das "LAN" (i.d.R. 192.168.178.X/24)
Wenn man nun das NAS mit nem 10G Link, an ein 1G-Switch hängt, macht der Link nur 1G - oder der Switch hat ein Uplinkport mit 10G - wie auch immer, das soll wohl ins normale "LAN" - bekommt dort auch eine IP aus dem Bereich der FB.

Die direkt-Verbindung zwischen PC und NAS auf 10G (rot) müsste natürlich in ein anderes Netz - "Storage" mit z.B. 192.168.1.X/24 (könnte man auch kleiner wählen)

Da die meisten NAS aber keine Netzwerkbrücke im Sinne von Routing alla FB/Layer3-Switch, etc... machen geht das so und es gibt auch keinen Loop. (selbiges gilt an der Stelle für den PC)
Selbst wenn der Port am NAS per LinkAggregation/Etherchanel/Trunk eingestellt ist, gibt es kein Problem mit Loop, da es nicht klappen wird, vom PC aus auf den Switch zuzugreifen, wenn der PC keinen weiteren Link hat! - dann is das mit dem Loop aber eh hinfällig, weil es ja schon Physikalisch kein Kreis wird.

Die Endgeräte arbeiten da nämlich anders als Switche - hast Du schon mal versucht mit mehreren Netzwerkkarten in nem PC, daraus ein Switch zu bauen? - Das ist ein Ding der Unmöglichkeit, weil die eben nicht auf L2-Basis arbeiten.
 
Zuletzt bearbeitet:
Die Endgeräte arbeiten da nämlich anders als Switche - hast Du schon mal versucht mit mehreren Netzwerkkarten in nem PC, daraus ein Switch zu bauen? - Das ist ein Ding der Unmöglichkeit, weil die eben nicht auf L2-Basis arbeiten.

Quelle, dass das so sein soll?!
Man nehme Windows, 2 NICs/Interfaces, richte über beide eine Netzwerkbrücke ein. ("Verbindungen überbrücken" nennt sich die Funktion im Kontextmenü)
Und fertig ist der L2-Interlink aka Switch.
Kann man auch mit mehr als 2 Ports machen. Das ist dann ein Windows-based-Softwareswitch. Habe ich in den letzen 10Jahren etliche Male gemacht, hat (fast) immer geklappt.
Das kann, je nach NAS, auch auf einem NAS implementiert werden. Ist alles eine Frage der Software.
 
Zuletzt bearbeitet:
Hab ich selber schon gebaut - einen Loop hab ich da auch Testweise schon auf Switche diverser Hersteller gehabt, nie ein Problem, währen ein Loop unter 2 Switchen direkt ein definitives Problem ist, wenn kein STP an ist.

Ansonsten gibt es mit der Netzwerkbrücke auch die Möglichkeit 2 Netze miteinander zu verbinden, da spielt dann der PC/Windows den Router...
Ich werds die Tage nochmal mit nem aktuellen W10-PC probieren, hab hier grad noch welche da.
 
Du darfst Switch nicht mit Switch gleichsetzen.

Wenn du mit professionellen Geräten arbeitest, die STP können, dann ist das idR per Default an. (damit nicht irgend nen Bauer Dose 1 mit Dose 2 verknotet)
So ne Netgeargruke hat aber kein STP und damit ist das Verbinden von Port 1 mit Port2 ein Loop und keiner reißt die Schleife auf. Das selbe passiert auch mit SW1/P1-SW2/P1 und SW1/P2 auf SW2/P2, klatsch, alles aus.

Nein, Netzwerkbrücke ist eine L2-Verbindung. Die nutze ich oft, wenn ich grad mal keinen TAP dabei habe und mal was mit Wireshark mitsniffen will. 1 Rechner, 2 NICs, 1 Brücke und viola der Netzwerkverkehr (L2 selbstverständlich) über diesen Rechner liegt mir zu Füßen.

Was du meinst, ist das Windows Internetconnectionsharing (ICS). Das ist aber auch kein reines L3 sondern ein NAT. Da ist es dann so, dass nur ein L3 semidurchlässiger Interlink entsteht.
Aber von ICS reden wir nicht, wir reden von einer Netzwerkbrücke.

PS: Es gibt natürlich auch noch andere Möglichkeiten Direktloops zu erkennen. Das machen die Plastikbomber aber nicht.
 
Zuletzt bearbeitet:
Ok, - die Netgears können das übrigens wohl, is aber leider (zumindest bei den Webmanaged) nicht per default an...

Die von Dir beschriebene Netzwerkbrücke != Etherchanel - LACP?
quasi eher der Mirroring-Port von nem Switch?

Ich hatte das seinerzeit ja mal versucht, weil ich zwar keinen Switch an Platz X hatte, aber nen System mit ner QuadNIC...
 
Gibts Erfahrungswerte im Thread mit 10Gbit NICs im aktuellen Microserver Gen10? Der hat ja zwei PCIe, der kurze ist zwar nur mit x1 angebunden, aber das sollte für fast 1GB/s reichen, zumindest brutto.
Ich finde aber nirgends Benchmarks zu dem Teil.
 
@Konfetti
Mir gings um Einfachstswitche ohne MGM.
Jop, Netzwerkbrücke ist ne reine Windows Softwarefunktion. Kein 802.3ad oder sonstiges. Es ist wirklich ein reines Pakete schupsen, mit allem was da kommt. (zusätzlich hängt der Rechner selber noch drauf, mit L2)
Ne MAC Tabelle wird da nicht drauf laufen, so tief bin ich aber nicht eingetaucht, da ich bisher zum Spielen mit 2 NICs auskam. Wäre ja erst ab >2 interessant.

Wie gesagt, ich nutze das schon seit längerem. Manchmal spackt es auch rum. Da muss man dann die NICs anders rum reinfügen, kicken und wieder reinfügen, aber es geht (irgendwann), Windows halt.
 
Zuletzt bearbeitet:
Ok, dann werd ich das nochmal probieren, ich hab da nämlich durchaus einen Anwendungsfall für, wo ich mir wirklich dann etwas spare - bisher gings nur eben nicht, hatte dann eigentlich gehofft, das es da im Opensource-Bereich was gibt, auf Linux-Basis, aber bin nicht fündig geworden.

Danke für die Aufklärung.
 
@underclocker2k4 ich bin da wohl von mit ausgegangen, der sein NAS virtualisiert betreibt, genaue Komponenten nannte der Fragesteller ja nicht. Wenn es z.B. eine NAS VM ist unter einem vSwitch und er bridged die NICs unter Windows hat er definitiv einen sauberen L2-Loop erzeugt. Wenn wir jetzt von einem 0815 Syno/QNAP reden kann er natürlich nicht so ohne Weiteres einen Loop bauen.

@konfetti unter Linux kann man mit dem „ip“ Kommando auch recht schnell und trivial eine Bridge einrichten. Wenn es dann performant sein soll kompiliert man Openvswitch mit DPDK Unterstützung und verwendet eine unterstützte NIC mit PMD ;) da switcht man auch eben mal 100 Gbps mit entsprechendem CPU ;)
 
@Sch4kal - ich bin da wohl etwas zu blauäugig rangegangen, ich hatte eher was in richtung fertige Distro gesucht, die ähnlich der Cisco-CLI funktioniert.
Die is an sich ja auch in weiten teilen n Linux, vorallem, wenn man sich die HW der ASAs anschaut, die je nach Baureihe auch Switching mit integriert hat.
Wobei der Nachfolger der 5505, die 5506 auf den interfaces kein switching mehr erlaubt...

Für die vSwicht-Geschichte, kommt es aber wieder darauf an, welchen Betriebsmodus dort die hinzugefügten NICs haben. - im round-robin, als auch load-balanced Mode, ist es nicht möglich 2 PCs an die NICs direkt anzuschließen und diese dann miteinander kommunizieren zu lassen - zumindest ist mir das mit ESXi 5.5 und 6.0 nicht gelungen, wobei ich nicht direkt 2 PCs dran hatte, sonder je ein Switch und dahinter Clients... - aber ich glaube wir driften ab ;)
 
https://wiki.linuxfoundation.org/networking/bonding
broadcast or 3
Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance.
Ist halt ne Frage, was du genau damit vorhast...

EDIT:
Wobei der Nachfolger der 5505, die 5506 auf den interfaces kein switching mehr erlaubt...
Das können unsere 100k EUR Checkpoints auch nicht. L3 und sonst garnix. Was nicht geht, kann auch nicht (femd)eingeschaltet werden und damit ist ausgeschlossen, dass 2 Sec-Zonen verbunden werden.
Ist nicht immer so toll, gerade wenn man etwas "Zaubern" will, ist aber so.
 
Zuletzt bearbeitet:
Hey,

hat schon jemand die Melanox Conectx2 im PCIE 2.0x1 Slot betrieben? Natürlich bringt sie dann nur max ca 400mb/sek aber das schafft die NAS mit der alten SSD auch nicht.
Bevor ich mir nun einen Riser baue (von x1 auf x8) und eine 2-Port Connectx2 fürs NAS bestelle (um die singleport für die 2. Station mit x1 Anschluss umzusetzen), wollte ich nach Erfahrungen fragen.

Ps: Krass sind die 2-Port Conectx2 aktuell billig, keine 50€ incl. Versand.


MfG Basti
 
Zuletzt bearbeitet:
PS: Es ist aber auf jeden Fall sinnvoll nen separates Netz zu machen, mit unterschiedlichen IPs und dann nur mit der zusätzlichen IP das NAS anzusprechen. Sonst wird der PC immer über das 1GBE Netz auf das NAS zugreifen und der 10GBE Link liegt tot da.

Das stimmt so nicht ganz, die 10GBE Links werden in Windows in der Regel mit einer kleineren Metrik eingetragen, sprich sie werden bevorzugt bzw. man kann diese auch manuell setzen. Ich habe mehrere Rechner, die sowohl mit 10GB als auch 1GB im gleichem Netz hängen und sie nutzen alle bevorzugt die 10GBE Verbindung.
 
Anscheinend hier,
ip-einstellungen-4a.jpg
ganz unten das Kästchen für Automatische Metrik.
Ich werde mir das Thema am Wochenende auch anschauen, du darfst gerne berichten wenn du schneller bist.

Des weiteren bringt das eintragen des NAS in die Hosts datei nocheinmal geschwindigkeitssteigerung, kann das jemand bestätigen?


MfG Basti
 
Oder die Metrik manuell per Powershell setzen...

> Get-NetIPInterface
gibt dir eine Liste der Interfaces und dann z.B.

> Set-NetIPInterface -InterfaceIndex "21" -InterfaceMetric "20"
...das Beispiel ist jetzt aus dem Raum gegriffen.

In meinen Systemen ist 10GB immer mit der niedrigsten Metrik eingestellt. Um so kleiner um so bevorzugter. Bei einigen ist es 4 bei anderen 10, keine Ahnung wo die unterschiedlichen Werte der anderen Interfaces herkommen, vermutlich aus der Automatik.
 
Zuletzt bearbeitet:
Ist allerdings unerheblich wenn du smbmultichannel nutzt, dann werden alle kanäle zum ziel genutzt.
Hatte das problem, dass somit meine quad 1gbit nic und die 10gbit genutzt wurden und die 10gbit karte nur 1gbit übertragen hat.

Das lässt sich dann mit mit smb multichannel contraints lösen
 
@Morpheuz Macht denn smbmultichannel bei einer einzigen 10GB Verbindung Sinn, in meinem Fall vermutlich nicht? Und muss man etwas spezielles tun, um dies zu aktivieren? Bin auf W10 unterwegs. Dachte da würde höchstens RDMA etwas bringen und das ist glaube eh der Serverversion vorbehalten.
 
Ich würde auch auf keinen Fall ein seperates Netzt machen mittlerweile hat Windows das extrem gut im grif und nutz automatisch die schnellste Verbindung bzw. bündelt so zwei verbindungen.
Ich habe normal meine Notebooks nur im Wlan hängen muß ich mal große Datenmengen bewegen schließe ich einfach das Gibt Land kabel an und nach ca. 5 Sekunden sieht man wie die Datenübertragungsrate hochspringt und er das Gibt benutzt.
Ohne irgendwelche speziellen Konfigurationen.
Genauso wie Link Aggregation (Kanalbündelung von 2 Netzwerkkarten) was früher ja nur bestimmte Switche erforderte inzwischen unter SMBV2/V3 funktioniert das mit jeden dummen 15€ MiniSwitch.

- - - Updated - - -

Des weiteren bringt das eintragen des NAS in die Hosts datei nocheinmal geschwindigkeitssteigerung, kann das jemand bestätigen?
Die zeit bis zum ersten Zugriff könnte um ein ganz paar ms reduziert werden aber sobald die sich einmal gefunden haben bringt das keinen Geschwindigkeitsvorteil.
 
Genauso wie Link Aggregation (Kanalbündelung von 2 Netzwerkkarten) was früher ja nur bestimmte Switche erforderte inzwischen unter SMBV2/V3 funktioniert das mit jeden dummen 15€ MiniSwitch.
Das ist totaler Unfug, wo hast du das her?
LACP aka 802.3ad hat mit SMBv2/3 überhaupt nichts am Hut.

LACP geht auch heute nur mit bestimmten Switches, nämlich mit denen, die diese Funktion beherrschen.
MultichannelSMB hat NICHTS aber auch GARNICHTS mit 802.3ad zu tun.
MultichannelSMB funktioniert nur mit Windows Filezugriffen und mit keiner anderen Funktion.
Versuch mal mit dieser Funktionsweise mittels FTP mehr als 1GBE (bei 2x 1GBE am Rechner) durch die Leitung zu ziehen. Du wirst kläglich scheitern.

Windows hat im Bereich Netzwerk Garnichts im Griff. Hatte es noch nie und wird es wohl auch nie haben.
Hatte mich erst am WE damit rumgeärgert, mit einem aktuellen Windows 10, soviel zum Thema Windows hat Netzwerk im Griff.
 
Naja, er meinte eigentlich NIC-Teaming, was es mit oder ohne LACP-Unterstützung ab 2012R2 gibt. Das habe ich aber auch nicht weiter verfolgt, da nur mit SMB-Multichannel mehr HOST-HOST-Durchsatz drin ist. Naja, theoretisch könnte man dann mit zwei separaten TCP-Verbindungen FTP beschleunigen. Handhabbarkeit fragwürdig ;)
Bevor ich mich mal mit 10GB-Adaptern befaßt hatte, habe ich mich mal damit ausgetobt, und habe schnell zu 10GB gewechselt.

Für RDMA benötigst du eine RDMA-fähige 10GB-Karte. Die Mellanox2 läßt sich auf RDMA flashen (Hatte ich im Betrieb) wollte dann aber supportete Adapter und habe jetzt zwei Mellanox3er-Karten drin. Intel unterstützt kein RDMA. Man benötigt allerdings wirklich einen Server 2012R2 aufwärts, der die Shares zur Verfügung stellt. RDMA-Client Support ist in Windows 10 eingebaut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh