[Sammelthread] 10Gbit Homenetzwerk

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Intel scheint ja noch etwas Nachholbedarf bei Netzwerk-Komponenten zu haben, so dass als Abfall neuer 40 GbE-Chipsätze auch neue 10 GbE-Karten kommen - nett: Endlich mit RDMA (iWARP)-Unterstützung:


Wenn die mal günstiger verfügbar sind, wären sie eventuell einen Blick wert.
 
Ich brauche einmal eure Einschätzung:
Meine Filmdateien sind alle zwischen 30-40GB groß. Damit diese schneller übertragen werden habe ich mich dazu entschlossen eine 10GBE Verbindung zwischen NAS und Rechner herzustellen.
Das NAS ist ein Synology DS1618+ inkl. passender Synology 10GBE RJ45 Karte. Im inneren werkeln 5x6TB WD60EFAX im RAID 5. Auf der anderen Seite nutze ich einen Intel i7 6700k, Maximus Ranger VIII +32GB RAM verbaut ist zusätzlich ein ASUS XG100C 10GBE RJ45 Karte. Im ganzen Netzwerk wurden Cat. 7 Kabel verwendet!! Als SSD habe ich im Rechner eine M.2 EVO 970 Plus von Samsung mit einer Größe von 500GB.

Wenn ich nun vom Rechner eine 40GB Datei aufs NAS kopiere, habe ich im Schnitt zwischen 380-420MB/s was meines Erachtens für 10GBE sehr wenig ist. Ich suche nun nach dem Grund für die langsame Geschwindigkeit. Die Platten im NAS (5x6TB) haben ja eine Geschwindigkeit von 180MB/s. Da die Platten ja im RAID 5 laufen sollte ich doch eine Geschwindigkeit von 5x180MB= ≈900MB/s. Hier bin ich ja Meilenweit weg. Kann mir jemand sagen was ich noch versuchen könnte?
 
@Swp2000

Welche NIC hast Du denn im PC verbaut?
Welche Netzwerkparameter hast Du schon angepasst?
Zugriff via SMB?
 
Versuchen kannst du hier nicht viel. Das ist die normale Geschwindigkeit.
Zum einen zählt nur die Schreibrate von 4 Platten da immer 4 Datenpakete und ein Parity Paket geschrieben werden und zum anderen sind die 180 MB/s das Maximum am äußeren Rand der Platten.
Im Mittel hast du aber nur um die 100 MB/s. Somit passt deine Geschwindigkeit ziemlich genau.
Was hilft ist das Raid 5 um eine Platte zu erweitern --> um die 100 MB/s mehr.
 
@Swp2000

Ja, die Geschwindigkeit ist für die mechanischen Platten OK, selbst ein richtiges Hardware-RAID5 macht sequenziell nur etwa (n-1)x(Geschwindigkeit einer Platte). Kann man bei dem Synology-NAS und im Windows-Treiber gucken, ob beide Enden der 10 GbE-Verbindung Jumbo Frames unterstützen? Bei einer kleinen 1 GbE-Verbindung macht das einen kleinen Unterchied bei SMB von ca. 113 MiB/s zu 118 MiB/s - nicht die Welt, aber wenn's geht, nimmt man es gerne mit.
 
Versuchen kannst du hier nicht viel. Das ist die normale Geschwindigkeit.
Zum einen zählt nur die Schreibrate von 4 Platten da immer 4 Datenpakete und ein Parity Paket geschrieben werden und zum anderen sind die 180 MB/s das Maximum am äußeren Rand der Platten.
Im Mittel hast du aber nur um die 100 MB/s. Somit passt deine Geschwindigkeit ziemlich genau.
Was hilft ist das Raid 5 um eine Platte zu erweitern --> um die 100 MB/s mehr.
Ich finde dazu leider nichts wo etwas zu RAID 5 und Plattengeschwindigkeit steht. Wo hast du das her das man die Schreibrate bei 5x6TB bei 4x180MBs pro Platte sehen kann.
 
Ein Raid5 verwendet eine Festplatte von der Kapazität gesehen für die XOR Daten um den Ausfall einer Platte zu verkraften. Beim lesen werden zwar alle 5 Platten gelesen - inklusive der XOR-Daten - aber nur vier Platten tragen Nutzdaten.
 
Dazu wie schon geschrieben wurde, ist es ein Software Raid. Ich finde die Geschwindigkeit i.o.
 
In der Tat ist absolut im Rahmen. Ich hatte mit 4x4TB im RaidZ (Raid5) so 300-350MB/s. Hab dann mal spaßeshalber zu Testzwecken auf dem Storage und Desktop jeweils 16GB Ramdisks eingerichtet und davon/dahin kopiert und es so geschafft, die 1GB/s mal zu sehen. :)
 
Ist bei meinen Qnap nicht anders. Ich komme mit 5x 10 TB IronWolf Raid 5 auf etwa 300 bis max 600 MB's. Eher so 400/450 MB's rum. Mit M.2 Lese/Schreib Cache komme ich auch auf volle 1 GB's. :)
 
Die Platten im NAS (5x6TB) haben ja eine Geschwindigkeit von 180MB/s.
Auf den äußersten Spuren, auf den inneren nur etwa halb so viel und HDDs werden gewöhnlich von außen nach innen beschrieben.
Das NAS ist ein Software Raid, Raid5 schreibend ist da nicht so schnell wie deine Theorie
Die Linux md SW RAIDs sind sehr performant solange die CPU nicht limiert, aber beim Schreiben auf ein RAID 5 werden nur auf 4 der 5 Platten wirklich Daten geschrieben, auf die 5. kommen ja die Paritydaten und daher sind eben 600MB/s bei dem RAID 5 aus 5 HDDs dann 150MB/s pro Platte, sehr voll ist das RAID also wohl noch nicht.
 
Von den 600Mb/s sind wir auch noch etwas weg, aber ja du hast recht etwa 40% sind erst belegt. Demnach limitiert hier keine CPU? Ich habe noch eine einzelne SSD im NAS da müsste die Übertragung ja am Maximum liegen, demnach?

PS: ich hatte gestern mal etwas recherchiert bzgl. RAID 5. In jeder formulierung wird erwähnt das der Speicherplatz n-1 ist und auf der letzten eben die Paritydaten sind. Was ich aber nirgends gefunden habe, ist ein Hinweis das man bei meinem Beispiel mit 5 Platten die Geschwindigkeit mit 4 multiplizuieren kann (RAID 5 mit 5 Platten) ich habe diese Info auch nur vom Hören/Sagen jemand einen Link wo das erläutert wird?
Beitrag automatisch zusammengeführt:

Mit M.2 Lese/Schreib Cache komme ich auch auf volle 1 GB's. :)
Das nützt aber auch nur bei kleinen Dateien. Meine sind jedoch zwischen 30-40GB groß!
 
Zuletzt bearbeitet:
Wikipedia:
"RAID 5
RAID 5 consists of block-level striping with distributed parity. Unlike RAID 4, parity information is distributed among the drives, requiring all drives but one to be present to operate. Upon failure of a single drive, subsequent reads can be calculated from the distributed parity such that no data is lost."
Widerlegt den ersten Teil Deines "PS", die parity-Daten werden verteilt.
Und die Lese-/Schreibgeschwindigkeit ist eine rechnerische Wahrheit: Wenn fünf HDDs zeitgleich lesen/schreiben dürfen, aber ein Fünftel errechnete Parity-Daten sind, bleibt wieviel an Nutzdaten "zeitgleich"? Immer optimale Bedingungen vorausgesetzt, z.B. gleich schnelle Platten, Innere/äußere Spuren "synchron", keine Verschlüsselung bzw gute CPU dafür, kein Flaschenhals im Netzwerk, usw.
Real kann man daher von jeder Datenblatt-seitigen Schreibleistung etwas abziehen und mit der Anzahl der Platten-1 multiplizieren.
 
Demnach limitiert hier keine CPU?
Schau selbst nach, bei Linux z.B. mit top und dann auf 1 drücken um die Auslastung der einzelnen Kerne zu sehen, ist einer auf 100% so limitiert die per-core-performance die Geschwindigkeit des Prozesses der auf diesem Kern ausgeführt wird. Welches das ist, dürfte man daran erkennen, dass dieser Prozess wahrscheinlich selbst auch 100% CPU Auslastung hat. Bei Linux beziehen sich die 100% immer auf einen Kern und nicht wie bei Windows auf alle Kerne, so dass bei Windows z.B. eine CPU mit 4 Kernen (oder 2 +SMT) eben bis zu 400% Auslastung haben kann.
hatte gestern mal etwas recherchiert bzgl. RAID 5. In jeder formulierung wird erwähnt das der Speicherplatz n-1 ist und auf der letzten eben die Paritydaten sind.
Wobei es nicht immer die gleiche Platte ist die die Partitydaten enthält.
Was ich aber nirgends gefunden habe, ist ein Hinweis das man bei meinem Beispiel mit 5 Platten die Geschwindigkeit mit 4 multiplizuieren kann (RAID 5 mit 5 Platten)
Das ergibt sich doch durch logisches Denken: Wenn man 5 Platten im RAID 5 hat und auf einer die Paritydaten stehen, dann können die Nutzdaten, also die die übertragen werden (die Paritydaten erzeugt ja das NAS selbst) und damit ergibt sich bestenfalls die 4 fache Transferrate wie für eine Platte. In der Praxis ist nichts perfekt und auch ein RAID skaliert nicht 100%. Außerdem hängen die Schreibraten bei HDDs eben davon ab wo auf welche Spuren geschrieben wird, wie lang die Zugriffe sind und auch ob ab und an Metadaten geschrieben werden, denn dazu müssen die Köpfe meist auf andere Positionen gehen und dann wird auch nur recht wenig geschrieben, so dass dort die Write Penalty des RAID 5 weiter bremst.
 
Guten Morgen,
ich habe ein Synology DS1618+ und verwende aufgrund meines mangelden Plattenplatzes aktuell ein iSCSI Volume an meinem Rechner. Das DS1618+ hat fünf Seagate Ironwolf und ein SSD Cache (Spielerei), angebunden via zwei 1Gb.

Nun möchte ich hier etwas mehr Performance, da auf dem iSCSI Volume ein paar Games liegen. Synologys 10Gb Karte ist im Kerne eine rebranded Mellanox ConnectX-3 kostet allerdings schon ein paar Scheine.

Restliches Netzwerk ist ein Unifi Switch 60W, sodass ich gerne den CRS305-1G-4S+IN kaufen würde um Rechner, sowie NAS per 10Gb anbinden. Der 1Gb Port geht als Uplink und PoE zum Unifi.

Ich schwanke bei den Netzwerkkarten zwischen den Mellanox ConnectX-3 MCX354A-QCBT oder FCBT (was ist hier der Unterschied? Ich lese häufig etwas vom Umflashen der Karten, geht für mich aus dem Datasheet nicht hervor) oder den Mellanox MCX311A-XCAT. Preislich liegen die alle unter 80 Euro pro Karte. Verbinden würde ich per Cisco DAC Kabel.

Macht aus eurer Sicht das Vorhaben so Sinn?
Was muss ich noch beachten?
Welche Karten würdet ihr nehmen?

Cheers
 
Gibt es einen offensichtlichen Grund weshalb ein "generischer" SFP 1 GbE-RJ-45-Transceiver (ohne +) nicht in einem MikroTik CRS326-24S+2Q+RM (aktuelles Stable SwitchOS) SFP+-Port funktioniert?

Dachte, SFP-Module in SFP+-Slots seien kein Problem. Der SFP+-Slot und das Netzwerkkabel sind auch OK, mit einem SFP+-10 GbE-RJ45-Transceiver gehen sowohl 10 GbE- als auch 1 GbE-Verbindungen problemlos (aber die Transceiver schlucken bekanntlich mehr Strom, sind teurer und für ein paar Geräte bräuchte ich lediglich 1 GbE.

In Windows kommt beim 1 GbE-RJ45-Transceiver die Meldung, dass kein Netzwerkkabel eingesteckt sei, die LEDs des Ports am Switch bleiben auch aus (in der Firmware taucht er auch nicht auf, Zugriff über Winbox).
 
Wird er im Switch erkannt? (Transceiverübersicht oder sowas?)

Es gibt da das Problem mit AutoNeg, was mal deaktiviert ist und mal nicht.
10G LWL hat z.B. kein AutoNeg mehr und je nach Implementierung im Switch kann es da dann Probleme geben, wenn man AutoNeg braucht, für 1G z.B..
Kenne aber die MTs nicht um da konkret was zu sagen. An anderer Stelle gibt das aber schon gerne mal Stress, muss man aber auch drauf kommen im Eifer des Gefechtes...
 
Gibt es einen offensichtlichen Grund weshalb ein "generischer" SFP 1 GbE-RJ-45-Transceiver (ohne +) nicht in einem MikroTik CRS326-24S+2Q+RM (aktuelles Stable SwitchOS) SFP+-Port funktioniert?

Dachte, SFP-Module in SFP+-Slots seien kein Problem. Der SFP+-Slot und das Netzwerkkabel sind auch OK, mit einem SFP+-10 GbE-RJ45-Transceiver gehen sowohl 10 GbE- als auch 1 GbE-Verbindungen problemlos (aber die Transceiver schlucken bekanntlich mehr Strom, sind teurer und für ein paar Geräte bräuchte ich lediglich 1 GbE.

In Windows kommt beim 1 GbE-RJ45-Transceiver die Meldung, dass kein Netzwerkkabel eingesteckt sei, die LEDs des Ports am Switch bleiben auch aus (in der Firmware taucht er auch nicht auf, Zugriff über Winbox).
Du musst den Port manuell auf 1G stellen.
 
Wenn das so ist, i told you, AutoNeg ist ne Bitch.

Oder, man kauft einfach nen ordentliches Switch, dann geht das auch so... ;)
 
Auto-Negotiation deaktivieren und manuell 1G einstellen war die Lösung, danke!

Ja, hatte ein wenig Tomaten auf den Augen (hatte bei Ports statt den Interfaces gesucht), der Umfang der "managed" Funktionen beim MikroTik ist etwas größer als meinen bisherigen kleinen TP-Links. ;)

Von den Ports her ist das Modell fast wie auf mich zugeschnitten, daher hoffe ich, dass er bei mir brav seinen Dienst verrichtet. Wenn es mal QSFP+-Switche gibt (mindestens 8 Ports, "bezahlbar und <100 W im Leerlauf), würde ich vielleicht wieder über einen Wechsel nachdenken.
 
Zuletzt bearbeitet:
Was wäre denn eine aktuelle Budget-Empfehlung für 16er 1 GBit Switch mit mindestens 1x 10GBit Port?

Usecase wäre zweimal im Jahr für LAN-Partys mit zentralem Speichergerät, also alles RJ45, Stromverbrauch/Lärm komplett egal., aber gerne so billig wie geht :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh