[Sammelthread] 10Gbit Homenetzwerk

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich kenn den Switch jetzt nicht so, ist der denn bekannt dafür empfindlich bei den Transceivern zu sein und nur mit irgendwelchen zertifizierten zu laufen? Ansonsten kosten generische 3rd-Party Transceiver doch nicht sooooo viel, um die 30 Euro oder sowas?
 
Jo, ich sag ja auch nicht, dass das Teil schlecht ist.

Aber theoretisch betrachtet, brauche ich ja dann noch 12x 10GBICs. Es kommen also nochmal mindestens ca. 300-400€ dazu. Dann wäre ich in Summe schon wieder bei knappen 1000€.

Hat das Teil eigentlich nen Lüfter?

Ich hätte gerne einen Unifi-Switch mit 8-10 10G-Base-T-Ports. LWL brauche ich nicht. Davon müssen außerdem mindestens 4 Ports PoE(+) beherrschen. Lüfterlos wäre auch klasse.

Mal sehen, was da noch so kommt. Ich habe keine Eile. ;)

Gruß Hoppel
 
Jo, der Switch hat hinten zwei Lüfter. Kann man aber durch was leiseres ersetzen, Noctua NF-A4x10 FLX oder Noctua NF-A4x20 PWM zum Beispiel.

Kompatible 10GBASE-SR SFP+ MM Module ab 16$ pro Stück bei FS.com. Geht also von den Kosten her noch.

Greetz MAC_Ferrari
 
bevor ich jetzt stundenlange im WWW weitersuche, kann der Mikrotik CSS326-24G-2S+RM LACP (IEEE802.3ad) oder nicht?
Einmal hiess es in der SwOS Version 2.1 wäre es buggy, der Hersteller erwähnt nicht dass es überhaupt geht, dann finde ich Infos dass es nun in Version 2.2 gehen soll (aktuell gibts v2.2 von SwOS).

Kurz: ich suche einen günstigen Switch mit 8-16 Ports und mindesten 2x 10GBit (egal ob SFP+ oder direkt RJ45). Möchte dann einen Trunk auf ein ev. späteres NAS oder eine schnelle WLAN Bridge machen, daher LACP.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Jetzt weiss ich nicht mehr weiter:
Hab mir 2 Asus XG-C100C + XG-U2008 2x10G Switch zugelegt. Switch wird übrigens "gut" warm.
Die Karten sind 1x im "Server" (Asus Z97-DEL) 2012 R2 + 1x im PC (Asus Z97-C) Win7/64 - ja ich weiss: nicht mehr grad das Neueste...

Problem:
NetIO zeigt mir 290-310MB Durchsatz
Beide Karten brauchen beim Deaktivieren - Aktivieren 20 sec.
Beide sind in den langen PCI-Slots
Dann hab ich mit einem CAT7 Kabel (15m) direkt die PC's verbunden - immer selbes Ergebnis.
Jumbo beide auf 9014 - direkt mal auf 10G gesetzt
Treiber von Aquantia direkt verwendet - ohne Erfolg
Beide Karten zeigen 10G an.
liegts an mir; an den XG-C100C, oder an den Maschinen?
 
Kopier mal ein großes File hin-und-her. Diese IPerf zum Beispiel liefert teilweise auch keine richtigen Ergebnisse. Weiss allerdings nicht wie das mit netio aussieht.

Da kann es allerdings auch sein, dass deine Platten limitieren (beim Kopiertest, eher nicht bei netio ;) ).
 
Zuletzt bearbeitet:
Oh auf das hab ich noch gar nicht geachtet...
beim Server sind ca. 20%
beim PC 2%
beides sind Xeon E3-1241 V3
sieht also gut aus

- - - Updated - - -

ja das mit dem großen File (20 GB) zeigt fast dasselbe:
schwankt zwischen: 290-310 MB/s
beides SSD pro 850 im Raid und PC: Samsung EVO

müsste die Last am PC nicht höher sein?

auf techtest.org haben die genau das getestet mit sehr gutem Ergebnis - also die Dinger sollten laufen
hab ich eine oder 2 Montags-Karten erwischt?
 
Zuletzt bearbeitet:
Jetzt weiss ich nicht mehr weiter:
Hab mir 2 Asus XG-C100C + XG-U2008 2x10G Switch zugelegt. Switch wird übrigens "gut" warm.
Die Karten sind 1x im "Server" (Asus Z97-DEL) 2012 R2 + 1x im PC (Asus Z97-C) Win7/64 - ja ich weiss: nicht mehr grad das Neueste...

Problem:
NetIO zeigt mir 290-310MB Durchsatz
Beide Karten brauchen beim Deaktivieren - Aktivieren 20 sec.
Beide sind in den langen PCI-Slots
Dann hab ich mit einem CAT7 Kabel (15m) direkt die PC's verbunden - immer selbes Ergebnis.
Jumbo beide auf 9014 - direkt mal auf 10G gesetzt
Treiber von Aquantia direkt verwendet - ohne Erfolg
Beide Karten zeigen 10G an.
liegts an mir; an den XG-C100C, oder an den Maschinen?

Jumbo Frames auch im Switch aktiviert?

"langer PCIe" Slot bedeutet erst einmal nichts. In welchem Modus der läuft erfährst du aus dem Handbuch. Du benötigst 1250MB/s für die volle 10G-Geschwindigkeit. Eventuell musst du den Slot konfigurieren, um die volle Geschwindigkeit zu bekommen. PCIe-Geschwindigkeiten siehe: PCI Express Wikipedia
Wenn der Slot beispielsweise ein PCIe 2.0 Slot ist und x2 Speed konfiguriert ist, wirst du nicht über 1000MB/s kommen. Bei PCIe 2.0 x1 ist schon bei 500 MB/s schluss.
 
@mika
im Server: keine weiteren Karten, nicht mal ne Grafikkarte;
im PC: nur eine Grafik im 1. 16bit Slot die Asus im 2,ten
@myBerg
nein, Switch ist "unmanaged" - aber Kabel direkt brachte selbiges Ergebnis.

jetzt les ich das Manual...
scheint wirklich die PCIe Bus Leistung zu sein...

also
beim PC: ist der 2. lange ein PCIe 2.0 x 16 (im Bios "freigeschaufelt") würde der reichen?
beim Server: der 1. lange PCIe 2.0/3.0 x16
 
Zuletzt bearbeitet:
jetzt les ich das Manual...
scheint wirklich die PCIe Bus Leistung zu sein...

also
beim PC: ist der 2. lange ein PCIe 2.0 x 16 (im Bios "freigeschaufelt") würde der reichen?
beim Server: der 1. lange PCIe 2.0/3.0 x16

Ich habe mal in das Handbuch von dem PC-Board geschaut:
1 x PCI Express 3.0/2.0 x16 slot (at x16 mode)
1 x PCI Express 2.0 x16 slot* (max. at x4 mode, compatible with PCIe x1 and
x4 devices)
2 x PCI Express 2.0 x1 slots*
3 x PCI slots
*
The PCIe x1_1, PCIe x1_2 slots share bandwidth with PCIe x16_2(@x4). The PCIe
x16_2 slot runs at x2 mode as default. Please check BIOS for more configuration
Der 2. 16er Slot kann maximal PCIe 2.0 x4. Default ist x2, was ein Limit von etwa 1000 MB/s = 8 Gbps ist. Das sollte noch nicht das Limit sein, auf das du gerade läufst, aber wenn du x4 haben willst, dann muss du das konfigurieren und kannst dann die Slots PCIex1_1 und PCIex1_2 nicht mehr nutzen.
Außerdem die Autdetection PCIe für Gen1-Gen2 fix auf Gen2 setzen.
 
wäre das "stimmig"?

* ICMP Fragmentation is not permitted. *
* Speed optimization is enabled. *
* Maximum payload is 10000 bytes. *
+ ICMP payload of 1472 bytes succeeded.
+ ICMP payload of 1473 bytes succeeded.
+ ICMP payload of 5046 bytes succeeded.
+ ICMP payload of 7523 bytes succeeded.
+ ICMP payload of 8761 bytes succeeded.
- ICMP payload of 9380 bytes is too big.
- ICMP payload of 9070 bytes is too big.
+ ICMP payload of 8915 bytes succeeded.
- ICMP payload of 8992 bytes is too big.
+ ICMP payload of 8953 bytes succeeded.
+ ICMP payload of 8972 bytes succeeded.
- ICMP payload of 8982 bytes is too big.
- ICMP payload of 8977 bytes is too big.
- ICMP payload of 8974 bytes is too big.
- ICMP payload of 8973 bytes is too big.
Path MTU: 9000 bytes.

- - - Updated - - -

@myBerg
dann hab ich das richtig eingestellt :-)
genau so ists im Bios: hatte noch eine weitere Intel PCIe Lan Card drin - die dann tatsächlich nicht mehr lief
mittlerweile entfernt.
also würde der PC ausreichen
und auch der Server, oder?

ich hab schon das halbe Netz durchsucht nach einem Tool mit dem ich die PCIe "Speed" messen (dokumentieren) kann
da finde ich nichts.
 
MTU 8972 ist oft das Maximum, passt also.
 
Man braucht nicht unbedingt Jumboframes für gute 10G-Performance. Gibt es im Treiber für die Karten Einstellungen für Interruptdrosselung/Interrupterate, RX/TX-Buffer bzw. gibt es da überhaupt was was man einstellen kann? Es müssen nicht die selben Begriffe sein, aber sinngemäß etwas naheliegendes.

Wenn ich bisher Probleme mit nicht-so-gut-wie-erwartet-performenden 10G-Netzen hatte, dann waren es die konservativen Defaulteinstellungen von im Treiber von Intel.
 
Zuletzt bearbeitet:
2.jpg
hab mal die Grafiken hochgeladen mit möglichen Einstellungen1.jpg
 
Erstell doch mal auf beiden Systemen ne Ramdisk und kopiere Dateien da hin und her. Mich dünkt, dass das Problem eher auf der Festplatten/SSD-Seite liegt.
 
Auf den ersten Blick interessant:

Interrupt Moderation
Interrupt Moderation Rate
Maximum Number of RSS Queues
Receive Buffers
Transmit Buffern

Das sind alles Einstellungen die auf "Kosten" von CPU-Last oder RAM die Performance erhöhen können. Oder eben auch die Performance verschlechtern, wenn sie zu konservativ eingestellt sind um Systemlast zu vermeiden.
 
@myBerg
dann hab ich das richtig eingestellt :-)
genau so ists im Bios: hatte noch eine weitere Intel PCIe Lan Card drin - die dann tatsächlich nicht mehr lief
mittlerweile entfernt.
Ja, perfekt.

ich hab schon das halbe Netz durchsucht nach einem Tool mit dem ich die PCIe "Speed" messen (dokumentieren) kann
da finde ich nichts.
Man kann sich zumindest zurückliefernlassen, was die Hardware ermittelt hat. Der Powershell-Befehl Get-NetAdapterHardwareInfo liefert dir die PcieLinkSpeed und PcieLinkWidth. 5GT/s + 4 Lanes ist bei PCIe 2.0 notwendig, um auf 2000 MB/s zu kommen.


Kannst Du mal die aktuellen netio-Detail-Werte posten?
 
@myBerg
guuter Befehl!
Get-NetAdapterHardwareInfo:

Name Ethernet 3

Segment 0
Bus 1
Devivce 0
Function 0
PCIeLinkSpeed 5.0 Gt/s
PCIeLinkWith 4
Version 1.1 oh jeeh - das wird der Fehler sein!! ?? aber wie ändere ich das?

--> im Manual vom Z97-Deluxe steht: slot2 PCIe 2.0/3.0 x 16_1 Steckplatz hmm


Board = Asus Z97-Deluxe
dlcdnet.asus.com/pub/ASUS/mb/LGA1150/Z87-DELUXE/G9061_Z97-DELUXE.pdf

am PC läuft Win7/64 gäbs da einen ähnlichen Befehl?

- - - Updated - - -

NetIO:

NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 259.50 MByte/s Tx, 272.15 MByte/s Rx.
Packet size 2k bytes: 209.72 MByte/s Tx, 249.67 MByte/s Rx.
Packet size 4k bytes: 206.46 MByte/s Tx, 234.97 MByte/s Rx.
Packet size 8k bytes: 210.92 MByte/s Tx, 225.79 MByte/s Rx.
Packet size 16k bytes: 227.14 MByte/s Tx, 264.13 MByte/s Rx.
Packet size 32k bytes: 292.49 MByte/s Tx, 344.30 MByte/s Rx.

UDP server listening.
TCP server listening.
TCP connection established ...
Receiving from client, packet size 1k ... 259.46 MByte/s
Sending to client, packet size 1k ... 281.23 MByte/s
Receiving from client, packet size 2k ... 209.65 MByte/s
Sending to client, packet size 2k ... 257.88 MByte/s
Receiving from client, packet size 4k ... 199.80 MByte/s
Sending to client, packet size 4k ... 242.73 MByte/s
Receiving from client, packet size 8k ... 203.98 MByte/s
Sending to client, packet size 8k ... 235.68 MByte/s
Receiving from client, packet size 16k ... 227.07 MByte/s
Sending to client, packet size 16k ... 264.13 MByte/s
Receiving from client, packet size 32k ... 292.40 MByte/s
Sending to client, packet size 32k ... 344.29 MByte/s
Done.

- - - Updated - - -

@MisterY
Ramdisk selbe Werte annähernd NetIO

die SSD's müssten in jedem Fall mehr liefern als 300MB/s, oder?
wäre mit > 500 schon zufrieden
 
Zuletzt bearbeitet:
Hast du meinen letzten Post gesehen?

Auf den ersten Blick interessant:

Interrupt Moderation
Interrupt Moderation Rate
Maximum Number of RSS Queues
Receive Buffers
Transmit Buffern

Das sind alles Einstellungen die auf "Kosten" von CPU-Last oder RAM die Performance erhöhen können. Oder eben auch die Performance verschlechtern, wenn sie zu konservativ eingestellt sind um Systemlast zu vermeiden.

Insbesondere wenn die Performance geringer ist als man das bei SSDs erwarten würde und sich auch bei einer Ramdisk nichts ändert, dann sollte man sich die Werte mal anschauen.

PCIe 1.1 wird übrigens vermutlich nur ein Energiesparmodus sein, sofern du im BIOS den Port nicht fix auf Gen1 eingestellt hast.
 
Zuletzt bearbeitet:
Ich ziehe bald um und dort gibt es Glasfaser. Gibt es da einen messbaren Vorteil von der Latenz her, wenn ich vom Anschluss bis zu den PCs (ca. 10-20 Meter) LWL nehme anstatt Kupfer?
 
@DunklerRabe
bin grad dabei
sollte ich Wert für Wert umstellen und zwischendurch mit NetIO testen?

Interrupt Moderation Rate aus oder "extreme",,, high,,,

- - - Updated - - -

Interrupt Moderation Rate "extreme"

im Vergleich:
vorher
TCP connection established.
Packet size 1k bytes: 241.03 MByte/s Tx, 255.54 MByte/s Rx.
Packet size 2k bytes: 205.66 MByte/s Tx, 241.12 MByte/s Rx.
Packet size 4k bytes: 204.51 MByte/s Tx, 232.00 MByte/s Rx.
Packet size 8k bytes: 210.69 MByte/s Tx, 230.14 MByte/s Rx.
Packet size 16k bytes: 228.48 MByte/s Tx, 263.65 MByte/s Rx.
Packet size 32k bytes: 290.34 MByte/s Tx, 344.75 MByte/s Rx.
Done.


D:\1_1>netio -t PC

NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel

TCP connection established.
nachher
Packet size 1k bytes: 356.46 MByte/s Tx, 266.01 MByte/s Rx.
Packet size 2k bytes: 332.53 MByte/s Tx, 279.02 MByte/s Rx.
Packet size 4k bytes: 337.76 MByte/s Tx, 285.37 MByte/s Rx.
Packet size 8k bytes: 340.34 MByte/s Tx, 287.58 MByte/s Rx.
Packet size 16k bytes: 322.15 MByte/s Tx, 302.47 MByte/s Rx.
Packet size 32k bytes: 301.40 MByte/s Tx, 294.26 MByte/s Rx.
 
Zuletzt bearbeitet:
Gibt doch erstmal die Standardwerte durch und dazu noch die möglichen Werte, die da angeboten werden. Teilweise wird das ein Drop-Down-Menü mit einigen Möglichkeiten sein, teilweise wird man relativ frei eine Zahl eingeben können.

Ich rate mal:

Interrupt Moderation
On/Off

Interrupt Moderation Rate
Extreme und High hast du schon genannt, gibt es auch Medium und Low o.Ä.?

Maximum Number of RSS Queues
Steht vermutlich auf 4 oder weniger und ist frei wählbar?

Receive Buffers / Transmit Buffers
Beide frei wählbar und der Default ist 512?

Und dann erkläre ich was es damit auf sich hat, an den Werten rumspielen und testen ist nicht unbedingt zielführend.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh